Deepfake-Sprachbetrug 7 18
 Die Stimme einer Person zu klonen ist einfacher als je zuvor. D-Keine/iStock über Getty Images

Sie sind gerade nach einem langen Arbeitstag nach Hause gekommen und wollen sich gerade zum Abendessen hinsetzen, als plötzlich Ihr Telefon zu summen beginnt. Am anderen Ende ist ein geliebter Mensch, vielleicht ein Elternteil, ein Kind oder ein Freund aus der Kindheit, der Sie bittet, ihm sofort Geld zu schicken.

Du stellst ihnen Fragen und versuchst zu verstehen. Irgendetwas stimmt nicht mit ihren Antworten, die entweder vage oder untypisch sind, und manchmal gibt es eine merkwürdige Verzögerung, fast so, als würden sie ein wenig zu langsam denken. Sie sind sich jedoch sicher, dass definitiv Ihr Liebster spricht: Das ist seine Stimme, die Sie hören, und die Anrufer-ID zeigt seine Nummer. Unter Hinweis auf die Seltsamkeit ihrer Panik schickst du das Geld pflichtbewusst auf das Bankkonto, das sie dir zur Verfügung stellen.

Am nächsten Tag rufst du sie zurück, um sicherzustellen, dass alles in Ordnung ist. Ihr Angehöriger hat keine Ahnung, wovon Sie sprechen. Das liegt daran, dass sie Sie nie angerufen haben – Sie wurden von der Technologie ausgetrickst: eine Deepfake-Stimme. Tausende Menschen waren 2022 auf diese Weise betrogen.

Die Fähigkeit, die Stimme einer Person zu klonen, wird zunehmend für jeden mit einem Computer erreichbar.


Innerself-Abonnieren-Grafik


 

As Computersicherheit Forscher, sehen wir, dass die laufenden Fortschritte bei Deep-Learning-Algorithmen, Audiobearbeitung und -technik sowie synthetischer Spracherzeugung dazu geführt haben, dass dies zunehmend möglich ist die Stimme einer Person überzeugend simulieren.

Schlimmer noch, Chatbots wie ChatGPT beginnen, realistische Skripte mit adaptiven Echtzeitantworten zu generieren. Von Kombinieren dieser Technologien mit der Spracherzeugung, verwandelt sich ein Deepfake von einer statischen Aufzeichnung in einen lebendigen, lebensechten Avatar, der überzeugend telefonieren kann.

Eine Stimme klonen

Einen überzeugenden Deepfake in hoher Qualität zu erstellen, egal ob Video oder Audio, ist nicht die einfachste Sache. Es erfordert eine Fülle künstlerischer und technischer Fähigkeiten, leistungsstarke Hardware und ein ziemlich kräftiges Sample der Zielstimme.

Es gibt eine wachsende Zahl von Serviceangeboten Produzieren Sie gegen eine Gebühr Sprachklone in mittlerer bis hoher Qualität, und einige Sprach-Deepfake-Tools benötigen eine Probe von nur eine Minute lang, oder auch nur ein paar Sekunden, um einen Stimmklon zu produzieren, der überzeugend genug sein könnte, um jemanden zu täuschen. Um jedoch einen geliebten Menschen zu überzeugen – zum Beispiel, um ihn in einem Identitätsbetrug zu verwenden – wäre wahrscheinlich eine wesentlich größere Stichprobe erforderlich.

Forschern ist es gelungen, Stimmen mit nur fünf Sekunden Aufnahmezeit zu klonen.

 

Schutz vor Betrug und Desinformation

Nach allem, was wir gesagt haben DeFake-Projekt des Rochester Institute of Technology, der University of Mississippi und der Michigan State University und andere Forscher arbeiten hart daran, Video- und Audio-Deepfakes zu erkennen und den von ihnen verursachten Schaden zu begrenzen. Es gibt auch einfache und alltägliche Maßnahmen, die Sie ergreifen können, um sich zu schützen.

Für Vorspeisen, Sprach-Phishing, oder „Vishing“, Betrug wie der oben beschriebene, sind die wahrscheinlichsten Sprach-Deepfakes, denen Sie im täglichen Leben begegnen können, sowohl bei der Arbeit als auch zu Hause. Im Jahr 2019, ein Energieunternehmen wurde um 243,000 US-Dollar betrogen als Kriminelle die Stimme des Chefs der Muttergesellschaft simulierten, um einen Mitarbeiter anzuweisen, Geld an einen Lieferanten zu überweisen. Im Jahr 2022 waren die Menschen um geschätzte 11 Millionen Dollar betrogen durch simulierte Stimmen, auch von engen, persönlichen Verbindungen.

Was können Sie tun?

Achten Sie auf unerwartete Anrufe, auch von Personen, die Sie gut kennen. Das heißt nicht, dass Sie jeden Anruf planen müssen, aber es hilft, zumindest eine E-Mail oder eine SMS im Voraus zu senden. Verlassen Sie sich auch nicht auf die Anrufer-ID, da das kann man auch fälschen. Wenn Sie beispielsweise einen Anruf von jemandem erhalten, der behauptet, Ihre Bank zu vertreten, legen Sie auf und rufen Sie die Bank direkt an, um die Legitimität des Anrufs zu bestätigen. Achten Sie darauf, die Nummer zu verwenden, die Sie sich notiert, in Ihrer Kontaktliste gespeichert oder bei Google gefunden haben.

Seien Sie außerdem vorsichtig mit Ihren persönlichen Identifikationsdaten wie Ihrer Sozialversicherungsnummer, Wohnadresse, Geburtsdatum, Telefonnummer, zweitem Vornamen und sogar den Namen Ihrer Kinder und Haustiere. Betrüger können diese Informationen verwenden, um sich bei Banken, Immobilienmaklern und anderen als Sie auszugeben, sich selbst bereichernd, während sie Sie in den Bankrott treiben oder Ihren Kredit zerstören.

Hier ist noch ein Ratschlag: Erkenne dich selbst. Kennen Sie insbesondere Ihre intellektuellen und emotionalen Vorurteile und Schwachstellen. Dies ist im Allgemeinen ein guter Lebensratschlag, aber es ist der Schlüssel, um sich vor Manipulationen zu schützen. Betrüger versuchen normalerweise, Ihre finanziellen Ängste, Ihre politischen Bindungen oder andere Neigungen, was auch immer diese sein mögen, herauszufinden und dann auszunutzen.

Diese Wachsamkeit ist auch eine gute Verteidigung gegen Desinformation durch Sprach-Deepfakes. Deepfakes können verwendet werden, um Ihre Vorteile auszunutzen Confirmation Bias, oder was Sie über jemanden glauben möchten.

Wenn Sie hören, dass eine wichtige Person, sei es aus Ihrer Gemeinde oder der Regierung, etwas sagt, das für sie entweder sehr untypisch erscheint oder Ihre schlimmsten Verdächtigungen bestätigt, sollten Sie vorsichtig sein.Das Gespräch

Über den Autor

Matthew Wright, Professor für Computersicherheit, Rochester Institute of Technology und Christoph Schwartz, Postdoktorand für Computersicherheit, Rochester Institute of Technology

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.