Neue Gefahr: Virtuelles Kidnapping mit KI

DAS WICHTIGSTE IM ÜBERBLICK

Modernste Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML) wurden zur Erhöhung von Produktivität, Effizienz und Komfort in unserem Alltag entwickelt. Leider geraten sie auch in die Hände von Internetkriminellen mit böswilligen Absichten. Die virtuelle Entführung ist eine neue Form der Cyberkriminalität, bei der KI zur Manipulation von Entscheidungsprozessen und zur Beeinflussung menschlicher Emotionen zwecks Schädigung eingesetzt wird.

Kurzer Abstecher in eine Black Mirror-ähnliche Zukunftsvision, aber für einen guten Zweck.

Ihre Tochter ist auf ihrer ersten Klassenfahrt und freut sich, als Sie sie absetzen.

Nach ein paar Stunden sind Sie wieder zu Hause, und Ihr Telefon klingelt: Es ist Ihre Tochter! Etwas überrascht nehmen Sie den Hörer ab.

Sie werden von einer schroffen und unhöflichen Stimme auf der anderen Seite überrascht: „Wir haben Ihre Tochter.“

Im Hintergrund hören Sie sie um Hilfe schreien.
Fassungslosigkeit wird zu Schock, und dann kommt die Aufforderung, 50.000 $ zu zahlen.

Charlie Brooker kümmert sich um den Rest, aber es endet mit der Überweisung des Geldes, nur um festzustellen, dass Casey sicher und glücklich ist und ihre Reise genießt.

Willkommen in der Welt des virtuellen Kidnappings. Die Betrüger haben Sie gerade getäuscht.

Moment mal, was ist dann mit Caseys Stimme? Sie klang so echt

Begrüßen Sie die Welt, in der die Stimme jeder Person – ob verstorbener oder lebender – in Sekundenschnelle nachgeahmt werden kann.

Diese Technologie gibt es bereits für verschiedene Anwendungsfälle. Nehmen wir Podcast.ai, das Podcasts mit künstlicher Intelligenz (KI) generiert.

Der Gastgeber und die Gäste sind virtuell und können alle möglichen Personen sein – live auf Sendung sind gerade Joe Rogan und Steve Jobs.

Inzwischen übersetzt Spotify seine beliebtesten Podcasts in andere Sprachen – mit den Stimmen der Original-Podcaster.

Laut Subbarao Kambhampati, einem Informatikprofessor an der Arizona State University, der sich auf KI spezialisiert hat, haben sich die Fähigkeiten der KI zum Klonen von Stimmen rasch verbessert.

„Am Anfang brauchte man dafür eine größere Anzahl von Samples. Jetzt gibt es Möglichkeiten, dies mit nur drei Sekunden Ihrer Stimme zu tun. Drei Sekunden. Und mit diesen drei Sekunden kann man dem Klang der eigenen Stimme sehr nahe kommen. Der größte Teil der geklonten Stimmen fängt den Tonfall und die Emotionen ein. Je größer die Stichprobe ist, desto besser gelingt die Erfassung.“

Und falls die Geschichte, die wir Ihnen oben im Artikel erzählt haben, zu hypothetisch klingt, um zutreffend zu sein: Die Zitate stammen aus einem Fall, in dem eine Mutter aus Arizona einen Anruf von einem Stimmenklon erhielt, der 1 $ Million Lösegeld für die Rückkehr ihrer Tochter forderte – während ihre Tochter fröhlich beim Tanzunterricht war.

Wie funktioniert das Stimmenklonen?

Wenn Sie bereits mit Video-Deepfakes vertraut sind, können Sie sich die Software zum Klonen von KI-Stimmen als das auditive Gegenstück vorstellen.

Mit nur einem Schnipsel aufgezeichneter Sprache können Entwickler einen Audiodatensatz zusammenstellen und damit ein KI-Stimmenmodell trainieren, das die Zielstimme nachbilden kann.

Diese Modelle ahmen den Lernprozess des Gehirns nach und zeigen eine bemerkenswerte Effizienz beim Erkennen von Mustern in Daten. Es gibt verschiedene Ansätze für die Anwendung von Deep Learning auf synthetische Stimmen.

Sie führen in der Regel zu Verbesserungen bei der Aussprache von Wörtern und den nuancierten Aspekten der Sprache, wie Geschwindigkeit und Intonation, was im Ergebnis lebensechtere und menschlicher klingende Stimmen ergibt.

Laut Dan Mayo, einem Spezialagenten des FBI, finden die Betrüger ihre Opfer in sozialen Medien. Tatsächlich sind die sozialen Netzwerke voll von Video- und Audioclips, und ihre Besitzer sind leicht zu fassen.

Mayo rät: „Man muss diese Dinge unter Verschluss halten. Wenn man sie offen legt, macht man sich angreifbar für solche Leute, denn sie suchen nach öffentlichen Profilen, die möglichst viele Informationen über einen enthalten, und wenn sie diese in die Finger bekommen, werden sie in den Daten wühlen.“

Fazit

Die rasche Verbesserung des Stimmklonens durch KI spiegelt die enorme Geschwindigkeit der KI-Entwicklung wider und wirft die Frage nach Ethik, Geheimhaltung und Sicherheit auf.

Zweifellos befindet sich die KI mitten in einem Angriff auf unsere Privatsphäre und Sicherheit, und es gibt noch keine Lösung.

Eins können wir tun, nämlich vorsichtiger sein. Vielleicht sind wir schlafwandlerisch in eine Welt hineingewandert, in der wir unser Privatleben über die sozialen Medien bereitwillig der Öffentlichkeit preisgegeben haben.

Wir können zwar den Fortschritt der künstlichen Intelligenz nicht aufhalten, aber sicherlich können wir mit der Weitergabe unserer persönlichen Daten sorgfältiger umgehen.
Betrüger werden immer neue Wege finden. Doch unsere Aufgabe ist es, immer auf der Hut zu sein.

Verwandte Begriffe

Kaushik Pal

Kaushik ist technischer Architekt und Softwareberater und verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Softwareanalyse, -entwicklung, -architektur, -design, -prüfung und -schulung. Er interessiert sich für neue Technologien und Innovationsbereiche. Er konzentriert sich auf Webarchitektur, Webtechnologien, Java/J2EE, Open Source, WebRTC, Big Data und semantische Technologien. Kaushik ist auch der Gründer von TechAlpine, einem Technologie-Blog/Beratungsunternehmen mit Sitz in Kolkata. Das Team von TechAlpine arbeitet für verschiedene Kunden in Indien und im Ausland. Das Team verfügt über Fachwissen in den Bereichen Java/J2EE/Open Source/Web/WebRTC/Hadoop/Big Data-Technologien und technisches Schreiben.