Spotify hat vor kurzem eine KI-gesteuerte Sprachübersetzungsfunktion angekündigt, mit der sich Abonnenten globale Podcasts in ihrer Muttersprache anhören können, wobei der ursprüngliche Sprachstil des Podcasters beibehalten wird.
In Zusammenarbeit mit großen Namen wie Dax Shepard und Lex Fridman startet das Pilotprojekt mit spanischen, französischen und deutschen Übersetzungen.
Ziel ist es, Sprachbarrieren zu überwinden und die Hörerbindung weltweit zu vertiefen.
Auch OpenAI gab bekannt, dass ChatGPT bald sehen, hören und sprechen können wird, so dass sich Nutzer mit dem Programm per Sprache unterhalten können.
Aber das ist nur der Anfang. Haben Sie jemals davon geträumt, mit der Stimme Ihres Lieblingsmusikers zu singen? Die Innovatorin und experimentierfreudige Musikerin Holly Herndon hat diesen Traum in greifbare Nähe gerückt.
Sie hat ein KI-Modell darauf trainiert, ihre unverwechselbare Stimme nachzumachen. Bei einem TED-Vortrag stellte sie Holly+ vor, ein KI-gestütztes Tool, mit dem man mit ihrer Stimme singen kann.
In einer Live-Demo, die die Aufmerksamkeit des Publikums erregte, verwendete der Künstler PHER zwei Mikrofone. Das eine nahm seine natürliche Stimme auf, während das andere sie so veränderte, dass sie wie die von Holly klang.
Als er in beide Mikrofone sang, war der Effekt wie ein fesselndes Duett. Je nach Blickwinkel kann man dies als bahnbrechendes musikalisches Experiment oder als digitale Nachahmung betrachten.
Schluss mit Deepfake-Videos. Die Bühne ist bereitet für das KI-Stimmenklonen, das in den kommenden Monaten in aller Munde sein wird.
Für jemanden, der eine wachsame Haltung gegenüber den unbeabsichtigten Folgen der Technologie einnimmt, öffnet das Anvertrauen von Big Tech mit der Fähigkeit zur Duplizierung unserer stimmlichen Identität jedoch eine weitere Büchse der Pandora.
Mit jeder neuen KI-Lösung scheinen sich die Bedenken zu verstärken.
Anfang des vergangenen Jahres geriet die Social-Media-Influencerin Mia Dio in die Schlagzeilen.
Sie hatte ein TikTok-Video veröffentlicht, in dem sie ihren Freund Billy mit Hilfe einer KI-Stimmenklontechnik beim Fremdgehen ertappte.
Im Video benutzte Mia eine geklonte Stimme von Billy, um mit seinem Freund zu sprechen und sich nach seinen Aktivitäten in der vergangenen Nacht zu erkundigen. Der Freund bestätigte scheinbar Billys Untreue.
Später stellte Mia jedoch fest, dass das ganze Szenario eine Inszenierung war, an der alle Seiten beteiligt waren. Das Video löste eine Diskussion über die Leichtigkeit und die ethischen Implikationen des Stimmenklonens aus.
So erklärte Mia, dass sie die Software von ElevenLabs zur überzeugenden Nachahmung von Billys Stimme für nur 4 $ verwendet habe.
Das Aufkommen der Technologie zum Kopieren von Stimmen droht einen der grundlegendsten Aspekte der persönlichen und finanziellen Sicherheit zu untergraben: Vertrauen.
Die Euphorie über die Bequemlichkeit und Zugänglichkeit des sprachgesteuerten Bankings wird durch öffentlichkeitswirksame Vorfälle gedämpft, wie z. B. den Betrug des Geschäftsführers eines britischen Energieunternehmens um 220.000 €.
Der Technologe Rob Williams hat mit Hilfe kostenloser Tools, auf die jeder online zugreifen kann, in weniger als einer Minute einen schockierend realistischen KI-Klon seiner Stimme erstellt.
Die Kopie war derart überzeugend, dass sie sogar seine Frau täuschte.
Diese Aufnahme ist eine rechtzeitige Erinnerung daran, dass Sie, wenn ein geliebter Mensch Sie plötzlich anruft und Sie mündlich um eine Geldüberweisung bittet, nicht nur Ihren Ohren trauen sollten.
Denken Sie daran, ein „Codewort“ für zusätzliche Sicherheit festzulegen.
Stimmenklonen vs. Voice Banking: Der Sicherheitskonflikt in der Fintech-Branche
Technologien zum Klonen von Stimmen wie VALL-E und ElevenLabs sind nicht nur für Hobbyanwender geeignet, sondern können in Sekundenschnelle nahezu perfekte Nachbildungen menschlicher Stimmen erstellen. Die Auswirkungen gehen über einzelne Betrugsfälle hinaus.
Ein einziges überzeugendes Deepfake-Audio könnte kaskadenartige Ausfälle in einem Sicherheitsprotokoll auslösen, Börsenturbulenzen verursachen oder diplomatische Beziehungen stören.
Die Leichtigkeit und Schnelligkeit, mit der Stimmen nachgeahmt werden können, beschleunigen ruchlose Aktivitäten, einschließlich Desinformationskampagnen, die weitreichende Folgen für die Gesellschaft haben können.
Während sprachbasierte Banksysteme mit beeindruckender Geschwindigkeit wachsen, haben die entsprechenden Fortschritte bei den Sicherheitsprotokollen nicht Schritt gehalten.
Viele Finanzinstitute kämpfen noch immer mit den Feinheiten der Multi-Faktor-Authentifizierung und der Stimmbiometrie, die bei weitem nicht sicher gegen ausgeklügelte Angriffe durch KI-Stimmenklonen sind.
Diese Sicherheitslücke setzt die Kunden finanziellen Risiken aus und gefährdet die Integrität sprachgesteuerter Systeme, was zu einer Vertrauenskrise bei den Nutzern führen könnte.
Der Bankensektor hat sich wohl von der Begeisterung für neue Technologien und die Bereitstellung reibungsloser Erlebnisse ablenken lassen.
Aber sie müssen ihre Innovationskraft durch eine ebenso starke Betonung der Sicherheitsmaßnahmen abmildern.
Auf dem Weg durch diese vielversprechende, aber auch gefährliche Landschaft ist es für Verbraucher und Unternehmen gleichermaßen wichtig, der Wachsamkeit in Sachen Sicherheit den Vorrang vor dem Glanz modernster Funktionen zu geben.
Sicherheitstipps zur Verhinderung von KI-Stimmenklonen
In der sich ständig weiterentwickelnden Cyberkriminalität erweist sich das KI-Klonen von Stimmen als eine zunehmend verbreitete Methode für betrügerische Handlungen.
Zum eigenen Schutz sollte man bei unaufgeforderten Anrufen, in denen persönliche oder finanzielle Informationen verlangt werden, immer vorsichtig sein.
Wenn Sie sich durch emotionale Appelle unter Druck gesetzt fühlen, ist das ein Warnsignal. Legen Sie auf und kontaktieren Sie die Person oder das Unternehmen direkt unter einer bekannten Telefonnummer.
Gehen Sie proaktiv vor, erstellen Sie ein eindeutiges „Familienkennwort“, das nur vertrauenswürdige Mitglieder kennen und das im Falle verdächtiger Aktivitäten sofort überprüft werden kann.
Um noch vorsichtiger zu sein, sollten Sie detaillierte Fragen stellen, die nur der echte Anrufer beantworten kann. Die Technologie allein ist kein absolutes Sicherheitsnetz.
Sich über die neuesten Betrugstechniken zu informieren und eine gesunde Portion Skepsis sind der beste Schutz in einer Welt, in der unsere Stimmen überzeugend nachgeahmt werden können.
Fazit
Während KI weiterhin die Schlagzeilen und unsere Fantasie beflügelt, ist es wichtig, sich daran zu erinnern, dass die Besessenheit von Big Tech, schnell zu sein und Dinge zu verändern, nicht neu ist. Was sich jedoch geändert hat, ist das, was auf dem Spiel steht.
Dabei geht es nicht nur um die Optimierung von Algorithmen, die unsere Social-Media-Feeds kuratieren oder den Echoraum im Internet anheizen, sondern um eine Frage des grundlegenden Vertrauens, die den Kern unseres persönlichen und finanziellen Lebens berührt.
Gelingt es uns nicht, diese schöne neue Welt zu verwalten und zu regulieren, riskieren wir, eine digitale Dystopie zu schaffen, in der die Grenzen zwischen Vertrauen und Täuschung verschwimmen und in der wir nicht nur die Hälfte dessen, was wir sehen, sondern auch jeden Ton, den wir hören, in Frage stellen.