Spotify kondigde onlangs een AI-gestuurde Voice Translation-functie aan waarmee abonnees wereldwijde podcasts in hun moedertaal kunnen beluisteren, terwijl de originele stemstijl van de podcaster behouden blijft. In samenwerking met grote namen als Dax Shepard en Lex Fridman start de pilot met Spaanse, Franse en Duitse vertalingen. De stap is bedoeld om taalbarrières te doorbreken en de betrokkenheid van luisteraars wereldwijd te vergroten.
Elders onthulde OpenAI ook dat ChatGPT binnenkort kan zien, horen en spreken, waardoor gebruikers spraakgesprekken kunnen voeren met ChatGPT.
Maar dit is nog maar het begin. Heb je er ooit over gefantaseerd om te zingen in de vocale stijl van je muzikale idool? Vernieuwer en experimentele muzikant Holly Herndon heeft die droom bijna werkelijkheid gemaakt door een AI-model te trainen om haar kenmerkende stem te repliceren. Tijdens een recente TED Talk onthulde ze Holly+, een AI-tool waarmee gebruikers in haar stem kunnen zingen.
In een live demo die de aandacht van het publiek trok, gebruikte artiest PHER twee microfoons. Eén pikte zijn natuurlijke stem op, terwijl de andere deze transformeerde zodat deze klonk als die van Holly. Het effect was als een meeslepend duet toen hij in beide microfoons zong. Afhankelijk van je perspectief, kan dit worden gezien als een baanbrekend muzikaal experiment of gewoon digitale nabootsing.
Maak plaats voor deepfake-video’s. Het toneel is klaar voor AI-stemkloning om de komende maanden gesprekken te domineren. Als iemand die een waakzaam standpunt inneemt over de onbedoelde gevolgen van technologie, opent het vertrouwen van grote technologiebedrijven met de mogelijkheid om onze vocale identiteit te dupliceren echter een andere doos van Pandora vol zorgen die elke nieuwe AI-oplossing lijken te volgen.
Eerder dit jaar haalde social media-influencer Mia Dio onlangs de krantenkoppen met een TikTok-video waarin ze te zien was hoe ze AI-stemkloningstechnologie gebruikte om haar vriend Billy te betrappen op vreemdgaan. In de virale video gebruikte Mia een gekloonde stem van Billy om met zijn vriend te praten en te vragen naar zijn activiteiten van de vorige nacht. De vriend bevestigde schijnbaar Billy’s ontrouw. Mia onthulde echter later dat het hele scenario een geënsceneerde grap was waarbij alle partijen betrokken waren. De video leidde tot gesprekken over het gemak en de ethische implicaties van stemklonen, aangezien Mia erop wees dat ze de ElevenLabs-software gebruikte om Billy’s stem overtuigend na te bootsen voor slechts $ 4
De opkomst van stemkloningstechnologie dreigt een van de meest fundamentele aspecten van persoonlijke en financiële zekerheid te ondermijnen: vertrouwen. De euforie rond het gemak en de toegankelijkheid van stemgebaseerd bankieren wordt getemperd door spraakmakende incidenten, zoals een CEO van een Brits energiebedrijf die € 220.000 werd opgelicht.
Meer recent maakte technoloog Rob Williams een schokkend realistische AI-kloon van zijn stem in minder dan een minuut, met behulp van gratis tools die iedereen online kan gebruiken. De stemkloon was zo overtuigend dat hij zelfs zijn vrouw voor de gek hield. Deze opname biedt een tijdige herinnering dat als een geliefde je plotseling verbaal belt en je vraagt om wat geld over te maken, je niet alleen op je oren moet vertrouwen – overweeg om een ’veilig woord’ in te stellen voor extra veiligheid.
Stemklonen versus stem banking: de beveiligingsstrijd binnen fintech
Stemkloningstechnologieën zoals VALL-E en ElevenLabs zijn niet alleen hobbytools; het zijn krachtige hulpmiddelen die in seconden bijna perfecte replica’s van menselijke stemmen kunnen maken. De gevolgen reiken verder dan individuele fraudegevallen. Eén overtuigende deepfake-audio kan een cascade van fouten in een beveiligingsprotocol in gang zetten, beursschokken veroorzaken of diplomatieke relaties verstoren. Het gemak en de snelheid van het nabootsen van stemmen zijn versnellers voor duistere activiteiten, waaronder desinformatiecampagnes die wijdverbreide maatschappelijke gevolgen kunnen hebben.
Terwijl op spraak gebaseerde banksystemen in een indrukwekkend tempo groeien, hebben de bijbehorende ontwikkelingen in beveiligingsprotocollen geen gelijke tred gehouden. Veel financiële instellingen worstelen nog steeds met de complexiteit van multifactorauthenticatie en stembiometrie, die verre van waterdicht zijn tegen geavanceerde AI-stemkloningsaanvallen.
Deze tekortkoming in beveiliging stelt klanten bloot aan financiële risico’s en brengt de integriteit van spraakgestuurde systemen in gevaar, wat kan leiden tot een vertrouwenscrisis onder gebruikers. De bankensector is aantoonbaar afgeleid door glimmende nieuwe technologie en het bieden van frictieloze ervaringen. Maar ze moeten hun innovatiedrang temperen met een even sterke nadruk op het versterken van beveiligingsmaatregelen. Terwijl we door dit veelbelovende maar gevaarlijke landschap navigeren, wordt het cruciaal voor zowel consumenten als bedrijven om prioriteit te geven aan beveiligingswaakzaamheid boven de schittering van geavanceerde functies.
Veiligheidstips om AI-stemkloning te voorkomen
In het veranderende landschap van cybercriminaliteit springt AI-stemkloning eruit als een steeds vaker voorkomende methode voor het uitvoeren van oplichting. Om jezelf te beschermen, moet je altijd voorzichtig zijn met ongevraagde oproepen waarin om persoonlijke of financiële informatie wordt gevraagd. Als u zich onder druk gezet voelt door emotionele oproepen met hoge inzetten, is dit een waarschuwingssignaal: hang op en neem rechtstreeks contact op met de persoon of entiteit via een bekend telefoonnummer.
Wees proactief door een uniek “familiewachtwoord” te maken dat alleen vertrouwde leden kennen, zodat er een onmiddellijke verificatiestap is in geval van verdachte activiteiten. Oefen voor een extra laag voorzichtigheid het stellen van gedetailleerde vragen die alleen de echte beller kan beantwoorden. Technologie alleen is geen waterdicht vangnet; op de hoogte blijven van de nieuwste oplichtingstechnieken en een gezonde dosis scepsis vormen de beste verdediging in een wereld waarin onze stemmen overtuigend kunnen worden nagebootst.
Conclusie
Nu kunstmatige intelligentie steeds vaker de krantenkoppen en onze verbeelding blijft veroveren, is het van cruciaal belang om te onthouden dat de obsessie van big tech om snel te bewegen en dingen te breken niet nieuw is. Maar wat nu anders is, zijn de belangen die erbij betrokken zijn. Het gaat niet alleen om het aanpassen van algoritmen die onze sociale mediafeeds samenstellen of onze online echo chambers voeden; het is een kwestie van fundamenteel vertrouwen dat de kern van ons persoonlijke en financiële leven raakt.
Als we er niet in slagen om deze dappere nieuwe wereld te beheren en te reguleren, lopen we het risico een digitale dystopie te creëren waarin de grenzen tussen vertrouwen en bedrog vervagen en waarin we onszelf niet alleen de helft van wat we zien, maar ook elk geluid dat we horen, in twijfel trekken.
Referenties
- Spotify’s AI Voice Translation Pilot Means Your Favorite Podcasters Might Be Heard in Your Native Language – (Spotify)
- Holly+ – (Holly Plus)
- Mia Dio – (TikTok)
- Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case – (The Wall Street Journal)
- Rob talking – (Soundcloud)