Wat is een deepfake?
Een deepfake verwijst naar door de computer gegenereerde video’s, geluidsopnames en afbeeldingen die worden gebruikt om personen af te beelden die dingen zeggen of doen die ze in werkelijkheid nooit hebben gedaan of gezegd. In wezen maakt deepfake-technologie gebruik van kunstmatige intelligentie (AI) en machine learning (ML) om synthetische digitale inhoud te genereren die eruitziet en klinkt alsof hij authentiek is.
Hoewel deepfakes kunnen worden gemaakt voor goedaardige doeleinden, zoals bij het maken van films of satire, hebben ze een negatieve bijklank gekregen omdat de meest bekende toepassingen van deepfake-technologie fraudegerelateerd zijn. Ze hebben de aandacht gekregen omdat ze kijkers kunnen misleiden door hen te laten geloven dat valselijk afgebeelde gebeurtenissen of uitspraken echt zijn.
Het vermogen van de technologie om misbruikt te worden heeft ethische, juridische en sociale vragen opgeroepen, vooral met betrekking tot verkeerde informatie, privacyschendingen en de manipulatie van de publieke opinie.
Techopedia legt uit wat Deepfake betekent
De deepfake definitie is een portmanteau van “deep learning” en “fake”. In deze context is deep learning een vorm van machine learning en is fake een synoniem voor gefabriceerde of synthetische gegevens.
Het is belangrijk om te onthouden dat, hoewel alle deepfakes synthetische data gebruiken, niet alle synthetische digitale inhoud als deepfakes kan worden aangemerkt. Het belangrijkste verschil ligt in de intentie achter de creatie van de inhoud en het potentieel voor misleiding.
Hoe worden Deepfakes gemaakt?
Deepfake modellen kunnen worden gemaakt met generative adversarial networks (GAN’s), autoencoders of variational autoencoders. Zodra het model voldoende is getraind, kan het worden gebruikt om deepfakes te maken door nieuwe trainingsgegevens of prompts in te voeren.
Wat is Deepfake-As-A-Service?
Als iemand tien jaar geleden overtuigende deepfakecontent wilde maken, moest hij een sterke achtergrond hebben in wiskunde, gegevenswetenschappen en computerprogrammering.
Tegenwoordig kunnen mensen gratis of goedkope apps en cloudservices gebruiken die overtuigende deepfakes kunnen maken op basis van slechts een paar referentieafbeeldingen of -video’s. Tencent heeft bijvoorbeeld een commerciële deepfake dienst die high-definition, realistische deepfake mensen kan maken met slechts drie minuten live-action video en 100 gesproken zinnen als bronmateriaal.
Helaas heeft dit het voor bedreigingsactoren gemakkelijker dan ooit gemaakt om ook deepfakes te maken. In de afgelopen vijf jaar zijn er opmerkelijke gevallen geweest waarbij deepfakes zijn gebruikt om verkeerde informatie te verspreiden, financiële fraude te plegen, niet-consensuele inhoud voor volwassenen te creëren en politieke campagnes op ongepaste wijze te beïnvloeden.
De kwaliteit van deepfakes die zijn gemaakt met goedkope software is echter niet consistent. Daarom worden deepfakes met opvallende gebreken of inconsistenties vaak aangeduid als cheapfakes of shallow fakes (het tegenovergestelde van deepfakes).
Gebruik van Deepfakes
Deepfakes zijn in verschillende contexten gebruikt, variërend van goedaardig en vermakelijk tot controversieel en kwaadaardig. Hier zijn enkele opmerkelijke voorbeelden (zowel goede als slechte).
- Deepfake-technologie is gebruikt in film en televisie om acteurs te de-agen of overleden acteurs terug te brengen op het scherm.
- Deepfakes van beroemdheden die humoristische of onverwachte dingen zeggen en impressionisten die veranderen in de beroemdheden die ze nadoen, zijn populair geworden op sociale media en YouTube.
- Video’s en audioclips van politieke figuren zijn gemaakt om toespraken te houden of uitspraken te doen die ze in werkelijkheid nooit hebben gedaan.
- Organisaties hebben deepfakes van beroemdheden gebruikt om aandacht te vragen voor gezondheids-, sociale en politieke kwesties.
- Er zijn gevallen geweest waarbij deepfakes werden gebruikt om nepnieuwsclips te maken waarin politieke figuren of beroemdheden controversiële dingen zeiden of deden om verkeerde informatie te verspreiden of de publieke opinie te beïnvloeden.
- Sommige deepfakes zijn speciaal gemaakt om politieke figuren te promoten of te ondermijnen of verkiezingen te beïnvloeden door ze af te beelden in compromitterende of controversiële situaties.
- Kunstenaars hebben deepfake technologie gebruikt om thema’s als identiteit, privacy en de aard van de werkelijkheid te onderzoeken. Deze projecten zijn vaak bedoeld om gedachten en discussies uit te lokken over de impact van digitale manipulatie en AI op de samenleving.
- Het Zuid-Koreaanse bedrijf DeepBrain AI biedt een deepfake dienst aan die afbeeldingen, audio en video van een overledene neemt en een avatar creëert waarmee nabestaanden kunnen chatten alsof ze nog in leven zijn.
- Deepfakes zijn gebruikt om historische figuren en gebeurtenissen na te bootsen, waardoor kijkers historische toespraken of momenten kunnen beleven alsof ze vandaag worden uitgezonden.
Wie maakt deepfakes?
Een deel van het eerste werk aan deepfake technologie werd uitgevoerd in academische en onderzoekssettings om de mogelijkheden voor het gebruik van AI in film te verkennen. Praktische toepassingen van vroege deepfake technologie waren onder andere het matchen van de lipbewegingen van een acteur met audio opgenomen in een andere taal, het verouderen van acteurs of het vervangen van het gezicht van een acteur door dat van een andere acteur in een specifieke scène zonder de scène opnieuw te hoeven filmen.
Tegenwoordig wordt een aanzienlijk aantal deepfakes gemaakt door hobbyisten en technologiefanaten. De toegankelijkheid van deepfake technologie is toegenomen door de wijdverspreide beschikbaarheid van gebruiksvriendelijke deepfake software en clouddiensten, en mensen met verschillende niveaus van technische vaardigheid kunnen realistische deepfakes maken.
Hoe herken je een deepfake?
Hoewel het steeds moeilijker wordt om deepfake afbeeldingen, audio en video te herkennen naarmate de technologie verbetert, zijn er nog steeds een aantal verklikkerlichten en technieken die je kunt gebruiken om deepfakes te herkennen.
Tools voor Deepfake-detectie
Tegenwoordig zijn er een aantal technische tools en diensten die mensen kunnen gebruiken om inconsistenties en artefacten te detecteren die tijdens het creatieproces van deepfakes zijn geïntroduceerd.
- Sentinel: Volgens hun website werkt Sentinel samen met overheden, media en defensieagentschappen om democratieën te helpen beschermen tegen desinformatiecampagnes, synthetische media en informatieoperaties.
- Deepfake Detector: De AI Voice Detector van het bedrijf kan gebruikers helpen detecteren of een audio- of videoclip een deepfake is.
- Sensity: Sensity’s gepatenteerde application programming interface (API) kan met 98,8% van de tijd nauwkeurig AI-veranderde visuals identificeren.
- Intel FakeCatcher: Volgens de website van Intel analyseert FakeCatcher de bloedstroom in videopixels om de echtheid van een video te bepalen.
- Resemble AI: De diensten van Resemble AI omvatten een geavanceerde AI-stemgenerator en robuuste deepfake-audiodetectie.
Het is belangrijk om te onthouden dat terwijl tools en diensten voor deepfakedetectie voortdurend worden verbeterd, de technologie achter deepfakes ook steeds geavanceerder wordt. Daarom wordt deepfake-detectie vaak gecategoriseerd als een kat-en-muisspel.
De impact van deepfakes op de samenleving
Hoewel deepfakes kunnen dienen als krachtige hulpmiddelen voor amusement, educatie en sociaal commentaar, heeft het potentieel van de technologie om te worden misbruikt voor phishing-zwendel, identiteitsdiefstal en financiële fraude het tot een belangrijk veiligheidsrisico gemaakt.
Deepfake technologie kan het vertrouwen in de media ondermijnen, misinformatiecampagnes vergemakkelijken, politieke polarisatie aanwakkeren en een ernstige bedreiging vormen voor de reputatie en het emotionele welzijn van mensen.
In de samenleving roept het maken en verspreiden van deepfakes vragen op over toestemming en privacy, maar ook over de mogelijkheid dat technologie de mensheid op een schadelijke manier beïnvloedt.
Voorbeelden van misbruik van deepfakes
Hier zijn enkele voorbeelden van misbruik van deepfake technologie:
- Een financieel medewerker in Hong Kong maakte meer dan 25 miljoen dollar over naar oplichters nadat hij was gefingeerd via een videoconferentiegesprek.
- In de Verenigde Staten ontvingen duizenden mensen een deepfake robocall van president Joe Biden om hen te vertellen niet te gaan stemmen.
- De CEO van een energiebedrijf werd erin geluisd om €220.000 over te maken nadat hij in de waan was gebracht dat hij aan de telefoon was met zijn baas.
- Een deepfake video van de Japanse premier Kishida Fumio liet het lijken alsof de premier vulgaire opmerkingen maakte.
- Een video van Microstrategy executive chairman Michael Saylor spoorde kijkers aan om hem Bitcoin te sturen met de belofte dat hij hun crypto-investering kon verdubbelen.
Ethische implicaties van deepfakes
Nu deepfake technologie steeds geavanceerder en toegankelijker wordt, roept het vragen op over hoe de authenticiteit van broncontent kan worden geverifieerd.
Andere vragen met betrekking tot het ethisch gebruik van deepfakes zijn onder andere:
- Hebben we nieuwe wetten of regels nodig om het gebruik van deepfake technologie te reguleren?
- Kunnen we AI-watermerken gebruiken om deepfake content betrouwbaar te identificeren?
- Wie moet er verantwoordelijk worden gehouden als synthetische inhoud iemands reputatie schaadt?
- Gaan bestaande wetten en regels in op de uitdagingen in rechtbanken waar video- en audiobewijs ooit als betrouwbaar werd beschouwd?
- Kan blockchaintechnologie worden gebruikt om legitieme inhoud te verifiëren en de herkomst van gedigitaliseerd materiaal vast te stellen, inclusief tekst, audio en video?
Juridische implicaties van Deepfake Technologie
Deepfake technologie zorgt voor uitdagingen in rechtbanken waar video- en audiobewijs ooit als betrouwbaar werden beschouwd.
In veel landen is de bestaande wet- en regelgeving niet toereikend voor de nuances van deepfake technologie en dit heeft geleid tot de roep om nieuwe wet – en regelgeving.
Verschillende landen en rechtsgebieden zijn begonnen met het invoeren van wet- en regelgeving die specifiek bedoeld is om makers en distributeurs van deepfakes aansprakelijk te stellen voor schadelijke gevolgen.
- In de Verenigde Staten hebben ten minste tien staten wetten aangenomen die het maken en verspreiden van deepfake pornografie zonder toestemming en deepfake video’s die tot doel hebben verkiezingen te verstoren strafbaar stellen.
- China heeft strenge wetten die specifiek de productie van deepfakes zonder toestemming van de gebruiker verbieden en die vereisen dat inhoud die is gegenereerd met kunstmatige intelligentie duidelijk wordt gelabeld.
- De EU-wet op kunstmatige intelligentie bevat bepalingen die iedereen die een deepfake maakt of verspreidt verplichten om de kunstmatige herkomst van de inhoud bekend te maken en informatie te verstrekken over hoe de inhoud is gemaakt.
Conclusie
Deepfake-technologie zelf is niet gevaarlijk. Het kan worden gebruikt om leerlingen te betrekken, de productiekosten van films te verlagen en de aanpassing van inhoud te stroomlijnen voor een publiek dat verschillende talen spreekt.
Het gemak waarmee bedreigers de technologie gebruiken om overtuigende nepvideo’s en videoclips te maken, helpt echter om het vertrouwen van mensen in digitale media te ondermijnen.