Vijf AI-fiasco’s waardoor bedrijven rood aanlopen

Betrouwbaarheid
IN HET KORT

In de begindagen van kunstmatige intelligentie kunnen mislukkingen en ongelukken gênant, rampzalig en soms zelfs hilarisch zijn, maar ze kunnen een bedrijf ook rode gezichten bezorgen en zelfs de waardering doen kelderen.

Kunstmatige intelligentie (AI) staat op het punt om onze wereld ingrijpend te veranderen als een van de meest ontwrichtende technologische revoluties van deze eeuw.

Echter, net als bij elke andere menselijke uitvinding, kunnen er soms fouten, ongelukken en onvoorziene gebeurtenissen plaatsvinden. Hoewel sommige van deze incidenten slechts kleine problemen veroorzaken die een project tijdelijk kunnen vertragen of in een vroeg ontwikkelingsstadium kunnen stopzetten, hebben andere veel ernstigere gevolgen.

Een ernstige AI-fout kan een bedrijf met een beschamend gezicht achterlaten en de reputatie schaden – soms zelfs op een vrij komische manier. Laten we eens kijken naar enkele van deze gênante, rampzalige en soms hilarische AI-fiasco’s van de afgelopen jaren:

De stille behandeling ontvangen van je AI-assistent

Enkele jaren geleden, in 2018, waren AI-assistenten nog een nieuwigheid die een zeer winstgevende nieuwe markt op gang bracht.

Het was dan ook niet verrassend dat veel spelers op deze trein sprongen, waaronder LG. Ze probeerden Cloi te lanceren, een kleine pratende robot die bedoeld was om een slim huis te beheren door middel van gesprekken.

Echter, tijdens haar publieke debuut, leek Cloi blijkbaar niet erg onder de indruk van haar specifieke eigenaar, wat leidde tot een gênant moment voor LG’s Amerikaanse marketingchef David VanderWaal.

Na verloop van tijd begon de kleine en schattige AI herhaaldelijk commando’s te negeren en gaf ze een stille behandeling (zoals te zien op YouTube) aan een beschaamde en gefrustreerde VanderWaal.

Misschien gaf Cloi hiermee aan dat het tijd was voor een relatiepauze.

Het (niet zo) kleine verschil

In oktober 2020, toen de Covid-19-pandemie vaak leidde tot het ontbreken van menselijke operators, greep een Schotse voetbalclub naar een geautomatiseerde camera om een wedstrijd vast te leggen.

De automatische camera functioneerde aanvankelijk prima en registreerde de wedstrijd tussen Inverness Caledonian Thistle en Ayr United in het Caledonian Stadium zonder problemen.

Echter, toen de wedstrijd eenmaal aan de gang was, begon de camera het glimmende, kale hoofd van een grensrechter abusievelijk als de bal zelf te identificeren.

Op een komische wijze bleef de camera de kijkers afleiden van de echte actie door zich te focussen op het hoofd van de arme man.

We kijken allemaal uit naar een toekomst waarin voetbalclubs het dragen van hoeden en pruiken verplicht zullen stellen voor alle grensrechters en spelers.

Wanneer gezichtsherkenning je helemaal niet herkent

Volgens ons meest recente onderzoek lijkt gezichtsherkenning verre van betrouwbaar te zijn, met potentieel verwoestende gevolgen voor het leven van mensen – zelfs met de mogelijkheid tot gevangenisstraf.

Soms zijn deze ongelukken echter bijzonder pijnlijk voor de ontwikkelaars van deze tools, vooral wanneer AI-fouten leiden tot onvoorspelbare blunders.

Een van deze gevallen betrof de Chinese overheid zelf. In veel steden wordt het openbaar vernederen van zwervers gebruikt als methode om mensen te ontmoedigen onrechtmatig over te steken. Hun gezichten worden vastgelegd door straatcamera’s en vervolgens op grote schermen getoond, samen met de juridische gevolgen.

In 2018 legde zo’n camera het gezicht vast van Dong Mingzhu, een miljardair die aan het hoofd staat van China’s grootste fabrikant van airconditioners, en toonde het op een reclamebord in een nabijgelegen bus. De camera reageerde op haar gezicht en bracht haar ten schande, zelfs al was ze er niet eens.

Het spreekt voor zich dat de Chinese regering zich zeer beschaamd voelde, maar om eerlijk te zijn, waren zij niet de enigen die te maken kregen met hun eigen dosis van gezichtsherkenningsschaamte (woordspeling bedoeld).

In datzelfde jaar matchte Amazons Rekognition-surveillancetechnologie de mugshots van criminelen die waren gearresteerd voor misdrijven, per abuis met de gezichten van 28 congresleden.

Misschien nam AI de bewering dat alle politici criminelen zijn iets te letterlijk…

Waarom AI nooit het advies van je arts moet vervangen

Een andere overheidsinstantie die werd getroffen door een gebrekkige AI was de Britse overheid in 2020.

Terwijl de Coronavirus-pandemie in volle gang was, lanceerden de Britse gezondheidsautoriteiten CIBot, een door AI aangedreven virtuele assistent die mensen van nuttige informatie over het COVID-19-virus moest voorzien.

Het idee was om het publiek te helpen met begeleiding door hen te voorzien van essentieel advies, maar de tool ging verder dan alleen het verzamelen van informatie uit officiële bronnen en ging een stap te ver.

Uiteindelijk verstrekte de bot onjuiste informatie over de ernst en de overdrachtswijzen van het virus, evenals aanbevolen behandelingen, waaronder het inademen van stoom. Gelukkig heeft de bot uiteindelijk geen bleekmiddel als therapie aanbevolen.

Wanneer generatieve AI dingen begint te verzinnen

Velen vergelijken generatieve AI met kinderen die hun eerste stappen zetten in de wereld van echte zelfbewuste intelligentie.

Er zijn situaties waarin deze vergelijking bijzonder treffend lijkt te zijn. Net zoals kinderen soms spontaan dingen verzinnen als ze een vraag krijgen waarop ze geen antwoord weten, of proberen indruk te maken met hun beperkte kennis van de wereld, zo leek Google’s AI-chatbot Bard een soortgelijke fout te maken en tot grote teleurstelling van zijn makers. Dit gebeurde zelfs in zijn allereerste demonstratie.

Op de vraag “Welke nieuwe ontdekkingen van de James Webb Space Telescope kan ik mijn 9-jarige vertellen?” antwoordde de chatbot met een opsommingsteken, waarbij werd vermeld dat de telescoop “de allereerste foto’s heeft gemaakt van een planeet buiten ons eigen zonnestelsel”.

Kort gezegd, dat was niet juist, en sommige astronomen wezen terecht op het feit dat de eerste foto van een exoplaneet bijna 20 jaar eerder was gemaakt, in 2004.

Deze vergissing, die lijkt op een kinderlijke fout, had echter ernstige gevolgen, aangezien de aandelen van Google hierdoor daalden en het bedrijf in één dag 100 miljard dollar aan marktwaarde verloor.

Conclusie

Hoewel deze AI-fouten misschien niet zo ernstig zijn als de keren dat AI ontspoorde, kunnen ze nog steeds zorgen voor aanzienlijke gênante momenten voor de betrokken bedrijven en ontwikkelaars.

Toch kunnen we niet ontkennen hoe vermakelijk het soms kan zijn om te kijken naar de absurditeiten die worden voortgebracht door onervaren of gebrekkige generatieve AI.

Hier eindigen de voorbeelden niet. Denk bijvoorbeeld aan het moment waarop Google Foto’s een berg maakte van een afbeelding van een menselijk hoofd, of toen het de zalige majesteit van zalmen die in een rivier zwommen, weergaf.

Als mensen leren we vaak meer van mislukkingen dan van successen – we kunnen alleen maar hopen dat deze fouten AI kunnen helpen om zich nog sneller te verbeteren.

Gerelateerde begrippen

Gerelateerde artikelen

Claudio Buttice
Data Analist
Claudio Buttice
Data Analist

Dr. Claudio Butticè is een voormalig apotheekdirecteur die voor verschillende grote openbare ziekenhuizen in Zuid-Italië heeft gewerkt, evenals voor de humanitaire NGO Emergency. Hij is nu een ervaren auteur van boeken die heeft geschreven over onderwerpen als geneeskunde, technologie, armoede in de wereld, mensenrechten en wetenschap voor uitgevers als SAGE Publishing, Bloomsbury Publishing en Mission Bell Media. Zijn meest recente boeken zijn "Universal Health Care" (2019) en "What You Need to Know about Headaches" (2022). Als data-analist en freelance journalist zijn veel van zijn artikelen gepubliceerd in tijdschriften zoals Cracked, The Elephant, Digital Journal, The Ring of Fire en Business…