AI hallusinasjon

Hva er AI hallusinasjon?

En AI-hallusinasjon oppstår når en stor språkmodell (LLM) som OpenAI’s GPT4 eller Google PaLM fabrikkerer falsk informasjon eller fakta som ikke er basert på reelle data eller hendelser.

Avivah Litan, VP-analytiker hos Gartner, forklarer:

Hallusinasjoner er fullstendig fabrikkerte utdata fra store språkmodeller. Selv om de representerer fullstendig oppdiktede fakta, presenterer LLM-utdataene dem med selvsikkerhet og autoritet.

Generative AI-drevne chatbots kan fabrikkere enhver faktisk informasjon, fra navn, datoer og historiske hendelser til sitater eller til og med kode.

Hallusinasjoner er vanlige nok til at OpenAI faktisk gir en advarsel til brukere innen ChatGPT som sier at “ChatGPT kan produsere unøyaktig informasjon om personer, steder eller fakta.”

Utfordringen for brukere er å skille gjennom hvilken informasjon som er sann og hva som ikke er det.

AI-hallusinasjon forklart

 

Eksempler på AI hallusinasjoner

Selv om det stadig dukker opp mange eksempler på AI-hallusinasjoner, er et av de mest bemerkelsesverdige tilfellene knyttet til en reklamevideo utgitt av Google i februar 2023. Da hevdet deres AI-chatbot Bard feilaktig at James Webb Space Telescope tok det første bildet av en planet utenfor solsystemet.

På samme måte ga Microsoft Bings AI en feilaktig oppsummering av fakta og tall da den analyserte et inntektsregnskap fra Gap under lanseringsdemonstrasjonen i februar 2023.

Disse eksemplene illustrerer at brukere ikke kan stole på at chatbots alltid genererer korrekte svar. Imidlertid går risikoene ved AI-hallusinasjoner langt utover spredning av feilinformasjon.

Faktisk kan ChatGPT ifølge forskerteamet hos Vulcan Cyber generere URL-er, referanser og kodebiblioteker som ikke eksisterer, eller til og med anbefale potensielt skadelige programvarepakker til intetanende brukere.

Som et resultat må organisasjoner og brukere som eksperimenterer med LLMs og generativ AI, gjøre sin due diligence når de jobber med disse løsningene og dobbeltsjekke utdata for nøyaktighet.

Hva forårsaker AI hallusinasjoner?

Noen av de viktigste faktorene bak AI hallusinasjoner er:

  • Utdaterte eller lavkvalitets treningsdata;
  • Feil klassifiserte eller merkede data;
  • Faktiske feil, inkonsistenser eller skjevheter i treningsdataene;
  • Utilstrekkelig programmering for å tolke informasjon korrekt;
  • Mangel på kontekst gitt av brukeren;
  • Kamp for å tolke intensjonen av hverdagslige uttrykk, slanguttrykk eller sarkasme.

Det er viktig å skrive ledetekster på enkelt engelsk med så mange detaljer som mulig. Derfor er det til syvende og sist leverandørens ansvar å implementere tilstrekkelig programmering og sikkerhetstiltak for å redusere potensialet for hallusinasjoner.

Hva er farene med AI hallusinasjoner?

En av de viktigste farene med AI hallusinasjoner er hvis brukeren stoler for mye på nøyaktigheten av AI-systemets utdata.

Mens enkelte individer som Microsofts CEO Satya Nadella har argumentert for at AI-systemer som Microsoft Copilot kan være “nyttig feil,” kan disse løsningene spre feilinformasjon og hatinnhold hvis de ikke holdes i sjakk.

Feilinformasjon generert av LLM er utfordrende å adressere fordi disse løsningene kan generere innhold som ser detaljert, overbevisende og pålitelig ut, men som i virkeligheten er feilaktig, noe som resulterer i at brukeren tror på usanne fakta og informasjon.

Hvis brukere tar AI-generert innhold for pålydende, er det potensial for at falsk og usann informasjon sprer seg over hele internett.

Til slutt er det også risiko for juridiske og compliance-forpliktelser. For eksempel, hvis en organisasjon bruker en LLM-drevet tjeneste til å kommunisere med kunder, som gir veiledning som skader brukerens eiendom eller gjentar støtende innhold, så kan de være i fare for juridisk tiltale.

Hvordan kan du oppdage AI hallusinasjoner?

Den beste måten for en bruker å oppdage om et AI-system hallusinerer er å manuelt faktasjekke utdataene som tilbys av løsningen med en tredjepartskilde. Å sjekke fakta, tall og argumenter mot nyhetssider, bransjerapporter, studier og bøker via en søkemotor kan hjelpe til med å verifisere om en informasjonsbit er korrekt eller ikke.

Selv om manuell sjekking er et godt alternativ for brukere som ønsker å oppdage feilinformasjon, kan det i et bedriftsmiljø ikke være logistisk eller økonomisk gjennomførbart å verifisere hvert informasjonssegment.

Av denne grunn kan det være en god idé å vurdere bruk av automatiserte verktøy for å dobbeltsjekke generative AI-løsninger for hallusinasjoner. For eksempel kan Nvidias åpen kildekode-verktøy NeMo Guardrails identifisere hallusinasjoner ved å krysssjekke utdata fra én LLM mot en annen.

Tilsvarende tilbyr Got It AI en løsning kalt TruthChecker, som bruker AI til å oppdage hallusinasjoner i GPT-3.5+ generert innhold.

Organisasjoner som bruker automatiserte verktøy som NeMo Guardrails og Got It AI til å faktasjekke AI-systemer, bør gjøre sin due diligence for å verifisere hvor effektive disse løsningene er til å identifisere feilinformasjon og gjennomføre en risikovurdering for å bestemme om det er nødvendig med ytterligere tiltak for å eliminere potensiell ansvar.

Konklusjon

AI og LLM-er kan låse opp noen spennende muligheter for bedrifter, men det er viktig for brukere å være oppmerksomme på risikoene og begrensningene ved disse teknologiene for å få best mulige resultater.

Til syvende og sist gir AI-løsninger mest verdi når de brukes til å forsterke menneskelig intelligens, snarere enn å forsøke å erstatte den.

Så lenge brukere og bedrifter erkjenner at LLM-er har potensial til å fabrikkere informasjon og verifiserer utdata andre steder, minimeres risikoen for å spre eller absorbere feilinformasjon.

Relaterte begreper

Tim Keary

Siden januar 2017 har Tim Keary vært en frilans teknologiskribent og reporter, som dekker bedriftsteknologi og informasjonssikkerhet.