Lär dig vad en AI-hallucination är och orsakerna till AI-hallucinationer, deras potentiella faror och där vi ger exempel på kända incidenter samt diskuterar eventuella strategier för att minimera riskerna genom faktakontroll.
Vad är en AI-hallucination?
En AI-hallucination är när en stor språkmodell (LLM) som OpenAI:s GPT4 eller Google PaLM hittar på falsk information eller fakta som inte är baserade på verkliga data eller händelser.
Avivah Litan, VP Analyst på Gartner, förklarar:
Hallucinationer är helt fabricerade utdata från stora språkmodeller. Även om de representerar helt påhittade fakta, presenterar LLM-utdata dem med förtroende och auktoritet.
Generativa AI-drivna chatbots kan fabricera vilken faktainformation som helst, från namn, datum och historiska händelser till citat eller till och med kod.
Hallucinationer är så vanliga att OpenAI faktiskt utfärdar en varning till användare inom ChatGPT där det står att “ChatGPT kan producera felaktig information om människor, platser eller fakta.”
Utmaningen för användarna är att sortera ut vilken information som är sann och vilken som inte är det.
Exempel på AI-hallucinationer
Det finns många exempel på AI-hallucinationer som dyker upp hela tiden, men ett av de mest anmärkningsvärda fallen inträffade som en del av en reklamvideo som släpptes av Google i februari 2023. Då hävdade deras AI-chattbot Bard felaktigt att James Webb Space Telescope tog den första bilden av en planet utanför solsystemet.
I lanseringsdemonstrationen av Microsoft Bing AI i februari 2023 analyserade Bing på samma sätt en resultatrapport från Gap och gav en felaktig sammanfattning av fakta och siffror.
Dessa exempel visar att användare inte kan lita på att chattbottar alltid ger sanningsenliga svar. Riskerna med AI-hallucinationer går dock långt utöver att sprida felaktig information.
Enligt Vulcan Cybers forskargrupp kan ChatGPT faktiskt generera webbadresser, referenser och kodbibliotek som inte existerar eller till och med rekommendera potentiellt skadliga programvarupaket till intet ont anande användare.
Därför måste organisationer och användare som experimenterar med LLM och generativ AI göra sin due diligence när de arbetar med dessa lösningar och dubbelkontrollera att utdata är korrekta.
Vad orsakar AI-hallucinationer?
Några av de viktigaste faktorerna bakom AI-hallucinationer är:
- Föråldrad eller lågkvalitativ träningsdata;
- Felaktigt klassificerade eller märkta data;
- Faktiska fel, inkonsekvenser eller fördomar i träningsdata;
- Otillräcklig programmering för att tolka informationen korrekt;
- Brist på sammanhang som tillhandahålls av användaren;
- Svårigheter att förstå innebörden av vardagliga uttryck, slanguttryck eller sarkasm.
Det är viktigt att skriva uppmaningar på vanlig engelska med så många detaljer som möjligt. I slutändan är det leverantörens ansvar att implementera tillräcklig programmering och skyddsräcken för att minska risken för hallucinationer.
Vilka är farorna med AI-hallucination?
En av de största farorna med AI-hallucination är om användaren svarar för mycket på noggrannheten i AI-systemets utdata.
Även om vissa personer som Microsofts VD Satya Nadella har hävdat att AI-system som Microsoft Copilot kan vara “användbart felaktiga”, kan dessa lösningar sprida felaktig information och hatiskt innehåll om de lämnas okontrollerade.
LLM-genererad felaktig information är en utmaning att hantera eftersom dessa lösningar kan generera innehåll som ser detaljerat, övertygande och tillförlitligt ut på tjänsten men som i själva verket är felaktigt, vilket leder till att användaren tror på osanna fakta och information.
Om användarna tar AI-genererat innehåll för vad det är, finns det risk för att falsk och osann information sprids över hela internet.
Slutligen finns det också en risk för juridiska och efterlevnadsmässiga skyldigheter. Om en organisation till exempel använder en LLM-driven tjänst för att kommunicera med kunder, som ger vägledning som skadar användarens egendom eller återger stötande innehåll, kan det finnas risk för rättsliga åtgärder.
Hur kan du upptäcka AI-hallucinationer?
Det bästa sättet för en användare att upptäcka om ett AI-system hallucinerar är att manuellt faktakontrollera resultatet från lösningen med en tredjepartskälla. Att kontrollera fakta, siffror och argument mot nyhetssajter, branschrapporter, studier och böcker via en sökmotor kan hjälpa till att verifiera om en del av informationen är korrekt eller inte.
Manuell kontroll är ett bra alternativ för användare som vill upptäcka felaktig information, men i en företagsmiljö kanske det inte är logistiskt eller ekonomiskt genomförbart att verifiera varje informationssegment.
Av den anledningen är det en bra idé att överväga att använda automatiserade verktyg för att dubbelkontrollera generativa AI-lösningar för hallucinationer. Till exempel kan Nvidias open source-verktyg NeMo Guardrails identifiera hallucinationer genom att korskontrollera resultatet från en LLM mot en annan.
På samma sätt erbjuder Got It AI en lösning som heter TruthChecker, som använder AI för att upptäcka hallucinationer i GPT-3.5+ genererat innehåll.
Organisationer som använder automatiserade verktyg som Nemo Guardrails och Got It AI för att faktagranska AI-system bör naturligtvis göra sin due diligence och kontrollera hur effektiva dessa lösningar är för att identifiera felaktig information och genomföra en riskbedömning för att avgöra om det finns några andra åtgärder som behöver vidtas för att eliminera potentiellt ansvar.
Slutsats
AI och LLM kan ge företagen spännande möjligheter, men det är viktigt att användarna är medvetna om riskerna och begränsningarna med dessa tekniker för att få bästa möjliga resultat.
I slutändan ger AI-lösningar mest värde när de används för att förstärka mänsklig intelligens snarare än att försöka ersätta den.
Så länge användare och företag är medvetna om att LLM har potential att fabricera information och verifiera utdata på annat håll minimeras riskerna för att sprida eller absorbera felaktig information.