Tekoälyn hallusinaatio

Tekoälyn hallusinaatio on konsepti, jolla kuvataan esimerkiksi tekoälyn ihmiseltä oppimaa epäoikeudenmukaisuutta ja stereotypioita. Nämä voivat pahimmillaan aiheuttaa vakavia ongelmia eri aloilla, joilla luotetaan liikaa tekoälyyn.

Mikä on tekoälyn hallusinaatio?

Tekoälyn halusinaatioissa suuri kielimalli (LLM), kuten OpenAI:n ChatGPT4 tai Google PaLM, muodostaa vääriä tietoja tai faktoja, jotka eivät perustu todellisiin tietoihin tai tapahtumiin.

Avivah Litan, Gartnerin vara-analyytikko, on selittänyt asian näin:

“Hallusinaatiot ovat täysin faktapohjaa vailla olevia tuloksia suurista kielimalleista. Vaikka ne edustavat täysin keksittyjä faktoja, LLM-tulos antaa joillekin luottamusta ja auktoriteettia.”

Hän jatkoi: “Generatiiviset tekoälypohjaiset chatbotit voivat valmistaa mitä tahansa faktatietoa nimistä, päivämääristä ja historiallisista tapahtumista lainauksiin tai jopa koodiin.”

Tästä ollaan alalla hyvin tietoisia, sillä tekoälyn hallusinaatio on niin yleistä, että OpenAI itse antaa ChatGPT:n käyttäjille varoituksen, jonka mukaan “ChatGPT voi tuottaa epätarkkoja tietoja ihmisistä, paikoista tai faktoista.”

Käyttäjien itsensä haasteena on pystyä lajittelemaan, mikä tieto on totta ja mikä ei.

Tekoälyn hallusinaatio – Esimerkkejä

Vaikka tekoälyn hallusinaatio on ilmiö, josta on olemassa monia esimerkkejä, ja lisää ilmaantuu jatkuvasti, yksi merkittävimmistä tapauksista tapahtui osana Googlen helmikuussa 2023 julkaisemaa mainosvideota. Siinä sen AI-chatbot Bard väitti virheellisesti, että James Webb -avaruusteleskooppi otti ensimmäisen kuva aurinkokunnan ulkopuolella olevasta planeetasta, vaikka näin ei ollut tapahtunut.

Samoin Microsoft Bing AI:n julkaisudemossa helmikuussa 2023 Bing analysoi Gapin tuloslaskelman ja antoi virheellisen yhteenvedon yrityksen tosiseikoista ja luvuista.

Nämä esimerkit havainnollistavat, että käyttäjillä ei ole varaa täysin luottaa chatboteihin, sillä ne eivät tuota jatkuvasti totuudenmukaisia vastauksia. Tekoälyn hallusinaatio aiheuttaa riskejä, jotka ovat kuitenkin paljon muutakin kuin vain väärän tiedon levittämistä.

Itse asiassa Vulcan Cyberin tutkimusryhmän mukaan ChatGPT voi luoda URL-osoitteita, viittauksia ja koodikirjastoja, joita ei ole olemassa, tai jopa suositella mahdollisesti haitallisia ohjelmistopaketteja hyväuskoisille käyttäjille.

Tämän seurauksena LLM:itä ja generatiivista tekoälyä kokeilevien organisaatioiden ja käyttäjien on huolehdittava näiden ratkaisujen kanssa työskentelyn todenmukaisuudesta ja tarkistettava aina kaikkien tekoälyn antamien tulosten tarkkuus.

Mikä aiheuttaa AI-hallusinaatioita?

Joitain avaintekijöitä, joista tekoälyn hallusinaatio voi johtua, ovat:

  • Vanhentuneet tai huonolaatuiset koulutustiedot;
  • Väärin luokiteltu tai merkitty tieto;
  • Tosiasioiden virheitä, epäjohdonmukaisuuksia tai harhoja harjoitustiedoissa;
  • Riittämätön ohjelmointi tiedon tulkitsemiseen oikein;
  • Käyttäjän tarjoaman kontekstin puute;
  • Väärin tulkittu puhekielen, slangi-ilmaisujen tai sarkasmin tarkoitus.

Tekoälyä käytettäessä onkin tästä syystä erityisen tärkeää kirjoittaa kaikki kehotteet selkeällä kielellä ja mahdollisimman yksityiskohtaisesti. Sellaisenaan se on viime kädessä käyttäjän vastuulla toteuttaa riittävä ohjelmointi ja suojakaiteet hallusinaatioiden mahdollisuuden välttämiseksi.

Mitkä ovat tekoälyn hallusinaatioiden vaarat?

Yksi tekoälyn hallusinaatio suurimmista vaaroista on se, jos käyttäjä laittaa liikaa painoarvoa tekoälyjärjestelmän tulosten todenmukaisuudella.

Vaikka jotkut henkilöt, kuten Microsoftin toimitusjohtaja Satya Nadella, ovat väittäneet, että tekoälyjärjestelmät, kuten Microsoft Copilot, voivat olla “hyödyllisesti vääriä”, nämä ratkaisut voivat levittää väärää tietoa ja vihamielistä sisältöä, jos niitä ei valvota asianmukaisesti.

LLM:n tuottamaa väärää tietoa on haastava käsitellä, koska nämä ratkaisut voivat tuottaa sisältöä, joka näyttää palvelussa yksityiskohtaiselta, vakuuttavalta ja luotettavalta, mutta joka todellisuudessa on virheellistä, jolloin käyttäjä uskoo vääriin tosiasioihin ja tietoihin.

Jos käyttäjät ottavat tekoälyn tuottaman sisällön vastaan absoluuttisena totuutena, on olemassa mahdollisuus, että väärä ja harhaanjohtava tieto leviää koko Internetiin.

Lopuksi on olemassa myös lakisääteisten ja vaatimustenmukaisuuteen liittyvien vastuiden riski. Jos organisaatio esimerkiksi käyttää asiakkaiden kanssa viestintään LLM-pohjaista palvelua, joka antaa ohjeita, ja vahingoittaa tämän seurauksena käyttäjän omaisuutta tai tarjoaa loukkaavaa sisältöä, yritys voi hyvin äkkiä löytää itsensä raastuvasta.

Terve maalaisjärki on siis edelleen valttia, vaikka tekoäly leviää yhä laajempaan käyttöön useilla eri aloilla.

Kuinka havaita tekoälyn hallusinaatio?

Paras tapa käyttäjälle havaita tekoälyn hallusinaatio, on manuaalisesti tarkistaa ratkaisun tuottamat tiedot kolmannen osapuolen lähteestä. Faktojen, lukujen ja väitteiden tarkistaminen uutissivustoja, toimialaraportteja, tutkimuksia ja kirjoja lähteinä käyttäen tai hakukoneen avulla voi auttaa varmistamaan, onko tieto oikein vai ei.

Vaikka manuaalinen tarkistus on hyvä vaihtoehto käyttäjille, jotka haluavat varmistaa, etteivät he käytä vääriä tietoja, yritysympäristössä ei välttämättä ole logistisesti tai taloudellisesti kannattavaa tarkistaa jokaista tietosegmenttiä. Tämä aiheuttaa runsaasti tuplatyötä.

Tästä syystä voi olla hyvä idea harkita automaattisten työkalujen käyttöä generatiivisten tekoälyratkaisujen tarkistamiseksi hallusinaatioiden varalta. Esimerkiksi Nvidian avoimen lähdekoodin työkalu NeMo Guardrails voi tunnistaa tekoälyn hallusinaatioita vertaamalla yhden LLM:n tuloksia toiseen.

Samoin Got It AI tarjoaa TruthChecker-nimisen ratkaisun, joka käyttää tekoälyä havaitsemaan hallusinaatioita GPT-3.5+:n luomasta sisällöstä.

Tietenkin organisaatioiden, jotka käyttävät automatisoituja työkaluja, kuten Nemo Guardrails ja Got It AI faktojen tarkistamiseen tekoälyjärjestelmissä, tulisi varmistaa asianmukainen huolellisuus, jolla taataan, että käytetyt työkalut ovat tehokkaita ratkaisuja tietynlaisten virheellisten tietojen tunnistamisessa. Lisäksi niiden on suoritettava riskiarviointi määritelläkseen, onko olemassa muita toimia, jotka on toteutettava mahdollisen vastuun vapautuksen nimissä.

Yhteenveto

Tekoäly ja LLM:t voivat avata runsaasti jännittäviä mahdollisuuksia ja ominaisuuksia yrityksille. Mutta samalla on tärkeää, että käyttäjät ymmärtävät näiden uusien teknologioiden riskit ja rajoitukset saadakseen parhaat tulokset. Tekoälyn hallusinaatio voi pahimmillaan aiheuttaa vakavia ongelmia käyttäjille, joten tietojen tarkistus sokean luottamisen sijasta on tärkeää.

Tekoälyratkaisut tarjoavat viime kädessä eniten arvoa, kun niitä käytetään lisäämään ihmisen älykkyyttä sen sijaan, että niillä yritetään korvata ihmistä.

Niin kauan kuin käyttäjät ja yritykset ymmärtävät, että LLM:illä on potentiaalia valmistaa tietoa ja tarkistaa tulostietoja muualla, väärän tiedon leviämisen tai imeytymisen riskit ovat minimoituja.

Samankaltaiset termit

Tim Keary

Tammikuusta 2017 lähtien Tim Keary on toiminut itsenäisenä teknologia-kirjoittajana ja raportoijana, käsitellen yritysteknologiaa ja tietoturvaa.