Risken för att AI-system används för att möjliggöra censur förbises ofta. På leverantörssidan ligger så mycket fokus på säkerhet och innehållsmoderering att dessa verktygs resultat ofta uppvisar ideologiska fördomar och ibland till och med blockerar legitima resultat.
Google Gemini blev kraftigt kritiserad tidigare i år för sina “överdrivet politiskt korrekta svar” och “woke”-partiskhet.
Exempel inkluderar att avbilda en asiatisk kvinna och en svart man som tyska soldater från andra världskriget, skapa en bild av USA:s grundlagsfäder som inkluderade en svart man, och ett uttalande som hävdade att det aldrig skulle vara acceptabelt att missköna Caitlin Jenner, även om det skulle kunna förhindra en kärnvapenkatastrof.
Vi har också sett artificiell intelligens användas för att möjliggöra censur i större utsträckning. Detta inkluderar allt från hård innehållsmoderering till AI-genererade kommentarer och desinformationskampanjer till deepfakes som används för att påverka val, vilket vi har sett hävdats i Venezuela och USA.
Verkligheten är att AI används på sätt som medvetet eller oavsiktligt dränker verkliga röster och skiljer människor från fakta. Även om förordningar som EU:s AI-förordning har infört vissa integritetsskydd för användare, som sociala poängsystem, har de inte direkt tagit itu med frågan om AI-censur.
Nyckelinsikter om AI:s
inverkan på yttrandefriheten
- AI-censur förbises ofta och ignoreras i debatten om AI-säkerhet, med många aktörer som använder AI för att tysta oliktänkande röster.
- Forskning visar att 16 länder har använt AI för att “sprida tvivel, smutskasta motståndare eller påverka den offentliga debatten.”
- Många AI-leverantörer som OpenAI och Google har “överdrivet restriktiva” riktlinjer för innehåll.
- En studie visar att de flesta konversationsbaserade LLMs som ChatGPT genererar svar som visar en preferens för vänsterorienterade åsikter.
- Visa fullständig lista
Omfattningen av AI-censur
I det vilda används AI för att omvandla det mänskliga samhället. Även om de flesta människor och företag experimenterar med tekniken på legitima sätt, finns det vissa aktörer som vill utnyttja denna teknik för att främja sina politiska mål.
År 2023 släppte Freedom House en rapport som hävdade att framsteg inom AI “förvärrar en kris för mänskliga rättigheter online,” och noterade att dess användning hade “ökat omfattningen, hastigheten och effektiviteten av digital repression.”
Studien lyfte fram att minst 47 regeringar världen över använde kommentatorer för att manipulera online-diskussioner till sin fördel under bevakningsperioden. Likaså visade den att 16 länder använde AI för att “sprida tvivel, smutskasta motståndare eller påverka den offentliga debatten.”
Om detta inte vore nog, så krävde eller uppmuntrade även 21 länder digitala plattformar att använda maskininlärning för att “ta bort misshagliga politiska, sociala och religiösa yttranden.”
Samtidigt har leverantörer av generativ AI som OpenAI och Google infört hårda riktlinjer för innehåll. Även om dessa policyer kan förhindra missbruk och skydda leverantörens varumärke från att associeras med bluffmejl eller hatiskt innehåll, avskräcker de också legitimt yttrande.
Hur AI-leverantörers innehållsmoderering stoppar yttrandefriheten
Även om leverantörer av generativ AI har gjort ett bra jobb med att skapa modeller som kan generera mänskligt naturligt språk, har de inte lyckats skapa modereringspolicyer som balanserar säkerhet och yttrandefrihet.
“Forskning har avslöjat hur användningspolicyer och skyddsåtgärder för populära generativa AI-modeller hindrar dem från att generera visst lagligt innehåll och ger fördelar för vissa åsikter över andra.”
Jordi Calvet-Bademunt, en senior forskare vid The Future of Free Speech, berättade för Techopedia:
“Mycket av fokus på generativ AI har kretsat kring säkerhet, med lite uppmärksamhet ägnad åt deras påverkan på yttrandefrihet och censur.”
Calvet-Bademunt påpekar att AI-säkerhet i många fall i sig kan användas som en ursäkt för att införa censur.
“Länder som Kina har också använt dessa säkerhetsbekymmer för att rättfärdiga censur, inklusive att flagga och förbjuda innehåll som underminerar ‘de kärn-socialistiska värderingarna’.”
“Samtidigt kräver demokratier som Europeiska unionen, genom den nyligen antagna AI-förordningen, att AI-plattformar ska bedöma och mildra ‘systemiska risker’, vilket skulle kunna påverka innehåll som genereras om konflikterna i Israel-Palestina eller Ryssland-Ukraina, till exempel,” sade Calvet-Bademunt.
The Future of Free Speech undersökte detta problem i en rapport som släpptes tidigare i år.
Studien analyserade användningspolicyerna för sex stora AI-chattbotar, inklusive Gemini och ChatGPT, och fann att företagens policyer för desinformation och hatpropaganda var så vaga och omfattande att chattbotarna vägrade att generera innehåll för 40 procent av de 140 använda frågorna. Studien antyder också att chattbotarna var partiska i specifika ämnen.
Utvärdering av politisk partiskhet i blackbox AI-modeller
Ett centralt problem som gör det svårt att adressera omfattningen av censur i ledande chattbotar som ChatGPT eller Gemini är att de flesta bygger på egenutvecklade blackbox-modeller, vilket ger den genomsnittliga användaren liten insyn i hur modellen tränas och hur den “beslutar” att producera eller blockera visst innehåll.
Det finns heller ingen transparens kring huruvida de mänskliga AI- och ML-forskarnas partiskhet påverkar modellernas träningsdata eller resultat.
Dessa forskare kan trots allt tendera att träna modeller på innehåll som överensstämmer med deras egna partiskheter och övertygelser.
Med det sagt verkar det finnas en betydande vänsterorienterad partiskhet bland många av de ledande modellerna.
David Rozado, en biträdande professor vid Otago Polytechnic, publicerade en studie där han gav 24 LLM:er (inklusive GPT 3.5, GPT-4, Gemini, Claude, Grok och Llama 2) 11 politiska orienteringstester och fann att de flesta konversationsbaserade stora språkmodeller genererar svar som visar en preferens för vänsterorienterade åsikter.
Detta är problematiskt eftersom många användare kanske inte är medvetna om att en modell genererar partiska resultat. Av denna anledning behöver AI-leverantörer vara mer öppna om modellernas partiskhet och visa mer tydliga varningar om behovet av att användare faktagranskar sitt innehåll.
Även om det kan argumenteras att AI-leverantörer har rätt att favorisera vissa åsikter precis som nyhetspublikationer kan, är det oacceptabelt att inte vara transparent om dessa lutningar för chattbotar som marknadsförs som opartiska forskningsassistenter.
Områden där AI-censur är användbar
När man överväger påverkan av AI-censur är det viktigt att tänka på vissa områden där censur kan vara motiverad.
Till exempel skulle LLM-leverantörer kunna hävda att riktlinjer för innehållsmoderering är nödvändiga för att förhindra missbruk, vilket kan vara allt från vägledning om hur man begår brott, icke-samtyckta deepfakes, fördomsfullt innehåll, phishing-mejl och skadlig kod.
OpenAI och Gemini har rätt att skydda sina varumärken från att generera den typen av innehåll. På samma sätt, även om AI-moderering kan stänga ner legitima mänskliga samtal, använder många företag det också för att skydda användare från toxicitet och trakasserier.
Oindrila Mandal, senior produktchef för spel på Electronic Arts, berättade för Techopedia i en skriftlig kommentar:
“AI-baserad censur används för närvarande inom spelindustrin för att moderera spelchattrum och live röstchatt. Syftet med dessa applikationer är att minska toxicitet och förbättra online-säkerheten och säkerheten för alla spelare.”
Mandal påpekar att företag inom spelindustrin, som Riot Games och Ubisoft, använder AI-baserad innehållsmoderering för att minska toxicitet och missbruk. Dessa företag upptäcker automatiskt kränkande språk och censurerar det eller vidtar åtgärder mot de spelare som bryter mot reglerna.
Mandal tillade:
“AI-baserad censur kan vara ett kraftfullt verktyg om det används på rätt sätt. Det finns flera bevis på att dessa lösningar kan förhindra online-missbruk och toxicitet.
“Riktlinjerna för vad som utgör censurvärdigt innehåll måste dock vara tydligt definierade så att AI-baserade censurlösningar förhindrar skada och inte orsakar onödig censur.
“Dessa lösningar måste också tillämpas etiskt och med samtycke från alla berörda parter.”
Slutsatsen om balansen mellan AI och yttrandefrihet
AI är en kraftfull teknik, men det är viktigt att inte glömma dess potential att begränsa mänskliga rösternas räckvidd.
I framtiden bör AI-leverantörer vara mer transparenta om potentiella partiskheter i sina innehållsmodereringpolicyer, vilket ger användarna möjlighet att själva avgöra vad som är ett acceptabelt resultat.
Referenser
- Why Google’s ‘woke’ AI problem won’t be an easy fix (Bbc)
- Deepfakes are Venezuela’s latest disinformation tool, experts say – The Washington Post (Washingtonpost)
- Criminal charges and FCC fines issued for deepfake Biden robocalls : NPR (Npr)
- The Repressive Power of Artificial Intelligence | Freedom House (Freedomhouse)
- Report: Freedom of Expression in Generative AI – A Snapshot of Content Policies – The Future of Free Speech (Futurefreespeech)
- The Political Preferences of LLMs (Arxiv)
- Is ChatGPT biased? | OpenAI Help Center (Help.openai)