Maskinskjevhet er et viktig tema innen kunstig intelligens og maskinlæring. I denne artikkelen utforsker vi hva det er, hvordan det oppstår, fordeler og ulemper, og hvilke bruksområder det har. Målet er å gi en oversikt over maskinskjevhet og dens betydning i praksis.
Hva er maskinell skjevhet?
Maskinell skjevhet er når AI-algoritmer tar beslutninger som urettferdig favoriserer eller diskriminerer visse grupper. Dette kommer vanligvis ned på dataene disse modellene er trent på – hvis disse dataene inneholder noen form for skjevhet, kan modellen plukke opp den og ta partiske valg uten å mene det.
Etter hvert som AI blir en større del av daglig beslutningstaking på områder som ansettelser, helsetjenester, rettshåndhevelse og utlån, har maskinskjevhet blitt en reell bekymring. Beslutninger som tidligere var basert på menneskelig dømmekraft, håndteres nå av algoritmer , og hvis disse algoritmene er partiske, kan folk bli urettferdig påvirket.
Dette forsterker ikke bare eksisterende ulikheter. Det kan også føre til at AI-systemer virker upålitelige når de leverer resultater som virker urettferdige eller vanskelige å forstå.
Nøkkelpunkter
- Maskinell skjevhet oppstår når AI-modeller favoriserer eller diskriminerer visse grupper på grunn av skjeve data eller designfeil.
- Skjevheter i maskinlæring kan oppstå i ulike former, for eksempel algoritmiske skjevheter, skjevheter i data, seleksjonsskjevheter og bekreftelsesskjevheter.
- Maskinskjevhet påvirker kritiske områder som strafferett, helsevesen, ansettelser og finans, og fører ofte til urettferdige resultater.
- For å oppdage og forebygge maskinell skjevhet må man bruke ulike typer data, bygge transparente modeller og bruke kontinuerlig overvåking.
- Det er viktig å ta tak i maskinskjevheter for å skape rettferdige og pålitelige AI-systemer som kan ta pålitelige beslutninger på tvers av alle demografiske grupper.
- Se hele listen
Historien om maskinskjevhet
Allerede på 1980- og 90-tallet, da maskinlæringsmodeller så vidt begynte å bli brukt i virkelige situasjoner, begynte det å dukke opp tegn på skjevheter. De første verktøyene, som de som ble brukt i strafferettspleien og helsevesenet, var begrenset av dataene de ble trent på, og disse begrensningene førte til skjeve resultater.
Noen av de første verktøyene for forutseende politiarbeid endte for eksempel opp med å gjenspeile de rasemessige og sosioøkonomiske skjevhetene som allerede fantes i dataene, og noen ganger gjorde de til og med skjevhetene verre.
I 2016 avslørte ProPublicas studie av COMPAS rasistiske skjevheter i et verktøy for risikovurdering av kriminelle, noe som førte til offentlig oppmerksomhet om skjevheter i AI. Dette ble etterfulgt av saker om ansettelsesalgoritmer og ansiktsgjenkjenningsverktøy, der høyere feilprosent for minoritetsgrupper understreket effekten av skjeve algoritmer.
I den senere tid har bevisstheten ført til nye verktøy og retningslinjer for å håndtere skjevheter. Selskaper som IBM og Google har utviklet verktøy som AI Fairness 360 og What-If Tool for å oppdage og redusere skjevheter i modeller. Myndighetene har sluttet seg til med initiativer som EUs AI Act, som tar sikte på å sette standarder for ansvarlig bruk av AI. Maskinskjevhet er nå anerkjent som et kritisk problem som trenger kontinuerlig oppmerksomhet etter hvert som AI får en stadig større rolle.
Typer av maskinell skjevhet
Maskinell skjevhet kan ta flere former, og hver av dem påvirker utfallet på ulike måter:
Hvordan oppdage maskinell skjevhet
Å oppdage maskinell skjevhet betyr å oppdage når en modells resultater er skjeve, for eksempel hvis den konsekvent favoriserer eller benachteiliger visse grupper – etter alder, kjønn, etnisitet og så videre. Hvis en ansettelsesalgoritme for eksempel stadig velger én demografisk gruppe fremfor andre, kan det være et tegn på skjevhet.
For å fange opp slike problemer bruker utviklere teknikker som kryssvalidering for å sjekke om en modells ytelse er konsistent på tvers av ulike datasett, og rettferdighetsbevisste algoritmer for å overvåke og balansere resultatene mellom ulike grupper.
Som vi nevnte tidligere, finnes det også verktøy som er spesielt utviklet for å hjelpe til med dette. Googles Fairness Indicators og IBMs AI Fairness 360 tilbyr begge måter å måle og analysere skjevheter på, noe som gjør det lettere å oppdage hvor en modell kan være ubalansert.
Hvordan forhindre maskinskjevhet
Det er en svært komplisert oppgave å forhindre skjevheter i maskinlæring, men her er noen gode tips til hvordan du kan redusere skjevheter i maskinlæring:
- Sørg for å samle inn data som er mangfoldige og representative, slik at modellen ikke ender opp med å favorisere eller overse visse grupper
- Bruk modeller som er enkle å tolke. Når algoritmene er tydelige, er det lettere å oppdage eventuelle skjevheter og gjøre justeringer.
- Involver ulike team i utviklingen og gjennomgangen av AI. Ulike perspektiver bidrar til å fange opp skjevheter som ellers ville gått ubemerket hen
- Hold et øye med modellene over tid. Regelmessige kontroller og oppdateringer bidrar til at modellen forblir rettferdig etter hvert som data og sosiale kontekster endres
Eksempler på maskinelle skjevheter
Maskinelle skjevheter dukker opp på mange viktige områder.
Her er bare noen få eksempler: