Machine bias

Wat is machine bias?

Machine bias is de neiging van een machine learning model om onnauwkeurige of oneerlijke voorspellingen te doen, als gevolg van systematische fouten in het ML model of in de data die gebruikt is om het model te trainen.

Vertekening in machine learning kan door verschillende factoren worden veroorzaakt. Enkele veel voorkomende oorzaken zijn:

  1. Beperkte trainingsdata.
  2. Er wordt een model voor machine learning gekozen dat niet geschikt is voor het probleem of niet genoeg capaciteit heeft om de complexiteit van de gegevens te bevatten.
  3. Menselijke vooringenomenheid geïntroduceerd in de gegevensverzameling, labeling of feature engineering processen.

Machine bias is vaak het resultaat van een datawetenschapper of ingenieur die het belang van een bepaalde hyperparameter overschat of onderschat tijdens feature engineering en het algoritmische afstemmingsproces. Een hyperparameter is een parameter voor machine learning waarvan de waarde wordt gekozen voordat het leeralgoritme wordt getraind. Afstemming is het proces van het selecteren van de hyperparameters die de verliesfuncties van een leeralgoritme minimaliseren en de meest nauwkeurige uitvoer opleveren.

Het is belangrijk om op te merken dat machine bias kan worden gebruikt om de interpreteerbaarheid van een ML model in bepaalde situaties te verbeteren. Een eenvoudig lineair model met een hoge bias zal bijvoorbeeld gemakkelijker te begrijpen en uit te leggen zijn dan een complex model met een lage bias.

Wanneer een machine-learning model echter voorspellingen moet doen en beslissingen moet nemen, kan vertekening ervoor zorgen dat machine-learning algoritmen suboptimale resultaten produceren die schadelijk kunnen zijn. Dit is vooral waar in het geval van kredietscores, aanwerving, het rechtssysteem en de gezondheidszorg. In deze gevallen kan vooringenomenheid leiden tot een oneerlijke of discriminerende behandeling van bepaalde groepen en ernstige gevolgen hebben voor de echte wereld.

Techopedia legt machine bias uit

Vooringenomenheid bij machinaal leren is een ingewikkeld onderwerp omdat het vaak verweven is met andere factoren zoals gegevenskwaliteit. Om ervoor te zorgen dat een ML-model eerlijk en onbevooroordeeld blijft, is het belangrijk om de prestaties van het model in productie voortdurend te evalueren.

Machine learning algoritmen gebruiken wat ze leren tijdens de training om voorspellingen te doen over nieuwe input. Wanneer aan sommige soorten informatie ten onrechte meer of minder belang wordt gehecht dan ze verdienen, kan de uitvoer van het algoritme vertekend zijn.

Software voor machine learning wordt bijvoorbeeld gebruikt door sommige rechtbanken om aan te bevelen hoe lang een veroordeelde crimineel moet worden opgesloten. Studies hebben aangetoond dat wanneer gegevens over het ras, de opleiding en de burgerlijke staat van een crimineel te zwaar worden gewogen, de algoritmische output waarschijnlijk bevooroordeeld is en de software significant verschillende straffen zal aanbevelen voor criminelen die voor hetzelfde misdrijf zijn veroordeeld.

Voorbeelden van machine bias

Machine bias kan zich op verschillende manieren manifesteren, zoals:

  • Voorspellende bias: het is waarschijnlijker dat het model specifieke voorspellingen doet voor bepaalde demografische groepen individuen.
  • Representation bias: tijdens de training worden bepaalde demografische gegevens ondervertegenwoordigd of uitgesloten.
  • Measurement Bias: het model wordt getraind met onbetrouwbare, onvolledige of incorrecte gegevens.
  • Algoritmische bias: het ontwerp van het model of het algoritme dat wordt gebruikt om het te trainen, is inherent bevooroordeeld door menselijke fouten.

Dit zijn enkele voorbeelden van verhalen in het nieuws waarbij mensen of bedrijven schade hebben ondervonden van AI:

Uit een onderzoek van ProPublica uit 2016 bleek dat COMPAS, een AI-systeem dat is overgenomen door de staat Florida, twee keer zoveel kans had om zwarte verdachten als toekomstige recidivisten te markeren dan blanke verdachten. Dit leidde tot bezorgdheid over het gebruik van AI in politie en strafrecht.

In 2018 werd gemeld dat de gezichtsherkenningstechnologie van Amazon, bekend als Rekognition, een hoger percentage onnauwkeurigheden had voor vrouwen met een donkere huidskleur. Hierdoor ontstond bezorgdheid over de mogelijkheid dat de technologie zou worden gebruikt op manieren die gemarginaliseerde gemeenschappen zouden kunnen schaden.

In 2020 werd ontdekt dat een chatbot die door de National Health Service (NHS) van het Verenigd Koninkrijk werd gebruikt om patiënten te triageren tijdens de COVID-19 pandemie, onjuiste informatie gaf en mensen naar de verkeerde plaatsen stuurde voor behandeling. Hierdoor ontstond bezorgdheid over de veiligheid van het gebruik van AI om medische beslissingen te nemen.

In 2021 bleek uit een onderzoek van The Markup dat kredietverstrekkers 80% meer kans hadden om hypotheken te weigeren aan gekleurde mensen dan aan blanke mensen met vergelijkbare financiële kenmerken. Dit leidde tot bezorgdheid over de manier waarop black box AI-algoritmen werden gebruikt bij het goedkeuren van hypotheken.

In 2022 werd ontdekt dat iTutorGroup, een verzameling bedrijven die bijles Engels geeft aan studenten in China, zijn online wervingssoftware zo had geprogrammeerd dat vrouwelijke sollicitanten van 55 jaar of ouder en mannelijke sollicitanten van 60 jaar of ouder automatisch werden afgewezen. Dit leidde tot bezorgdheid over leeftijdsdiscriminatie en de Amerikaanse Equal Employment Opportunity Commission (EEOC) spande een rechtszaak aan.

Hoe machine bias te detecteren is

Er zijn verschillende methoden die kunnen worden gebruikt om machinevertekening in een machine-learning model te detecteren:

  1. Gegevensanalyse: De gegevens die worden gebruikt om het model te trainen, worden geanalyseerd om mogelijke bronnen van vertekening te detecteren, zoals onevenwichtige klassen of ontbrekende gegevens.
  2. Fairness metrics: Fairness metrics, zoals demografische gelijkheid of gelijke kansen, worden gebruikt om de voorspellingen van het model voor verschillende groepen individuen te evalueren.
  3. Counterfactual analyse: Counterfactual analyse wordt gebruikt om te evalueren hoe de voorspellingen van het model zouden veranderen als bepaalde kenmerken van het model anders zouden zijn.
  4. Modelinspectie: De parameters en beslissingsgrenzen van het model worden geïnspecteerd om patronen op te sporen die kunnen wijzen op vertekening.
  5. Prestatie-evaluatie: De prestaties van het model worden geëvalueerd met behulp van een diverse set gegevens om verschillen in prestaties tussen verschillende groepen op te sporen.
  6. Menselijke benadering: Menselijke experts evalueren de voorspellingen van het model en zoeken naar vertekende uitkomsten.

Machine bias voorkomen

Er zijn verschillende technieken die kunnen worden gebruikt om responsieve AI te bevorderen en vooringenomenheid in modellen voor machine learning te voorkomen. Het wordt aanbevolen om meerdere methoden te gebruiken en ze te combineren door het volgende te doen:

  1. Diversifieer de trainingsgegevens.
  2. Gebruik rechtvaardigheidsbeperkingen zoals demografische gelijkheid en gelijke kansen.
  3. Gebruik algoritmen voor biascorrectie.
  4. Gebruik regularisatietechnieken zoals L1 en L2 regularisatie om de complexiteit van het model te verminderen en generalisatie te bevorderen.
  5. Regelmatig de voorspellingen van het model controleren en interpreteren om vertekeningen op te sporen en aan te pakken.
  6. Integreer menselijke feedback en interventie in het voorspellingsproces van het model om onbevooroordeelde beslissingen te garanderen.

Machine bias vs. variantie

Bias en variantie zijn twee concepten die worden gebruikt om de prestaties en nauwkeurigheid van een model voor machinaal leren te beschrijven. Een model met een lage bias en lage variantie zal waarschijnlijk goed presteren op nieuwe gegevens, terwijl een model met een hoge bias en hoge variantie waarschijnlijk slecht zal presteren.

  • Vertekeningsfouten worden geïntroduceerd door een probleem uit de echte wereld te benaderen met een ML-model dat te eenvoudig is. Een model met een hoge bias voldoet vaak niet aan de gegevens omdat het model niet in staat is om de complexiteit van het probleem vast te leggen.
  • Variantie verwijst naar de fout die wordt geïntroduceerd wanneer een ML-model zoveel aandacht besteedt aan de trainingsgegevens dat het geen nauwkeurige generalisaties kan maken over nieuwe gegevens. Een model met een hoge variantie past vaak te goed bij gegevens.

In de praktijk kan het een uitdaging zijn om de optimale balans tussen bias en variantie te vinden. Technieken zoals regularisatie en kruisvalidatie kunnen worden gebruikt om de bias en variantie van het model te beheren en de prestaties ervan te helpen verbeteren.

Gerelateerde begrippen

Margaret Rouse

Margaret Rouse is een bekroond technisch schrijver en docent die bekend staat om haar vermogen om complexe technische onderwerpen uit te leggen aan een niet-technisch, zakelijk publiek. In de afgelopen twintig jaar is haar uitleg verschenen op vele websites en is ze als autoriteit aangehaald in artikelen van de New York Times, Time Magazine, USA Today, ZDNet, PC Magazine en Discovery Magazine. Margaret geniet ervan om IT- en business professionals te helpen om elkaars zeer gespecialiseerde talen te begrijpen. Als je een suggestie hebt voor een nieuwe definitie of hoe je een technische uitleg kunt verbeteren, stuur Margaret dan een…