Egal, ob man über eine neue Regierungspolitik spricht oder sein Recht verteidigt, Ananas auf die Pizza zu legen – über jedes Thema auf der Welt sind Menschen voreingenommen.
Hier liegt das Problem: Die Vorurteile fließen in die Modelle des maschinellen Lernens ein, und zwar in die zum Trainieren der Systeme verwendeten Daten, in die Algorithmen zur Erstellung der Muster und in die Art und Weise, wie die Modelle in der Praxis eingesetzt werden.
Was bedeutet das für eine globale Gesellschaft, die sich zunehmend auf Roboterassistenten verlässt? Wir brauchen eine Aufsicht, die sicherstellt, dass KI-Systeme fair und objektiv sind. Schließlich ist es problematisch, menschliche Arbeitsplätze einfach durch KI zu ersetzen.
Welche Vorurteile gibt es bei KI?
In der Literatur wird häufig zwischen datenbedingter, algorithmischer, sozialer und gesellschaftlicher Voreingenommenheit in der KI unterschieden. Während daten- und algorithmenbasierte Verzerrungen auf eine voreingenommene Datenauswahl oder -aufbereitung zurückzuführen sein können, besteht der Grund für soziale und gesellschaftliche Vorurteile in einer geringeren Vertretung einer Minderheitengruppe in den IT-Teams.
Beim maschinellen Lernen entsteht eine Daten- bzw. algorithmische Verzerrung durch einen systematischen Fehler oder eine Wahrheitsabweichung bei den Prognosen eines Modells. Kommen unbewusste und bewusste Biases in die Datensätze, die zum Trainieren des Modells verwendet werden, schleichen sie sich auch in die KI-Ergebnisse ein.
In einer Studie wurde untersucht, wie die KI von Unternehmen wie Amazon, Google, Microsoft und IBM mit verschiedenen Hauttypen und Geschlechtern umgeht. Dabei stellte sich heraus, dass die Systeme bei hellhäutigen Gesichtern (sowohl bei Männern als auch bei Frauen) deutlich besser funktionierten und die meisten Fehler bei dunkelhäutigen Frauen machten.
Was war der Grund? Die Trainingsdaten waren nicht vielfältig genug. Kein Wunder, schließlich verwendeten die Unternehmen zum Trainieren ihrer KI-Systeme Bilder ihrer überwiegend weißen, männlichen Mitarbeiter aus dem technischen Bereich.
Und das führt zu geschlechtsspezifischen Vorurteilen. Im Jahr 2019 bemerkte Genevieve Smith dies, als sie und ihr Mann die gleiche Kreditkarte beantragten.
Obwohl sie eine etwas bessere Kreditwürdigkeit und dieselbe Einkommenslage, gleiche Ausgaben und Verschuldung wie ihr Mann hatte, setzte das Unternehmen ihren Kreditrahmen auf fast die Hälfte des Betrags ihres Mannes fest. Das ist ebenfalls keine Überraschung. Die generativen KI-Systeme wurden mit historischen Daten trainiert, und in der Vergangenheit hatten Frauen niedrigere Kreditlimits als Männer.
Zu den weiteren wichtigen Arten der Voreingenommenheit von Maschinen gehören:
- Altersbezogene Vorurteile – werden z. B. im Gesundheitswesen voreingenommene Algorithmen verwendet, kann dies zu falschen Diagnosen oder Behandlungen für ältere Menschen führen.
- Sozioökonomische Vorurteile – werden bei der Kreditvergabe voreingenommene Algorithmen verwendet, kann dies einen ungleichen Zugang zu Krediten für einkommensschwache Personen zur Folge haben.
- Geografische Vorurteile – werden voreingenommene Algorithmen bei der Katastrophenhilfe eingesetzt, kann dies in einer ungleichen Zuteilung von Ressourcen je nach geografischem Standort resultieren.
- Vorurteile gegenüber Menschen mit Behinderungen – werden voreingenommene Algorithmen z. B. bei der Einstellung von Mitarbeitern verwendet, kann dies zur Diskriminierung von Menschen mit Behinderungen führen.
- Politische Vorurteile – werden voreingenommene Algorithmen z. B. für Nachrichtenempfehlungen verwendet, kann dies eine ungleiche Berücksichtigung verschiedener politischer Perspektiven bedeuten.
Wie entsteht durch Konzeptabweichung ein Vorurteil?
Ein Konzeptdrift tritt auf, wenn sich die Verteilung der für Prognosen verwendeten Daten im Laufe der Zeit so stark verschiebt, dass sich die Beziehungen zwischen In- und Outputs verändern.
Um die Auswirkungen der Konzeptabweichung auf die KI-Ergebnisse abzuschwächen, ist es für MLOPs-Teams wichtig, die Leistung ihrer KI-Modelle regelmäßig zu überwachen und sie mit neuen Daten zu aktualisieren. So wird sichergestellt, dass ihre Vorhersagen genau und fair bleiben. Darüber hinaus können Techniken wie das Transfer-Lernen eingesetzt werden, um KI-Modelle kontinuierlich an sich ändernde Datenverteilungen anzupassen.
Welche Rolle spielen Vorurteile beim selbstüberwachten Lernen?
Um relevant zu bleiben, muss KI überwacht werden. Zwar kann das Konzept des „Human in the Loop“ (HITM) genutzt werden, um bei der Optimierung eines Modells eine größere Vielfalt an Datenpunkten zu erreichen, doch darf nicht vergessen werden, dass Verzerrungen auch beim selbstüberwachten Lernen auftreten. Dies ist ein Szenario, bei dem das Modell ohne vom Menschen bereitgestellte Informationen trainiert wird.
Bei dieser Art des unüberwachten Lernens wird das jeweilige System mit einer großen Menge unstrukturierter oder nicht beschrifteter Daten trainiert und lernt, seine eigenen Bewertungen auf der Grundlage der Struktur der Daten zu generieren.
Um die Folgen von Bias beim selbstüberwachten Lernen zu mildern, sollten Datenwissenschaftler und Ingenieure ihre Trainingsdaten sorgfältig auswählen. Darüber hinaus können sie Techniken wie Fairness-Einschränkung und Algorithmen zur Korrektur von Verzerrungen einsetzen.
Fazit: Überwindung von Vorurteilen bei KI
Leider werden Menschen immer Vorurteile haben. Deshalb bedarf die KI einer sorgfältigen Kontrolle. Auch nur ein kleiner Hinweis auf geschlechtsbezogene, sozioökonomische, altersbedingte oder politische Voreingenommenheit in den Trainingsdaten eines Systems könnte zu voreingenommenen Ergebnissen führen und die Technologie des Anbieters zum Scheitern verurteilen.
Doch zum Glück können MLOps- und AIOps-Ingenieure die Unvermeidbarkeit von Vorurteilen minimieren, indem sie ihre Trainingsdaten sorgsam pflegen und ihre Modelle kontinuierlich überwachen und aktualisieren. So kann sichergestellt werden, dass ihre Ergebnisse genau und fair sind. Darüber hinaus werden ständig neue Ansätze und Techniken zur Bekämpfung von KI-Verzerrungen entwickelt, wie z. B. kontrafaktische Fairness.