Die unsichtbaren menschlichen Gefangenen helfen beim KI-Training

Transparenz
DAS WICHTIGSTE IM ÜBERBLICK

Von mittellosen Arbeitern aus unterentwickelten Ländern über Praktikanten bis hin zu Häftlingen beuten KI-Unternehmen billige Kräfte zur Fütterung ihrer Algorithmen gegen einen Hungerlohn aus. Was ist die dunkle Seite des Data Labeling und warum werden Menschen zum KI-Training so dringend benötigt?

Zur Versorgung künstlicher Intelligenz mit brauchbaren Datensätzen ist ein guter Anteil an menschlicher Handarbeit höchst wünschenswert, wenn nicht sogar zwingend erforderlich.

Allerdings stellt das Data Labeling (dt. Datenbeschriftung) eine sich wiederholende und oft anstrengende Arbeit dar, weshalb viele Unternehmen versuchen, unterbezahlte Arbeitskräfte zum Füttern ihrer KIs mit riesigen Datenmengen auszunutzen.

Von mittellosen Arbeitnehmern aus Entwicklungsländern bis hin zu Praktikanten und sogar Gefängnisinsassen Unternehmen, die ihre Investitionen in ethische KI anpreisen, können sich in Wirklichkeit als hinterhältig erweisen, wenn es darum geht, völlig unterbezahlte Mitarbeiter einzustellen.

Sind Menschen beim Training von KI wirklich wichtig? Wer sind die ärmsten Datenbeschrifter und -annotatoren, die in digitalen Sweatshops arbeiten, und woher kommen sie?

Gibt es wirklich keine anderen Alternativen zum Menschen, wenn es um die Versorgung der KI mit Trainingsdaten geht? 

Sprödigkeit, Rinderwahnsinn, Autophagie-Störungen bei KI

Die menschliche Note (oder, wie Experten es früher nannten, Human-in-the-Loop-Modelle) ist unerlässlich, wenn es um die Gewährleistung der Datenqualität beim Training von KI geht.

Einer der ersten tödlichen Unfälle, die durch ein selbstfahrendes Auto verursacht wurden, betraf 2018 eine Frau, die mit ihrem Fahrrad die Straße überquerte.

Die Algorithmen konnten zwar einen Fußgänger oder ein Fahrrad erkennen, wenn es sich um getrennte Einheiten handelte, aber sie waren nicht in der Lage zu identifizieren, was für sie ein unerwartetes Ergebnis war. 

Auf maschinellem Lernen basierende Modelle sind extrem starr und können kaum so flexibel wie Menschen reagieren, wenn sie auf etwas stoßen, für das sie nicht trainiert wurden.

Bei all diesen Grenzfällen, in denen eine fundierte Entscheidung gefragt ist, muss der Mensch eingreifen und die KI vor der ihr innewohnenden Sprödigkeit bewahren, wegen der sie angesichts des Unbekannten so schnell zusammenbrechen kann.

Aber das ist nicht der einzige Grund, warum sie (wir) gebraucht werden.

Wenn Unternehmen sich anderen Arten von Datensätzen zuwenden, die keine menschlichen Beschrifter zur Erledigung ihrer mühsamen Aufgaben benötigen, z. B. maschinell erzeugte oder strukturierte Daten, fallen die Ergebnisse ebenfalls nicht so gut aus.

Modelle, die ausschließlich auf der Grundlage von KI-Ausgaben trainiert wurden, geraten nach einer gewissen Zeit außer Kontrolle.

Und das im wahrsten Sinne des Wortes. Laut einer Studie der Rice and Stanford University verschlechtert sich die Qualität der Ergebnisse, da ein Phänomen namens Model Autophagy Disorder (MAD) auftritt.

Es sieht tatsächlich so aus, als ob das Gehirn der Maschinen von einer neurodegenerativen Störung betroffen ist. Die Ergebnisse, wie Bilder oder Videos, werden immer verrückter und absurder.

Die Forscher zogen eine Parallele zu dem, was mit selbstkonsumierenden Kühen geschah, die den berüchtigten Rinderwahnsinn entwickelten.

Arbeiter in Ländern mit niedrigem und mittlerem Einkommen

Eine der klaffendsten Wunden der Globalisierung ist zweifellos die Möglichkeit, Jobs in Länder zu verlagern, in denen die Löhne extrem niedrig und die Arbeitsbedingungen ausbeuterisch schlecht sind. 

Je einfacher und unspezialisierter die für einen Arbeitsplatz erforderlichen Aufgaben sind und je mehr sie vollständig aus der Ferne erledigt werden können, desto leichter wird es für größere Unternehmen, die Vorteile des Outsourcings zu nutzen.

Überfüllte Betriebe und hohe Fluktuationsraten sind unbedeutend, wenn jeder diese Aufgabe ohne echte Ausbildung übernehmen kann.

Eine neue Armee von Minenarbeitern des 21. Jahrhunderts kommt, wenig überraschend, aus den wirtschaftlich schwächeren Ländern Afrikas und Asiens. Dort sind die Löhne gering und die Rechte der bezahlten Arbeitskräfte oft ebenso. 

Eine kürzlich von TIME durchgeführte Untersuchung hat ergeben, dass OpenAI, der Erfinder des weltweit bekannten ChatGPT, Menschen aus Kenia, Uganda und Indien einstellte, um seinen Chatbot von schädlichen Inhalten, gewalttätiger Sprache und Vorurteilen zu befreien. 

Abgesehen davon, dass sie sich mit erschreckenden Datensätzen auseinandersetzen mussten (dazu später mehr), erhielten die kenianischen Arbeiter einen satten Lohn zwischen 1,32 $ und 2 $ pro Stunde, um an der Verbesserung dieses Multimilliarden-Dollar-Marktes mitzuwirken.

Die Agentur, die hinter dem Job stand, bekam angeblich 12,50 $ pro Stunde je Arbeiter.

„Klickarbeiter“

Afrikanische Beschäftigte sind nicht die einzigen „Klickarbeiter“, wie sie oft genannt werden, die zu einer Bezahlung angestellt werden, die wir als unmenschlich bezeichnen würden.

Auf den Philippinen verbringen Tausende junger, unspezialisierter Fachkräfte ihre Tage damit, Lichtmasten von Fußgängern in Videos zu unterscheiden, die für das Training selbstfahrender Autos verwendet werden, Bilder von Prominenten zu identifizieren und Textschnipsel zu bearbeiten.

Wie viel bekommen diese Leute? Nicht mehr als 6 $ bis 10 $ am Tag. Haben sie grundlegende Arbeitnehmerrechte?

Offensichtlich nicht, da sie über Freelance-Plattformen angestellt sind, die ihre Leistungen an die großen KI-Unternehmen auslagern. 

Oft halten diese Plattformen ihre Zahlungen eine Woche lang zurück und beschlagnahmen sie wegen eines „angeblichen Verstoßes“, gegen den sie nicht vorgehen können, oder sperren sie, wenn sie versuchen, sich von einem anderen Gerät aus anzumelden.

Da die Höhe des Gehalts vom Land abhängt, aus dem man kommt, ist die Nutzung eines VPN ein todsicherer Weg, seinen Job auf der Stelle zu verlieren.

Und das Leben kann sehr wohl zu Ende sein, falls man plötzlich ohne Lohn dasteht, der ohnehin schon an der Armutsgrenze lag.

Die Sklavenarbeit des 21. Jahrhunderts

Wie sieht es in den anderen, wohlhabenderen Ländern aus? Nicht unbedingt besser. Andere Orte, andere Taktiken, aber das Ergebnis ist immer noch dasselbe: Ausbeutung von Menschen.

In China haben Teile der KI-Industrie einfach beschlossen, einen unheiligen Deal mit Berufsschulen einzugehen.

Studenten werden verpflichtet, mühsame, geduldsverzehrende Aufgaben zum Data Labeling und Annotieren zu erledigen, die Voraussetzung für den Abschluss sind.

Sie werden gezwungen, Praktikum zu absolvieren, das als „karrierefördernder Job“ angepriesen wird und nichts anderes als billige, sich wiederholende Fließbandarbeiten ist.

Und das alles für Frühstücksgeld, da kaum jemand auch nur den örtlichen Mindestlohn verdient, nachdem die gierigen Berufsschulen ihren Anteil kassiert haben.

Doch in der hoch zivilisierten westlichen Welt haben wir wahrscheinlich den Tiefpunkt der wahren digitalen Sklaverei erreicht.

In den nordischen Ländern, wo Daten in lokalen Sprachen erhoben werden müssen, die nur von einer sehr kleinen Anzahl von Menschen gesprochen werden, wie Finnisch oder Dänisch, ist es schwieriger, unterbezahlte Afrikaner oder Inder einzustellen.

Wer also kann Ihre Arbeit besser und zu einem Bruchteil des tatsächlichen Preises erledigen, wenn nicht ein Gefangener?

In einem Land, in dem ein Espresso bei Starbucks 2,8 € kostet, liegt der Stundenlohn von 1,54 € weit, weit unter der Armutsgrenze.

Aber was ist schon besser als ein Job, der einen nach der Entlassung „auf die digitale Arbeitswelt vorbereitet“, wie das Gefängnissystem rühmt?

Die Schrecken eines Jobs, den niemand will

Ob im Osten oder im Westen, im Norden oder im Süden der Welt: Klickarbeiter-Jobs sind viel trister und anstrengender, als man sich vorstellen kann.

Man sitzt nur vor einem PC und klickt, klickt, klickt den ganzen Tag, um Geld zu verdienen. Das ist doch viel besser, als auf einem Tomatenfeld in Südeuropa in der Sonne zu schuften, oder? Ja, vielleicht, oder eben auch nicht.

Tatsächlich sind viele der Aufgaben, die von Datensammlern, -beschriftern oder noch schlimmer Social-Media-Moderatoren ausgeführt werden, ziemlich schrecklich.

Die kenianischen Mitarbeiter von ChatGPT mussten, wie bereits erwähnt, toxische Inhalte aus dem Chatbot entfernen. Dazu mussten sie diese identifizieren, wobei die einzige Methode hierfür darin bestand, sie zu lesen, zu beobachten und zu erleben.

Und diese Schädlichkeit kommt aus den dunkelsten Winkeln des Internets und oft auch aus den dunkelsten Winkeln des menschlichen Geistes.

Die Moderatoren sozialer Medien, die die Algorithmen zur Inhaltskontrolle füttern müssen, sind oft erschreckenden Bildern, Videos und sonstigen Materialien ausgesetzt, die voller Gewalt gegen Menschen und Tiere, Pornografie, Grausamkeiten und seelischem Missbrauch sind.

Und das alles für ein paar Dollar und unter Arbeitsbedingungen, die oft kaum vorstellbar sind.

Die düstere Zusammenfassung 

Kleine und große Unternehmen wenden alle möglichen Ausbeutungstaktiken an, damit den Beschäftigten keine Rechte zugestanden werden. Das ist ja nichts Neues.

Trotzdem ist das System selbst nicht darauf ausgelegt, die Bedingungen der Arbeitnehmer im Laufe der Zeit zu verbessern.

Derjenige, der das niedrigste Angebot abgibt, erhält den Auftrag. Da Outsourcing-Agenturen und Freiberuflerplattformen einen Teil des den Arbeitnehmern gezahlten Geldes einbehalten, ist ihr Endlohn noch niedriger.

Die Mittelsmänner sorgen für einen ständigen Strom neuer Jobwilliger, die jederzeit eingestellt oder entlassen werden können, und zwar unter der steten Androhung eines Verbots, das sie von zukünftigen Aufträgen ausschließen könnte.

Das Labeling bietet ja keine echte Aufstiegschance: Es gibt weder echte Fähigkeiten zu erlernen, noch die Möglichkeit, sich als Profi zu verkaufen, noch die Aussicht auf eine bessere Bezahlung im Laufe der Zeit.

Häufig stellt man sich eine von Maschinen beherrschte Welt als eine beängstigende Realität vor, in der uns unsere virtuellen Herren zwingen, in grauen, langweiligen, sich wiederholenden Routinen zu leben.

Als nichts weiter als Rädchen in einem gigantischen Mechanismus, der uns wie Vieh verschlingt, ohne Namen, Gesicht oder Identität.

Wir halten jedoch kaum inne und denken daran, dass die überwiegende Mehrheit der weniger glücklichen Menschen auf der Welt bereits in vielerlei Hinsicht in einer solchen Welt lebt.

Wie können Maschinen sie noch schlimmer machen, als sie ohnehin schon ist?

Verwandte Begriffe

In Verbindung stehende Artikel

Claudio Buttice
Technischer Autor
Claudio Buttice
Technischer Autor

Dr. Claudio Butticè, Pharm.D., ist ein ehemaliger Klinik- und Krankenhausapotheker, der für mehrere öffentliche Krankenhäuser in Italien sowie für die humanitäre Nichtregierungsorganisation Emergency arbeitete. Heute ist er ein erfolgreicher Buchautor, der über Themen wie Medizin, Technologie, Armut in der Welt, Menschenrechte und Wissenschaft für Verlage wie SAGE Publishing, Bloomsbury Publishing/ABC-Clio und Mission Bell Media geschrieben hat. Seine neuesten Bücher sind "Universal Health Care" (2019) und "What You Need to Know about Headaches" (2022). Als Datenanalyst und freiberuflicher Journalist wurden viele seiner Artikel in Zeitschriften wie Cracked, The Elephant, Digital Journal, The Ring of Fire und Business Insider veröffentlicht. Dr. Butticè…