Los prisioneros humanos invisibles que ayudan a entrenar la IA

Fiabilidad
Resumen

Desde trabajadores indigentes procedentes de países subdesarrollados hasta estudiantes en prácticas e incluso presos en cárceles, las empresas de IA explotan mano de obra barata para alimentar sus algoritmos con salarios de miseria. ¿Cuál es el lado oscuro del etiquetado de datos y por qué los humanos son tan necesarios para entrenar a la IA?

Para alimentar la inteligencia artificial con conjuntos de datos utilizables, una buena dosis de toque humano manual es muy deseable, si no una necesidad imperiosa.

Sin embargo, el etiquetado de datos es un trabajo repetitivo y a menudo penoso, y muchas empresas están intentando explotar mano de obra mal pagada para alimentar sus IA con ingentes cantidades de datos.

Desde trabajadores indigentes procedentes de países subdesarrollados hasta estudiantes en prácticas e incluso presos de cárceles, las empresas que pregonan su inversión en “IA ética” pueden resultar en realidad poco honradas a la hora de contratar a empleados muy mal pagados.

¿Son realmente importantes los humanos para entrenar a la IA? ¿Quiénes son los etiquetadores y anotadores de datos más pobres que trabajan en los talleres digitales y de dónde proceden? ¿Estamos seguros de que no existen otras alternativas al toque humano cuando se trata de alimentar a la IA con datos de entrenamiento? Echemos un vistazo.

Brittleness, MAD Cows and AI Autophagy Disorders: Por qué los humanos son necesarios

El toque humano, o como solían llamarlo los expertos, los modelos human-in-the-loop, es esencial para garantizar la calidad de los datos a la hora de entrenar una IA.

Ya en 2018, uno de los primeros accidentes mortales causados por un coche autoconducido involucró a una mujer que cruzaba la calle caminando en bicicleta. Aunque los algoritmos podían reconocer a un peatón o a una bicicleta cuando representaban entidades separadas, no eran capaces de identificar lo que era un resultado inesperado para ellos. Los modelos basados en el aprendizaje automático son extremadamente rígidos y difícilmente pueden reaccionar con la misma flexibilidad que los humanos cuando se encuentran con algo para lo que no han sido entrenados.

Los humanos tienen que resolver todos estos “casos límite” en los que es necesaria una decisión informada y salvar a la IA de la fragilidad inherente que puede hacer que se desmorone tan rápidamente ante lo desconocido.

Pero esa no es la única razón por la que son (somos) necesarios.

Cuando las empresas recurren a distintos tipos de conjuntos de datos que no requieren etiquetadores humanos para completar sus insoportables tareas, como los datos generados por máquinas o los estructurados, los resultados tampoco han sido tan buenos.

Los modelos entrenados únicamente con otros resultados generados por IA tienden a volverse locos al cabo de un tiempo. Literalmente. Según un estudio de las universidades de Rice y Stanford, la calidad de los resultados empieza a degradarse cuando se produce un fenómeno llamado trastorno de autofagia de modelos (MAD, por sus siglas en inglés).

En lo que realmente parece un trastorno neurodegenerativo que afecta a los cerebros de las máquinas, los resultados, como imágenes o vídeos, se vuelven más raros y absurdos. Los investigadores establecieron un paralelismo con lo que les ocurrió a las vacas que se autoconsumieron y desarrollaron la infame “enfermedad de las vacas locas”.

Trabajadores de países de renta baja y media: Los sospechosos de siempre

Una de las heridas más abiertas de la globalización es, sin lugar a dudas, la oportunidad de deslocalizar puestos de trabajo en países donde los salarios son extremadamente bajos y las condiciones laborales son de explotación.

Cuanto más sencillas y poco especializadas sean las tareas requeridas para un puesto de trabajo, y cuanto más puedan realizarse íntegramente a distancia, más fácil les resultará a las grandes organizaciones aprovecharse de la deslocalización. La masificación de los puestos de trabajo y las altas tasas de rotación son intrascendentes si, al fin y al cabo, cualquiera puede realizar esa tarea sin ninguna formación real.

El nuevo ejército de trabajadores mineros del siglo XXI procede, como era de esperar, de las economías menos desarrolladas de África y Asia, donde los salarios son pequeños y, con frecuencia, también lo son los derechos de los trabajadores que los cobran.

Una reciente investigación de TIME descubrió que OpenAI, la creadora del mundialmente famoso ChatGPT, subcontrató a trabajadores de Kenia, Uganda y la India para eliminar la toxicidad, el lenguaje violento y los prejuicios de su chatbot.

Además de tener que lidiar con conjuntos de datos aterradores (más sobre esto más adelante), los trabajadores kenianos recibieron la friolera de un salario de entre 1,32 y 2 dólares por hora para ayudar a mejorar este mercado multimillonario – la agencia detrás del trabajo supuestamente recibió 12,50 dólares la hora por trabajador.

Trabajadores del clic

Los empleados africanos no son los únicos “clickworkers”, como se les suele llamar, que son contratados con una remuneración que consideraríamos inhumana. En Filipinas, miles de trabajadores jóvenes y no especializados se pasan el día diferenciando postes de la luz de peatones en vídeos utilizados para entrenar a coches de conducción autónoma, identificando fotos de famosos y editando fragmentos de texto. ¿Cuánto cobran estas personas? Entre 6 y 10 dólares al día. ¿Tienen derechos laborales básicos? Obviamente no, ya que se les contrata a través de plataformas de autónomos que subcontratan su trabajo a las grandes empresas de IA.

Las mismas plataformas que a menudo retienen sus pagos durante una semana les embargan por cualquier “supuesta infracción” contra la que no pueden recurrir o les prohíben la entrada si intentan conectarse desde un dispositivo diferente. Porque tu sueldo depende del país del que vengas, así que usar cualquier VPN es una forma segura de perder tu trabajo en el acto, y tu vida puede muy bien acabar si te quedas sin paga de repente, si tu sueldo ya estaba tan cerca del umbral de la pobreza.

El trabajo esclavo del siglo XXI: tocando fondo

¿Cómo van las cosas en otros países más prósperos? No tan bien. Lugares diferentes, tácticas diferentes, pero el resultado sigue siendo el mismo: explotación humana.

En China, elementos de la industria de la IA simplemente decidieron hacer un trato impío con las escuelas de formación profesional. Se obliga a los estudiantes a realizar laboriosas tareas de etiquetado y anotación de datos, que consumen su paciencia, como requisito para graduarse. Se les obliga a hacer prácticas anunciadas como “trabajos que mejoran la carrera profesional” que no son más que tareas baratas, repetitivas y de cadena de montaje. Todo por el dinero del desayuno, ya que rara vez alcanzan siquiera el salario mínimo local después de que las codiciosas escuelas de formación profesional hayan sacado su tajada.

Pero en el altamente civilizado mundo occidental, probablemente hemos tocado fondo en la verdadera esclavitud digital. En los países nórdicos, donde los datos deben recopilarse en lenguas locales habladas por un número muy reducido de personas, como el finés o el danés, es más difícil contratar a africanos o indios mal pagados.

Entonces, ¿quién puede hacer mejor su trabajo por una fracción del precio real si no es un preso? Cobrar unos miserables 1,54 euros (1,65 dólares) la hora en un país donde un café expreso de Starbucks cuesta 2,8 euros (2,99 dólares) está muy, muy por debajo del umbral de la pobreza. Pero, oye, eres un preso, así que ¿qué mejor que un trabajo que te “preparará para el mundo digital del trabajo” una vez que salgas en libertad, como presume el sistema penitenciario?

Los horrores de un trabajo que nadie quiere hacer

Al este o al oeste, al norte o al sur del mundo, los trabajos de clickworker son mucho más lúgubres y castigadores de lo que nadie pueda imaginar. Te sientas delante de un ordenador y haces clic, clic, clic durante todo el día para ganar dinero. Es mucho mejor que trabajar bajo el sol en un campo de tomates del sur de Europa, ¿no? Bueno, puede que sí, o puede que no. En realidad, muchos de los trabajos que realizan los recopiladores de datos, los etiquetadores y, lo que es peor, los moderadores de redes sociales son bastante horripilantes.

Los trabajadores keniatas empleados por ChatGPT, como hemos comentado antes, tenían que eliminar la toxicidad del chatbot. Para ello, tenían que identificarla, y la única forma de hacerlo era leerla, verla y experimentarla. Y la toxicidad procede de los recovecos más oscuros de Internet y, a menudo, de los recovecos más oscuros de la mente humana.

Los moderadores de las redes sociales que deben alimentar los algoritmos de moderación de contenidos suelen estar expuestos a imágenes, vídeos y contenidos aterradores llenos de violencia sobre seres humanos y animales, contenido pornográfico, gore y abusos que desgarran el alma. Todo por unos pocos dólares, con unas condiciones de trabajo que a menudo son poco menos que pésimas.

La oscura (en su mayoría gris) conclusión

Las pequeñas y grandes tecnológicas utilizan todo tipo de tácticas de explotación para no garantizar ningún derecho a los empleados, pero eso ya lo sabemos. Aun así, el propio sistema no está construido para mejorar las condiciones de los trabajadores con el paso del tiempo.

Quien hace la oferta más baja se lleva el trabajo, y como las agencias de subcontratación y las plataformas de autónomos se llevan una parte del dinero que se paga a los trabajadores, su salario final es aún más bajo.

Los intermediarios se aseguran de que haya un flujo constante de gente nueva dispuesta a aceptar el trabajo, que puede ser contratada o despedida en cualquier momento, y con la amenaza constante de una prohibición que podría excluirles de aceptar un trabajo en el futuro. No es que se pueda hacer carrera con el etiquetado: no hay ninguna habilidad real que aprender, ni forma de superarse como profesional, ni posibilidades de obtener mejores sueldos con el tiempo.

A menudo imaginamos un mundo dominado por las máquinas como una realidad aterradora en la que nuestros señores sintéticos nos obligan a vivir en rutinas grises, aburridas y repetitivas. No somos más que engranajes de un gigantesco mecanismo que nos devora como ganado sin nombre, rostro ni identidad. Sin embargo, apenas nos paramos a pensar que el mundo en el que vivimos hoy ya es así en muchos sentidos para la inmensa mayoría de las personas menos afortunadas del mundo. ¿Cómo pueden las máquinas hacerlo aún peor de lo que ya es?

Temas relacionados

Claudio Buttice
Data Analyst
Claudio Buttice
Data Analyst

El Dr. Claudio Butticè, Doctor en Farmacia, es un antiguo Director de Farmacia que trabajó para varios grandes hospitales públicos del sur de Italia, así como para la ONG humanitaria Emergency. Actualmente es autor de libros que ha escrito sobre temas como medicina, tecnología, pobreza en el mundo, derechos humanos y ciencia para editoriales como SAGE Publishing, Bloomsbury Publishing y Mission Bell Media. Sus últimos libros son "Universal Health Care" (2019) y "What You Need to Know about Headaches" (2022).Analista de datos y también periodista freelance, muchos de sus artículos se han publicado en revistas como Cracked, The Elephant, Digital…