8 ocasiones en las que los prejuicios de la IA causaron daños en el mundo real

Fiabilidad

El sesgo de la inteligencia artificial (IA) se produce cuando los sistemas de IA reflejan inadvertidamente prejuicios procedentes de sus datos de entrenamiento o de su diseño.

¿Por qué debería preocuparle? Porque la IA ya se está colando en nuestras vidas, desde la sanidad a los servicios financieros, y el mundo aún no sabe cómo regular su impacto.

Los datos sesgados pueden tener consecuencias desastrosas, y estos son solo algunos ejemplos reales de por qué abordar el sesgo de las máquinas ya es noticia.

Puntos clave

  • Los prejuicios de la IA pueden perjudicar a las personas y a la sociedad, desde las detenciones erróneas a la discriminación laboral.
  • Los algoritmos carecen de comprensión humana y pueden reflejar prejuicios sociales, dando lugar a decisiones inexactas.
  • Los desarrolladores y los usuarios deben ser conscientes de los posibles sesgos y trabajar activamente para mitigarlos.
  • La supervisión periódica, la colaboración de expertos y las herramientas de imparcialidad son esenciales para la aplicación ética de la IA.

8 veces que el sesgo de la IA causó daños en el mundo real

8. Un chatbot de Microsoft se vuelve racista y sexista en Twitter

Gracias a la IA generativa, Microsoft ha recuperado su posición como la empresa pública más valiosa del mundo. Pero la relación del gigante tecnológico con la IA ha estado lejos de ser un camino de rosas. En 2016, Microsoft se aventuró en las redes sociales impulsadas por la IA con «Tay», un chatbot impulsado por la IA que aprendería mediante el arte de la conversación con humanos. ¿Qué podría salir mal?

Tay se diseñó para imitar a los millennials y relacionarse con ellos, y evolucionar mediante la interacción de los usuarios. Pero los usuarios de Twitter tardaron menos de 24 horas en corromper al inocente bot.

Tay se convirtió rápidamente en un canal de contenido ofensivo, haciéndose eco de comentarios racistas y lascivos que le enviaban los usuarios. Este incidente puso de manifiesto las complejidades y los riesgos de programar IA para interactuar en entornos humanos sin restricciones.

El rápido cambio de Tay de un personaje digital amistoso a una fuente de polémicas declaraciones racistas y sexistas llevó a su cierre, planteando cuestiones sobre la preparación de Microsoft para manejar la naturaleza impredecible de los medios sociales potenciados por la IA.

Ocho años después, la gran pregunta sigue en pie: ¿Cómo nos aseguramos de que la IA no herede los peores rasgos de la humanidad, especialmente cuando gigantes tecnológicos como Microsoft podrían pasar por alto medidas preventivas cruciales?

7. Detenido falsamente por la IA: un hombre detenido por error debido a un algoritmo sesgado

Robert Williams trabajaba en un taller de automóviles de Detroit en enero de 2020 cuando recibió una llamada de la policía ordenando su detención. Poco después, se enteraría de que la IA le había identificado falsamente en un caso de robo, lo que pone de manifiesto los peligros de los algoritmos sesgados en la aplicación de la ley.

El viejo mantra de si no tienes nada que ocultar, no tienes nada que temer dista mucho de la verdad cuando te encuentras acusado de cometer un delito por un algoritmo de IA.

La detención errónea de Robert Williams, debida a un «algoritmo racista» del software de reconocimiento facial, suscitó gran preocupación por los peligros ocultos de la IA en la aplicación de la ley, cuando los prejuicios pueden tener profundas consecuencias en la vida real.

También pone de relieve el reto más amplio de garantizar que los sistemas de IA no reflejen simplemente los prejuicios sociales, sino que se desarrollen y utilicen para promover la equidad y la justicia.

6. El lado oscuro de la policía predictiva y los algoritmos previos al delito

La Oficina del Sheriff del Condado de Pasco, en Florida, saltó a los titulares por todas las razones equivocadas tras adoptar un método de aplicación de la ley basado en la IA, que recuerda inquietantemente al concepto de precrimen que se hizo famoso en «Minority Report» de Philip K. Dick.

Esta estrategia policial predictiva utiliza algoritmos de IA para analizar big data, incluidos los historiales de detenciones, e identificar a los individuos con más probabilidades de cometer delitos en el futuro.

Los críticos argumentaron que conducía a un acoso innecesario y amplificaba los prejuicios existentes, especialmente contra las minorías, reproduciendo e intensificando potencialmente el racismo sistémico dentro de las fuerzas del orden.

Se criticó el método por crear bucles de retroalimentación, en los que se perseguía repetidamente a barrios concretos, exacerbando el problema en lugar de resolverlo.

 

Aunque el controvertido programa de inteligencia dirigido por prealgoritmos fue finalmente interrumpido, sigue siendo un oportuno recordatorio de por qué debemos evitar cometer errores similares en el futuro.

5. iTutorGroup obligado a pagar 365.000 dólares por discriminación por edad

Imagina que solicitas el trabajo de tus sueños, pero un programa informático te rechaza automáticamente por tu edad.

Ésa es la dura realidad a la que se enfrentaron algunos solicitantes de empleo en iTutorGroup, gracias a lo que parecía ser una herramienta de contratación de IA sesgada.

Esta herramienta, pensada para acelerar la contratación, supuestamente acabó discriminando a los solicitantes de más edad, desechando currículos de mujeres de más de 55 años y hombres de más de 60 años.

Afortunadamente, un candidato decidido y experto en tecnología desenmascaró esta discriminación por razón de edad volviendo a presentar su solicitud con una edad falsa más joven y consiguiendo que le aceptaran.

Este chocante incidente dio lugar a un cuantioso acuerdo de 365.000 dólares con la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC), un duro recordatorio de que incluso las sofisticadas herramientas de IA pueden ser defectuosas y perpetuar los prejuicios. Por eso la EEOC se centra ahora en la «Equidad Algorítmica», garantizando que la IA utilizada en la contratación y otras áreas vitales no discrimine.

¿Qué podemos aprender de todo esto? Para los empresarios, es crucial examinar cuidadosamente sus herramientas de IA en busca de prejuicios ocultos, como comentamos en nuestra entrevista con la becaria de IBM Francesca Rossi la semana pasada.

Recuerda que la IA es una herramienta, no una varita mágica que sustituya al juicio y la empatía humanos. La edad no debería ser un factor a menos que sea necesario y legal, así que evita recopilar datos sobre la edad durante la contratación. Por último, la transparencia es fundamental. Sé abierto sobre cómo utilizas la IA en la contratación y ten procedimientos claros para que los candidatos planteen sus dudas.

4. El gigante inmobiliario pierde millones en casas que no puede vender

¿Recuerdas cuando Zillow prometió revolucionar la compra de viviendas con «estimaciones» basadas en IA y ofertas instantáneas en efectivo? Tras una espectacular caída, Zillow reveló que cerraba sus «Ofertas Zillow», dejando un montón de 304 millones de dólares de casas sin vender y 2.000 puestos de trabajo.

¿Qué falló? Aunque Zestimate podía analizar conjuntos de datos masivos y ofrecer valoraciones aparentemente inteligentes, no pudo predecir las salvajes oscilaciones de los precios de la vivienda impulsadas por la pandemia y las cambiantes preferencias de los compradores.

Pero la historia de Zillow no trata sólo de malas apuestas. Es un cuento con moraleja sobre las limitaciones de la IA. Aunque los algoritmos pueden procesar la información más rápido que los humanos, carecen del toque humano.

La experiencia de Zillow no significa que la IA sea inútil en el sector inmobiliario. Sin embargo, subraya que la IA necesita una cuidadosa orientación humana y no debe sustituir al crucial juicio y empatía humanos.

El mercado inmobiliario, en su esencia, sigue teniendo que ver con las personas, las emociones y las comunidades, y eso es algo que la IA podría tener dificultades para reproducir a corto plazo.

3. Por qué no puedes confiar en tu abogado de IA

En un ejemplo sorprendente de los escollos de la IA en la práctica jurídica, un abogado de Nueva York, Steven A. Schwartz, se enfrentó a una debacle judicial tras confiar en ChatGPT para la investigación jurídica.

El programa de IA fabricó decisiones y citas judiciales, que Schwartz incluyó en una presentación judicial de un caso contra la aerolínea Avianca. Este incidente dio lugar a una vista para posibles sanciones y pone de relieve los peligros de aceptar acríticamente contenidos generados por IA en entornos profesionales.

El incidente suscitó importantes preocupaciones éticas sobre el uso de la IA en el trabajo jurídico, especialmente a la hora de verificar la exactitud y autenticidad de la información.

2. La IA contra la contratación de mujeres en la tecnología

El intento de Amazon de revolucionar la contratación con IA fracasó estrepitosamente. Su algoritmo, entrenado en una montaña de currículos principalmente masculinos, fue acusado de favorecer a los hombres.

A pesar de los esfuerzos por eliminar el sesgo de la IA, The Guardian alegó que la herramienta discriminaba los currículos de las mujeres. Este desafortunado caso, que llevó al cierre de la herramienta en 2019, pone de relieve la dificultad de crear una IA justa y neutral, especialmente cuando se abordan características humanas complejas como el género.

Sirve como otra dura advertencia para otras empresas que exploran la IA en la contratación: la vigilancia constante y la mejora continua son cruciales para evitar que la IA amplifique los prejuicios sociales.

1. La IA inventa una demanda por acoso sexual contra un profesor de Derecho

ChatGPT fabricó escalofriantemente un escándalo de acoso sexual acusando falsamente a un profesor de Derecho. En un principio, el profesor recibió un correo electrónico en el que ChatGPT lo incluía en la lista de juristas acusados de acoso sexual, alegando que había hecho comentarios inapropiados y tocado a una alumna durante un viaje de estudios a Alaska.

Sin embargo, tras investigar, se reveló que no existía tal artículo en el Washington Post (citado como fuente). El profesor nunca había hecho un viaje de clase a Alaska ni había sido acusado de acosar a una alumna.

La facilidad con la que la IA puede generar mentiras convincentes basta para conmocionar a cualquier comunidad. Pero sirvió para concienciar de las limitaciones de la tecnología de IA y de por qué debemos tener mucho cuidado al creer las alucinaciones más terroríficas que podrían arruinar la vida de un individuo.

Lo esencial

Como hemos visto, los prejuicios de la IA pueden tener consecuencias en el mundo real, afectando a todo, desde el empleo hasta los procedimientos judiciales. Aunque la tecnología muestra un inmenso potencial, su capacidad para causar daños subraya la cuestión crucial: ¿cómo podemos garantizar el desarrollo y la aplicación responsables de la IA para salvaguardar a las personas y a la sociedad?

Los análisis periódicos, la supervisión de errores, las consultas a expertos y las herramientas como la What-if Tool de Google o AI Fairness 360 de IBM son cruciales para detectar y corregir el sesgo de la IA. ¿Estamos preparados para afrontar este reto y construir un futuro en el que la IA sirva a la humanidad, en lugar de ponerla en peligro? Sólo el tiempo lo dirá.

Temas relacionados

Artículos relacionados

Neil C. Hughes
Senior Technology Writer
Neil C. Hughes
Experto en Tecnología

Neil es un periodista tecnológico independiente con más de dos décadas de experiencia en tecnologías de la información. Reconocido como una de las Voces Principales en tecnología en LinkedIn y destacado por CIO Magazine y ZDNet por sus perspicaces aportes, Neil ha contribuido a publicaciones como INC, TNW, TechHQ y Cybernews, además de ser el anfitrión del popular podcast Tech Talks Daily.