Fiabilidad

Cinco fracasos vergonzosos de la IA

Resumen

En los primeros días de la inteligencia artificial, los fracasos y contratiempos pueden ser embarazosos, desastrosos y a veces incluso hilarantes, y también pueden dejar a una empresa con la cara roja e incluso hacer que su valoración caiga en picado.

La inteligencia artificial (IA) está llamada a cambiar nuestro mundo para siempre como una de las revoluciones tecnológicas más perturbadoras de este siglo.

Sin embargo, como ocurre con cualquier otro invento humano, a veces se producen errores, contratiempos y accidentes imprevistos.

Aunque algunos de ellos no son más que problemas menores que pueden hacer descarrilar un proyecto durante un tiempo o detenerlo en sus primeras fases de desarrollo, otros tienen consecuencias mucho más graves.

Un mal fallo de IA puede dejar a una marca con la cara colorada y dañar su reputación, aunque a veces esto puede ocurrir de una forma bastante cómica.

Analicemos algunos de estos vergonzosos, desastrosos y, a veces, divertidísimos fallos de IA de los últimos años.

Recibir el tratamiento silencioso de tu asistente de IA

Hace unos años, allá por 2018, los asistentes de IA eran toda una novedad que estaba generando un nuevo mercado muy rentable.

Como era de esperar, muchos jugadores comenzaron a subirse al carro, y LG fue uno de ellos. Intentaron lanzar Cloi, un pequeño robot parlante cuyo propósito era dirigir un hogar inteligente hablando con él.

Sin embargo, parece que no le gustó ese dueño concreto durante su debut en público, lo que humilló al jefe de marketing de LG en EE.UU., David VanderWaal.

Al cabo de un rato, la pequeña y simpática IA empezó a ignorar repetidamente las órdenes y a dar la callada por respuesta (cortesía de Youtube) a un avergonzado y frustrado VanderWaal.

Quizá Cloi le estaba indicando que había llegado el momento de romper su relación.

La (no tan) pequeña diferencia entre “calvo” y “pelota”

En octubre de 2020, cuando la pandemia de Covid-19 a menudo significaba tratar de evitar el empleo de operadores humanos, un club de fútbol escocés recurrió al uso de una cámara automatizada para grabar un partido.

La cámara automatizada funcionó bien durante un tiempo, grabando sin problemas el partido entre Inverness Caledonian Thistle y Ayr United en el Caledonian Stadium.

Sin embargo, una vez iniciado el partido, la cámara empezó a confundir la brillante y calva cabeza de un linier con el propio balón.

En un giro extremadamente cómico de los acontecimientos, siguió negando a los espectadores la acción real al enfocar la cabeza del pobre hombre.

Todos esperamos un futuro en el que los clubes de fútbol impongan el uso de sombreros y pelucas a todos los linieres y jugadores.

Cuando el reconocimiento facial no te reconoce en absoluto

Según nuestras investigaciones más recientes, el reconocimiento facial parece ser una tecnología poco fiable, y sus fallos pueden tener consecuencias devastadoras en la vida de las personas, incluso llevarlas a la cárcel.

Sin embargo, a veces estos percances son especialmente embarazosos para los desarrolladores de estas herramientas, sobre todo cuando los malentendidos de la IA dan lugar a meteduras de pata imprevisibles.

Uno de estos casos afectó al propio gobierno chino. En muchas ciudades, un método empleado para impedir que la gente cruce las calles de forma ilegal es avergonzar públicamente a los peatones imprudentes.

Sus rostros son captados por cámaras callejeras y luego aparecen en grandes pantallas, junto con las consecuencias legales.

En 2018, una de estas cámaras captó el rostro de Dong Mingzhu, multimillonario a cargo del mayor fabricante de aparatos de aire acondicionado de China, que aparecía en una valla publicitaria de un autobús cercano. La cámara reaccionó a su cara y la avergonzó aunque ni siquiera estuviera allí.

No hace falta decir que el más avergonzado fue el gobierno chino, pero para mantener las cosas justas y equilibradas, no fueron los únicos que tuvieron que enfrentarse a su propia dosis de… vergüenza basada en el reconocimiento facial.

Ese mismo año, la tecnología de vigilancia Rekognition de Amazon emparejó incorrectamente las fotos de criminales detenidos por delitos graves con los rostros de 28 miembros del Congreso.

Quizá la IA se tomó demasiado al pie de la letra lo de que todos los políticos son delincuentes

Por qué la IA nunca debería sustituir el consejo de tu médico

Otro gobierno mortificado por una IA defectuosa fue el británico en 2020.

Con la pandemia del coronavirus en pleno apogeo, las autoridades sanitarias del Reino Unido lanzaron CIBot, un asistente virtual impulsado por IA que se planteó para proporcionar a la gente información útil sobre el virus COVID-19.

La idea era orientar al público proporcionándole consejos vitales, pero la herramienta no se limitó a rastrear fuentes oficiales y fue un poco demasiado lejos.

Al final, el bot proporcionó información inexacta sobre la gravedad y los modos de transmisión del virus y recomendó tratamientos, incluida la inhalación de vapor. Al menos podemos considerarnos afortunados de que no acabara recomendando lejía como terapia.

Cuando la IA generativa empieza a inventar cosas

Muchos dicen que las IA generativas son como niños que dan sus primeros pasos en el mundo de la verdadera inteligencia autoconsciente.

Hay algunos casos, como éste, en los que este tipo de afirmación parece excepcionalmente cierta. Cuando a los niños se les hace una pregunta de la que no saben absolutamente nada, no es infrecuente que se inventen cosas sobre la marcha para quedar bien o para aprovechar al máximo el limitadísimo conocimiento que tienen del mundo.

Hace unos meses, el chatbot Bard de Google cometió el mismo error, para consternación de sus propios creadores. Y lo hizo también en su primera demostración.

Cuando se le preguntó: “¿Qué nuevos descubrimientos del telescopio espacial James Webb puedo contar a mi hijo de 9 años?”, el chatbot proporcionó una respuesta con viñetas que incluía que el telescopio “tomó las primeras imágenes de un planeta fuera de nuestro propio sistema solar”.

En resumen, no fue así, y algunos astrónomos señalaron acertadamente que la primera imagen de un exoplaneta se había tomado casi 20 años antes, en 2004.

Este “error de niños” no sería tan grave si no fuera porque provocó el desplome de las acciones de Google, que perdieron 100.000 millones de dólares de valor de mercado en un solo día.

Conclusión

Aunque estos errores de la IA pueden no ser tan terribles como aquellos en los que la IA se volvió loca, aún pueden ser fuente de una vergüenza significativa para sus empresas y desarrolladores.

Aun así, no podemos negar lo divertido que puede ser a veces observar los absurdos creados por una IA generativa inexperta o defectuosa.

Los juegos no acaban ahí, por ejemplo, cuando Google Fotos convirtió la cabeza de un hombre en una montaña o cuando representó la majestuosidad de unos salmones nadando en un río.

Como humanos, aprendemos más de los fracasos que de los éxitos; sólo nos queda esperar que estos errores ayuden a la IA a mejorar a un ritmo aún más rápido.

Temas relacionados

Claudio Buttice
Data Analyst

El Dr. Claudio Butticè, Doctor en Farmacia, es un antiguo Director de Farmacia que trabajó para varios grandes hospitales públicos del sur de Italia, así como para la ONG humanitaria Emergency. Actualmente es autor de libros que ha escrito sobre temas como medicina, tecnología, pobreza en el mundo, derechos humanos y ciencia para editoriales como SAGE Publishing, Bloomsbury Publishing y Mission Bell Media. Sus últimos libros son "Universal Health Care" (2019) y "What You Need to Know about Headaches" (2022).Analista de datos y también periodista freelance, muchos de sus artículos se han publicado en revistas como Cracked, The Elephant, Digital…