¿Qué es una alucinación de IA?
Una alucinación de IA se produce cuando un modelo de lenguaje grande (LLM) como el GPT4 de OpenAI o el PaLM de Google se inventa información o hechos falsos que no se basan en datos o acontecimientos reales.
Avivah Litan, vicepresidenta analista de Gartner, lo explica:
Las alucinaciones son salidas completamente inventadas de modelos lingüísticos grandes. Aunque representan hechos completamente inventados, los resultados de los LLM los presentan con confianza y autoridad.
Los chatbots basados en IA generativa pueden fabricar cualquier información objetiva, desde nombres, fechas y acontecimientos históricos hasta citas o incluso códigos.
Las alucinaciones son tan comunes que OpenAI advierte a los usuarios de ChatGPT que “ChatGPT puede producir información inexacta sobre personas, lugares o hechos”.
El reto para los usuarios es saber qué información es cierta y cuál no.
Ejemplos de alucinaciones de IA
Aunque no dejan de surgir ejemplos de alucinaciones de la IA, uno de los casos más notables se produjo como parte de un vídeo promocional publicado por Google en febrero de 2023. Entonces, su chatbot de IA Bard afirmó incorrectamente que el telescopio espacial James Webb tomó la primera imagen de un planeta fuera del sistema solar.
Del mismo modo, en la demostración de lanzamiento de Microsoft Bing AI en febrero de 2023, Bing analizó una declaración de ganancias de Gap, proporcionando un resumen incorrecto de hechos y cifras.
Estos ejemplos ilustran que los usuarios no pueden permitirse confiar en que los chatbots generen respuestas veraces en todo momento. Sin embargo, los riesgos que plantean las alucinaciones de la IA van mucho más allá de la difusión de información errónea.
De hecho, según el equipo de investigación de Vulcan Cyber, ChatGPT puede generar URL, referencias y bibliotecas de código que no existen o incluso recomendar paquetes de software potencialmente maliciosos a usuarios desprevenidos.
Como resultado, las organizaciones y los usuarios que experimentan con LLM y IA generativa deben actuar con la debida diligencia al trabajar con estas soluciones y comprobar dos veces la exactitud de los resultados.
¿Qué causa las alucinaciones AI?
Algunos de los factores clave de las alucinaciones de la IA son:
- Datos de entrenamiento desfasados o de baja calidad;
- Datos clasificados o etiquetados incorrectamente;
- Errores factuales, incoherencias o sesgos en los datos de entrenamiento;
- Programación insuficiente para interpretar correctamente la información;
- Falta de contexto proporcionado por el usuario;
- Dificultad para deducir la intención de coloquialismos, expresiones de argot o sarcasmo.
Es importante redactar las instrucciones en un inglés sencillo y lo más detallado posible. Por lo tanto, es responsabilidad del proveedor aplicar la programación y los controles necesarios para mitigar el riesgo de alucinaciones.
¿Cuáles son los peligros de la alucinación por IA?
Uno de los principales peligros de la alucinación por IA es si el usuario responde demasiado sobre la exactitud de los resultados del sistema de IA.
Aunque algunas personas, como Satya Nadella, consejero delegado de Microsoft, han argumentado que los sistemas de IA como Microsoft Copilot pueden ser “útilmente erróneos”, estas soluciones pueden difundir desinformación y contenido odioso si no se controlan.
La desinformación generada por la IA es difícil de abordar porque estas soluciones pueden generar contenidos que parecen detallados, convincentes y fiables en el servicio pero que, en realidad, son incorrectos, lo que hace que el usuario crea en hechos e informaciones falsas.
Si los usuarios se toman al pie de la letra los contenidos generados por la IA, existe la posibilidad de que la información falsa y no veraz se propague por Internet.
Por último, también existe el riesgo de responsabilidades legales y de cumplimiento. Por ejemplo, si una organización utiliza un servicio impulsado por la IA para comunicarse con los clientes, que emite orientaciones que dañan la propiedad del usuario o emite contenido ofensivo, entonces podría correr el riesgo de acciones legales.
¿Cómo detectar las alucinaciones de la IA?
La mejor manera de que un usuario detecte si un sistema de IA está alucinando es comprobar manualmente los resultados que proporciona la solución con una fuente de terceros. Cotejar hechos, cifras y argumentos con sitios de noticias, informes del sector, estudios y libros a través de un motor de búsqueda puede ayudar a verificar si una información es correcta o no.
Aunque la comprobación manual es una buena opción para los usuarios que desean detectar información errónea, en un entorno empresarial puede no ser viable desde el punto de vista logístico o económico verificar cada segmento de información.
Por esta razón, es una buena idea considerar el uso de herramientas automatizadas para comprobar dos veces si las soluciones de IA generativa contienen alucinaciones. Por ejemplo, la herramienta de código abierto NeMo Guardrails de Nvidia puede identificar alucinaciones cotejando el resultado de un LLM con otro.
Del mismo modo, Got It AI ofrece una solución llamada TruthChecker, que utiliza IA para detectar alucinaciones en el contenido generado por GPT-3.5+.
Por supuesto, las organizaciones que utilicen herramientas automatizadas como Nemo Guardrails y Got It AI para comprobar los hechos de los sistemas de IA deben actuar con la diligencia debida para verificar la eficacia de estas soluciones a la hora de identificar información errónea y realizar una evaluación de riesgos para determinar si es necesario tomar otras medidas para eliminar posibles responsabilidades.
Conclusión
La IA y los LLM pueden desbloquear algunas capacidades interesantes para las empresas, pero es importante que los usuarios sean conscientes de los riesgos y limitaciones de estas tecnologías para obtener los mejores resultados.
En última instancia, las soluciones de IA proporcionan el máximo valor cuando se utilizan para aumentar la inteligencia humana en lugar de intentar sustituirla.
Mientras los usuarios y las empresas reconozcan que los LLM tienen el potencial de fabricar información y verificar los datos de salida en otros lugares, se minimizan los riesgos de difundir o absorber información errónea.