Desmontando mitos sobre la IA: 10 ideas falsas sobre los LLM

Fiabilidad
Resumen

Los modelos lingüísticos no son perfectos, y los usuarios deben tener cuidado con ciertos conceptos erróneos sobre esta tecnología si quieren extraer las mejores conclusiones.

Los grandes modelos lingüísticos (LLM) son una de las innovaciones tecnológicas más populares. De hecho, McKinsey calcula que la IA generativa podría aportar entre 2,6 y 4,4 billones de dólares anuales a la economía mundial y aumentar el impacto de toda la inteligencia artificial (IA) entre un 15 y un 40%.

Sin embargo, aunque el mercado de la IA generativa sigue creciendo, todavía circulan muchos conceptos erróneos y mitos sobre el funcionamiento de los modelos lingüísticos. Desde creer que los LLM son sensibles hasta pensar que pueden generar contenidos con gran precisión y sin sesgos, hay una serie de conceptos erróneos que los usuarios deben conocer.

Desmitificando los modelos lingüísticos: 10 mitos de la IA desmentidos

1. Los LLM pueden pensar

Uno de los conceptos erróneos más comunes sobre los LLM es que pueden pensar de forma independiente. En realidad, los modelos lingüísticos pueden hacer inferencias a partir de un conjunto de datos y crear un resumen o predecir un texto, pero no entienden el lenguaje natural como lo haría un humano.

Procesan las entradas del usuario y utilizan patrones que han aprendido de los datos de entrenamiento para determinar cómo responder. Tampoco entienden las emociones, el sarcasmo ni los coloquialismos. Esto significa que los LLM modernos están muy lejos de la inteligencia general artificial (AGI).

2. Los modelos lingüísticos crean contenido

Aunque los LLM pueden utilizarse en la creación de contenidos, no innovan ni crean contenidos originales de forma independiente. En su lugar, toman patrones de contenido escrito o visual que han observado en sus datos de entrenamiento y los utilizan para predecir y generar contenido basado en sus datos de entrenamiento.

El uso de datos de formación para generar respuestas es una práctica controvertida. Por ejemplo, tres artistas interpusieron una demanda colectiva contra Stability AI, DeviantArt y Midjourney, argumentando que “obras robadas alimentan estos productos de IA” porque se entrenan con imágenes protegidas por derechos de autor extraídas de Internet.

3. Todos los datos son confidenciales

Otro concepto erróneo importante sobre los LLM es que los datos introducidos son completamente confidenciales. Esto no es necesariamente cierto. A principios de este año, Samsung prohibió ChatGPT en el lugar de trabajo después de que un empleado filtrara datos confidenciales en la solución debido a la preocupación de que la información compartida se estuviera almacenando en un servidor externo.

Por lo tanto, las organizaciones que buscan usar IA generativa deben resaltar qué información pueden y no pueden compartir los empleados con los modelos de lenguaje, de lo contrario, corren el riesgo de caer en incumplimiento de las regulaciones de protección de datos, como el Reglamento General de Protección de Datos (GDPR).

4. La IA generativa es 100% precisa

Muchos usuarios cometen el error de creer que la información que generan herramientas como ChatGPT y Bard es 100% precisa, o al menos generalmente precisa. Por desgracia, los modelos lingüísticos son susceptibles de alucinación, lo que significa que pueden falsear hechos e información y afirmarlos “con seguridad” como si fueran correctos.

Como resultado, los usuarios necesitan asegurarse de que comprueban dos veces los hechos y las explicaciones lógicas para que no terminen siendo engañados por información errónea y salidas sin sentido.

5. Los LLMS son imparciales e imparciales

Dado que los LLM son desarrollados por seres humanos e imitan el lenguaje humano, es importante recordar que estos sistemas llevan incorporados sesgos, sobre todo si hay errores en los datos de entrenamiento subyacentes. Esto significa que los usuarios no pueden permitirse considerarlos fuentes imparciales e imparciales.

La parcialidad de las máquinas puede manifestarse en los modelos lingüísticos en forma de inexactitudes o información incorrecta o, más abiertamente, en forma de contenidos odiosos u ofensivos. El grado en que aparecen estos sesgos depende de los datos con los que se entrenan estos modelos.

6. La IA generativa es eficaz en todos los idiomas

Aunque las soluciones de IA generativa pueden utilizarse para traducir información de un idioma a otro, su eficacia depende de la popularidad del idioma utilizado.

Los LLM pueden generar respuestas convincentes en idiomas europeos populares como el inglés y el español, pero se quedan cortos a la hora de crear respuestas en idiomas de uso menos común.

7. Los LLM transmiten información de Internet

Los modelos lingüísticos como GPT4 y GPT 3.5 no acceden a Internet en tiempo real, sino que procesan sus datos de entrenamiento (algunos de los cuales se extraen de Internet).

Para proveedores como Google, OpenAI y Microsoft, la naturaleza de estos datos de entrenamiento se mantiene en gran medida en una caja negra, lo que significa que los usuarios no pueden saber qué información utilizan los LLM para generar resultados. Esto significa que los usuarios no pueden permitirse asumir que la información está actualizada o es precisa.

8. Los LLM están diseñados para sustituir a los empleados humanos

Aunque la IA tiene el potencial de automatizar millones de puestos de trabajo, los LLM en su forma actual no pueden sustituir la inteligencia, creatividad e ingenio de los empleados humanos. La IA generativa es una herramienta diseñada para trabajar junto a los trabajadores del conocimiento en lugar de sustituirlos.

La combinación de la experiencia de los empleados junto con la escalabilidad y las capacidades de procesamiento de los LLM puede denominarse inteligencia aumentada.

9. Los LLM no pueden producir contenidos maliciosos

Algunos usuarios pueden creer que los controles de moderación de contenidos de proveedores como OpenAI impiden que otras personas los utilicen para crear contenidos ofensivos o maliciosos, pero no es así.

Con jailbreaks y algunas indicaciones ingeniosas, los ciberdelincuentes pueden engañar a los LLM para que generen códigos maliciosos y correos electrónicos de phishing que pueden usar en la naturaleza para robar información privada.

10. Los LLM pueden aprender nueva información continuamente

A diferencia de los seres humanos, los LLM no están aprendiendo nueva información todo el tiempo, sino que utilizan técnicas de aprendizaje profundo para identificar nuevos patrones en sus datos de entrenamiento. Una mejor comprensión de estos patrones les permite realizar inferencias más detalladas a partir de un conjunto de datos.

Por lo tanto, las organizaciones tendrían que volver a entrenar a un LLM si quieren que aprenda nuevos datos que no forman parte de los datos de entrenamiento originales.

Modelos lingüísticos: Mejor con supervisión

Los LLMs tienen el potencial de ser un multiplicador de fuerza para los trabajadores del conocimiento, pero es importante ser realista sobre sus expectativas para la tecnología si quiere obtener los mejores resultados.

Estar atento a alucinaciones, sesgos e imprecisiones ayudará a evitar la posibilidad de ser engañado y permitirá a los usuarios aumentar sus posibilidades de extraer ideas concretas para mejorar su toma de decisiones.

Temas relacionados

Artículos relacionados

Tim Keary
Technology Specialist
Tim Keary
Editor

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.