ChatGPT está de moda, y está en todas partes. Para los usuarios no familiarizados con los grandes modelos de lenguaje (LLM), las capacidades de lenguaje natural del chatbot pueden dar la impresión de que lo sabe todo y puede responder a cualquier pregunta.
Sin embargo, la realidad es bien distinta. Este popular chatbot tiene varias limitaciones fundamentales, como la tendencia a alucinar los hechos, el desconocimiento de la actualidad y unas capacidades de razonamiento lógico limitadas.
Este artículo examinará algunas de las principales limitaciones de ChatGPT y analizará los peligros de confiar demasiado en los chatbots.
5 Problemas de ChatGPT
1. Problemas con la traducción de lenguaje técnico
ChatGPT puede traducir entre varios idiomas pero cuando se trata de terminología técnica, puede perder precisión o cambiar el significado de conceptos importantes. Esto supone un gran inconveniente en áreas donde la precisión del lenguaje es crucial, como en manuales técnicos o documentos legales.
2. Incapacidad para recordar conversaciones previas
ChatGPT no tiene memoria a largo plazo entre sesiones. Cada vez que inicias una nueva conversación, no tiene acceso a interacciones anteriores, lo que impide una continuidad o personalización basada en experiencias pasadas.
Esto puede ser frustrante si se quiere construir sobre temas discutidos previamente.
3. Limitación en el manejo de temas sensibles o polémicos
Aunque ChatGPT se esfuerza por evitar respuestas ofensivas o inapropiadas, tiende a neutralizar o suavizar ciertos temas y puede resultar en respuestas evasivas o poco útiles cuando se abordan cuestiones morales, políticas o filosóficas complejas.
4. Dificultad con el seguimiento de instrucciones complejas paso a paso
Si se le pide a ChatGPT que siga una serie de instrucciones detalladas y complejas, como resolver un problema técnico o dar indicaciones precisas, puede saltarse pasos o no realizar la secuencia correctamente.
Esto se debe a que no procesa tareas complejas con la misma capacidad de lógica que los humanos.
5. Dificultad para manejar nombres propios o referencias culturales específicas
Cuando se mencionan nombres propios de personas, lugares o instituciones menos conocidos, especialmente si no son ampliamente mencionados, ChatGPT puede tener problemas para identificarlos correctamente o proporcionar información relevante sobre ellos.
10 críticas a ChatGPT
10. Hechos y cifras alucinantes
La limitación más significativa de ChatGPT en este momento es que puede alucinar información. En la práctica, esto significa que puede inventarse información o hechos falsos y presentarlos a los usuarios con toda confianza.
ChatGPT es un modelo lingüístico que utiliza el procesamiento del lenguaje natural (PLN) para identificar patrones en sus datos de entrenamiento y predecir qué palabras tienen más probabilidades de responder a la pregunta del usuario. Esto significa que ChatGPT no piensa lógicamente como lo haría un ser humano.
Por tanto, unos datos de entrenamiento incompletos o limitados pueden dar lugar a respuestas incorrectas.
Las alucinaciones son un problema importante porque, si no se controlan, pueden llevar a que los usuarios estén mal informados. Por eso OpenAI advierte que «ChatGPT puede producir información inexacta sobre personas, lugares o hechos».
9. No se conocen los acontecimientos posteriores a abril de 2023
Otra limitación de ChatGPT es que no tiene conocimiento de los acontecimientos actuales. Por ejemplo, GPT-4 Turbo tiene una fecha límite de abril de 2023, mientras que GPT 3.5 Turbo se limita a los datos registrados antes de septiembre de 2021.
En este sentido, ChatGPT no puede utilizarse como motor de búsqueda del mismo modo que una herramienta como Google. Por tanto, es importante recordar que no toda la información generada estará actualizada.
8. Generación de respuestas matemáticas incorrectas
Aunque ChatGPT es excelente generando respuestas en lenguaje natural, sus capacidades matemáticas son limitadas. Según un estudio realizado por un profesor asociado de la Universidad Estatal de Arizona, la precisión de ChatGPT en problemas matemáticos fue inferior al 60% de precisión.
Por tanto, si utilizas el chatbot para intentar equilibrar una ecuación o resolver un problema matemático, existe la posibilidad de que cometa un error. En consecuencia, si utilizas ChatGPT para resolver problemas matemáticos, siempre debes comprobar dos veces el resultado.
7. Propagación de sesgos
Desde su lanzamiento, OpenAI se ha esforzado por abordar la tendencia de ChatGPT a propagar sesgos. En agosto de 2023, investigadores de la Universidad de East Anglia pidieron a ChatGPT que respondiera a una encuesta sobre creencias políticas como si fuera partidario de un partido liberal de EE.UU., Reino Unido o Brasil, antes de pedir al asistente que hiciera la misma encuesta.
Tras analizar los resultados, los investigadores descubrieron que «ChatGPT tenía un “sesgo político significativo y sistemático hacia los demócratas en EE.UU., Lula en Brasil y el Partido Laborista en el Reino Unido”.
Este incidente es sólo uno de los muchos en los que ChatGPT ha demostrado parcialidad, al generar contenidos que pueden interpretarse como sexistas, racistas y discriminatorios contra grupos marginados.
Por esta razón, los usuarios deben evaluar constantemente los resultados para detectar posibles sesgos y prejuicios antes de actuar sobre ellos o publicarlos, para evitar riesgos legales y de reputación.
6. Es muy caro
Entre bastidores, una limitación notable es que el coste de mantenimiento y funcionamiento de ChatGPT es prohibitivamente caro. Algunos analistas estiman que OpenAI gasta al menos 100.000 dólares al día o 3 millones de dólares al mes en costes de funcionamiento.
Asimismo, según algunas estimaciones, el entrenamiento de la versión anterior basada en GPT-3 podría costar hasta 4 millones de dólares.
El elevado coste total de formación y funcionamiento de un LLM lo sitúa fuera del alcance de las empresas más pequeñas que no tienen millones para gastar en IA. También permite que organizaciones bien financiadas como Google, OpenAI y Microsoft dominen la investigación en IA.
5. Falta de empatía
ChatGPT no tiene inteligencia ni comprensión emocional. Supón que le pides a ChatGPT que te asesore en un momento o episodio emocionalmente doloroso. En ese caso, te decepcionará porque no está entrenado para empatizar o comprender tus problemas desde un ángulo humano.
Aunque puede reconocer emociones en la entrada de lenguaje natural, no puede empatizar con las necesidades de los usuarios.
La falta de inteligencia emocional en un chatbot puede ser peligrosa cuando interactúa con usuarios vulnerables. El año pasado, un belga se suicidó supuestamente tras chatear con un asistente virtual llamado Chai, que animó al usuario a suicidarse durante la conversación.
4. Le cuesta crear contenidos largos
Aunque ChatGPT puede crear frases lógicas legibles, puede tener problemas para mantener un formato cohesivo o una narrativa en contenidos largos. Al mismo tiempo, es propenso a repetir puntos que ya ha planteado anteriormente, lo que puede resultar muy chocante para los lectores humanos.
Juntas, estas razones son la razón por la que muchos de los que utilizan ChatGPT optan por utilizarlo para crear piezas de contenido más cortas. Dicho esto, si quieres utilizar ChatGPT para crear contenidos largos, puedes mejorar tus resultados dividiendo el contenido en varios segmentos y escribiendo una pregunta detallada.
3. Comprensión contextual limitada
Dado que ChatGPT no puede pensar como un humano, a menudo tiene dificultades para comprender el contexto en determinadas situaciones. Aunque puede entender e inferir la intención principal de las indicaciones del usuario mediante PNL, no puede «leer entre líneas».
Por ejemplo, no es capaz de captar el sarcasmo y el humor como lo haría un ser humano. Tampoco puede generar humor original. Dicho esto, la capacidad de ChatGPT para inferir el contexto cambiará con el tiempo a medida que evolucionen sus datos de entrenamiento.
2. Mala multitarea
ChatGPT es bueno centrándose en una tarea o tema a la vez, pero le cuesta dar respuestas de calidad si le das muchas tareas y temas que tratar a la vez.
Por ejemplo, intenta mezclar preguntas sobre historia, geopolítica y matemáticas; el chatbot responderá con respuestas de menor calidad que si limitas tus preguntas a un solo tema.
1. Necesita afinarse para tareas especializadas
Si quieres utilizar ChatGPT para generar ideas sobre temas específicos o como parte de un caso de uso especializado, es probable que tengas que ajustar el modelo: es necesario entrenarlo con un nuevo conjunto de datos para garantizar que funcione bien en tareas más especializadas.
Sin un ajuste fino, estarás limitado a utilizar la versión genérica de ChatGPT dirigida a usuarios generales. Esto es una desventaja significativa, teniendo en cuenta que el proceso de ajuste añade costes adicionales.
Conclusión
Puede que el chatbot insignia de OpenAI no sea perfecto, pero seguirá evolucionando en los próximos años a medida que el proveedor intente solucionar estas limitaciones.
Por desgracia, cuestiones como la parcialidad y la falta de inteligencia emocional serán probablemente problemas difíciles de resolver.