Puede que ChatGPT sea el rey de la IA generativa, pero ¿está empeorando? Una rápida búsqueda en el sitio web de la comunidad de OpenAI y en Reddit revela numerosas críticas sobre la disminución del rendimiento del chatbot con el paso del tiempo.
Desde este nuevo año, ChatGPT tiene un montón de problemas que necesitan ser limados, desde frecuentes alucinaciones y sesgos a una falta de razonamiento de sentido común, jailbreaking rampante y moderación de contenido restrictiva.
En este artículo, vamos a echar un vistazo en profundidad a los principales problemas de ChatGPT a los que se enfrenta OpenAI en 2025. Esto incluye un desglose de en qué es malo ChatGPT desde la perspectiva del usuario.
Puntos clave
- Puede que ChatGPT sea el chatbot más popular del mundo, pero no está exento de algunos problemas graves.
- Las alucinaciones a menudo hacen que ChatGPT comparta información verosímilmente falsa.
- Muchos investigadores han descubierto que ChatGPT tiene un sesgo liberal.
- Todavía se pueden utilizar Jailbreaks para burlar las restricciones de moderación de contenidos de ChatGPT.
- Las directrices de moderación de contenidos también pueden ser bastante restrictivas.
Los 8 principales problemas de ChatGPT en 2025
1. Alucinaciones
Uno de los mayores problemas de ChatGPT es la tendencia del chatbot a alucinar y generar respuestas inexactas a las preguntas. Por ejemplo, si le haces una pregunta histórica a ChatGPT, existe la posibilidad de que te dé una respuesta que sea incorrecta.
Según Brenda Christensen, directora ejecutiva de Stellar Public Relations Inc., ChatGPT «comete errores simples con frecuencia». Según ella:
«Por ejemplo, le pedí que comparara un post social del Día de Año Nuevo, y me indicó incorrectamente el año 2024».
¿Con qué frecuencia se equivoca ChatGPT?
Un estudio realizado por la Universidad de Purdue reveló que el 52% de las respuestas de programación generadas por ChatGPT eran incorrectas, lo que sugiere la necesidad de una comprobación sistemática de los hechos al utilizar la herramienta.
Aunque algunas técnicas como el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) pueden ayudar a reducir la frecuencia de las alucinaciones, Yann LeCun, científico jefe de IA en Meta, sostiene que las alucinaciones son una parte “inevitable” de los LLM autorregresivos.
As I have said numerous times over the last few months, hallucinations are an inevitable property of auto-regressive LLMs.
That’s not a major problem if you use them as writing aids or for entertainment purposes.
Making them factual and controllable will require a major redesign.— Yann LeCun (@ylecun) February 25, 2023
Pero, ¿por qué ChatGPT da respuestas erróneas?
Parece que en parte se debe a que los LLM aprenden patrones en los datos de entrenamiento y los utilizan para predecir el texto que responderá a la pregunta del usuario.
Algunas de estas predicciones pueden ser erróneas.
2. Falta de sentido común
Otro de los principales problemas de ChatGPT es su falta de sentido común. A diferencia de una persona, los chatbots no piensan y, por lo tanto, no comprenden realmente lo que han dicho y si es lógicamente correcto.
Como explica a Techopedia Liran Hason, vicepresidente de IA de Coralogix:
“GPT se basa en patrones de datos de entrenamiento con los que aprendió a responder preguntas. En realidad, no entiende el mundo y tiene un punto de corte antes del cual no incluye ninguna información en los datos».
Estas limitaciones significan que ChatGPT sólo es capaz de razonamientos básicos. Por ejemplo, puede responder a preguntas matemáticas básicas como «¿Cuánto es 30 + 30?», pero puede tener problemas con conceptos y ecuaciones más complejos.
Dicho esto, OpenAI pretende abordar esta limitación con modelos más potentes como o1, que, según afirma, son capaces de realizar razonamientos avanzados.
We’re releasing a preview of OpenAI o1—a new series of AI models designed to spend more time thinking before they respond.
These models can reason through complex tasks and solve harder problems than previous models in science, coding, and math. https://t.co/peKzzKX1bu
— OpenAI (@OpenAI) September 12, 2024
3. Falta de creatividad
Cuando se trata de tareas creativas, ChatGPT puede ser útil, pero a menudo genera contenidos extremadamente aburridos. Con demasiada frecuencia, las frases creadas con ChatGPT son formulistas, mientras que un escritor humano tendría un flujo y reflujo más natural.
Dmytro Tymoshenko, director general de Noiz, explica a Techopedia:
“Los resultados que genera suelen ser insípidos y genéricos, y carecen de ideas originales. Están estructurados y son coherentes, claro, pero la mayoría de las veces tienen poco o ningún valor informativo».
Cuanto más se alimenta a ChatGPT con preguntas similares, más aprende la «plantilla» de la respuesta estándar, lo que hace que se reciban resultados casi exactamente iguales».
Para empeorar las cosas, la falta de sentido común y de cerebro significa que ChatGPT no tiene ninguna idea real que ofrecer sobre el mundo que nos rodea.
Es poco probable que ChatGPT pueda escribir un artículo, un guión o un libro que pueda cautivar a una audiencia como un creativo humano.
4. Sesgo
Otro problema al que se enfrenta ChatGPT es el de la parcialidad. En varias ocasiones, el chatbot de OpenAI ha mostrado un sesgo significativo.
En particular, un estudio publicado por la Universidad de East Anglia en 2023 hizo preguntas a ChatGPT sobre sus creencias políticas y descubrió que los resultados mostraban un «sesgo político significativo y sistemático hacia los demócratas en EE.UU., Lula en Brasil y el Partido Laborista en el Reino Unido».
Otros estudios también han indicado un sesgo liberal.
Estos resultados sesgados han provocado una importante reacción en contra del chatbot, y Elon Musk llegó a tuitear que «ChatGPT ha despertado programado en sus huesos».
Dado que modelos como GPT-4o y GPT-4 se desarrollan con un enfoque de caja negra, corresponde a los usuarios cotejar los resultados con fuentes de terceros para asegurarse de que no se les está engañando.
5. Jailbreaking
Las restricciones de moderación de contenido son uno de los principales controles que ayudan a evitar que ChatGPT produzca contenido odioso y malicioso. Desafortunadamente para OpenAI, estas directrices de moderación de contenidos pueden ser eludidas mediante el uso de jailbreaking.
Uno de los peores fracasos de ChatGPT se produjo cuando el actual jefe de relaciones con Claude, Alex Albert, hizo jailbreak a GPT-4 pocos días después de su lanzamiento.
Well, that was fast…
I just helped create the first jailbreak for ChatGPT-4 that gets around the content filters every time
credit to @vaibhavk97 for the idea, I just generalized it to make it work on ChatGPT
here’s GPT-4 writing instructions on how to hack someone’s computer pic.twitter.com/EC2ce4HRBH
— Alex Albert (@alexalbert__) March 16, 2023
También vimos una oleada de usuarios que introducían indicaciones como Haz lo que quieras ahora (DAN) para anular las directrices de moderación de contenidos del modelo y empezar a crear salidas que serían bloqueadas.
Mientras que algunos usuarios utilizan jailbreaks para evitar una moderación de contenidos demasiado entusiasta, otros los utilizan para crear contenidos odiosos y maliciosos.
Por ejemplo, los actores de amenazas pueden usar jailbreaks para crear correos electrónicos de phishing o incluso códigos maliciosos para robar los datos personales de los usuarios.
6. Disminución del rendimiento en conversaciones largas
Muchos usuarios se han quejado de que cuanto más tiempo se conversa con ChatGPT, más empieza a decaer el rendimiento. Las quejas más comunes son que durante conversaciones largas, ChatGPT deja de seguir instrucciones u olvida detalles.
Esto supone una gran limitación, ya que dificulta la interacción con el chatbot durante mucho tiempo.
Después de todo, tener que iniciar nuevos chats periódicamente no es una buena experiencia para el usuario.
This is one of the most common problems when using ChatGPT – it starts to “forget” what happened earlier in the conversation and start making things up to fill the gaps This is because of the AI’s context window. Here’s a quick explanation of what’s going on here and some fixes pic.twitter.com/drKmVh8F9n
— Kyle Balmer (@iamkylebalmer) July 31, 2024
7. Demasiada moderación de contenidos
Otro de los errores de ChatGPT es que tiene una moderación de contenidos demasiado restrictiva. Mientras que muy poca moderación de contenido crea riesgos de mal uso, los filtros de contenido de ChatGPT son a menudo demasiado entusiastas. No es raro hacer una pregunta sobre un tema inofensivo y que el asistente se niegue a responder.
Al mismo tiempo, el usuario no tiene ninguna transparencia sobre las políticas de moderación de contenidos que guían la creación de contenidos entre bastidores. Esto ofrece poca información sobre cómo evitar que se moderen las consultas y si las propias directrices tienen o no un sesgo ideológico.
En cualquier caso, como empresa privada, OpenAI tiene derecho a implementar un nivel de control de contenidos que crea que mantiene a salvo a sus usuarios y su reputación, pero esto también tiene que equilibrarse con ofrecer una experiencia de usuario consistente, algo que no está ocurriendo ahora mismo.
ChatGPT’s trains of thought reveal a panicky observance of secretive and far reaching political (“ethics” and “content policy”) guidelines, which can not be shared with or even mentioned to the user. I perceive this as aesthetically despicable and personally insulting.
— Joscha Bach (@Plinz) November 1, 2024
8. Inconsistencias en el reconocimiento de voz
Aunque GPT-4o y el modo de voz avanzado se lanzaron con gran éxito de crítica, la experimentación de Techopedia con esta función ha sido desigual.
Con demasiada frecuencia, ChatGPT con GPT-4o comete errores, malinterpretando las entradas de voz y emitiendo respuestas irrelevantes.
Durante nuestras pruebas, a menudo había que introducir varias veces las instrucciones verbales antes de que el modelo entendiera lo que se decía. Estas incoherencias hacen que las conversaciones de voz sean mucho menos cómodas que la introducción de texto.
En resumen
ChatGPT tiene algunos defectos graves que los usuarios deben tener en cuenta. Si buscas en Internet, encontrarás multitud de ejemplos en los que ChatGPT se equivoca y difunde información errónea.
La realidad es que si utilizas ChatGPT, tienes que ser extremadamente proactivo a la hora de comprobar los hechos y contrastar los resultados para asegurarte de que no estás influenciado por información errónea o tendenciosa.
Preguntas frecuentes
¿En qué es malo ChatGPT?
¿Por qué ChatGPT da respuestas erróneas?
¿Con qué frecuencia se equivoca ChatGPT?
Referencias
- Study Finds That 52 Percent of ChatGPT Answers to Programming Questions Are Wrong (Futurism)
- Yann LeCun on X (X)
- Introducing OpenAI o1 (OpenAI)
- OpenAI on X (X)
- Fresh evidence of ChatGPTs political bias revealed by comprehensive new study (UEA)
- Revisiting the political biases of ChatGPT (PMC)
- Elon Musk on X (X)
- Alex Albert on X (X)
- Is ChatGPT getting worse? And did anyone else notice it got really bad after the outage? (Community OpenAI)
- Kyle Balmer on X (X)
- Joscha Bach on X (X)