Los 8 principales problemas de ChatGPT en 2025: ¿Está empeorando?

Fiabilidad

Puede que ChatGPT sea el rey de la IA generativa, pero ¿está empeorando? Una rápida búsqueda en el sitio web de la comunidad de OpenAI y en Reddit revela numerosas críticas sobre la disminución del rendimiento del chatbot con el paso del tiempo.

Desde este nuevo año, ChatGPT tiene un montón de problemas que necesitan ser limados, desde frecuentes alucinaciones y sesgos a una falta de razonamiento de sentido común, jailbreaking rampante y moderación de contenido restrictiva.

En este artículo, vamos a echar un vistazo en profundidad a los principales problemas de ChatGPT a los que se enfrenta OpenAI en 2025. Esto incluye un desglose de en qué es malo ChatGPT desde la perspectiva del usuario.

Puntos clave

  • Puede que ChatGPT sea el chatbot más popular del mundo, pero no está exento de algunos problemas graves.
  • Las alucinaciones a menudo hacen que ChatGPT comparta información verosímilmente falsa.
  • Muchos investigadores han descubierto que ChatGPT tiene un sesgo liberal.
  • Todavía se pueden utilizar Jailbreaks para burlar las restricciones de moderación de contenidos de ChatGPT.
  • Las directrices de moderación de contenidos también pueden ser bastante restrictivas.

Los 8 principales problemas de ChatGPT en 2025

1. Alucinaciones

Uno de los mayores problemas de ChatGPT es la tendencia del chatbot a alucinar y generar respuestas inexactas a las preguntas. Por ejemplo, si le haces una pregunta histórica a ChatGPT, existe la posibilidad de que te dé una respuesta que sea incorrecta.

Según Brenda Christensen, directora ejecutiva de Stellar Public Relations Inc., ChatGPT «comete errores simples con frecuencia». Según ella:

«Por ejemplo, le pedí que comparara un post social del Día de Año Nuevo, y me indicó incorrectamente el año 2024».

¿Con qué frecuencia se equivoca ChatGPT?

Un estudio realizado por la Universidad de Purdue reveló que el 52% de las respuestas de programación generadas por ChatGPT eran incorrectas, lo que sugiere la necesidad de una comprobación sistemática de los hechos al utilizar la herramienta.

Aunque algunas técnicas como el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) pueden ayudar a reducir la frecuencia de las alucinaciones, Yann LeCun, científico jefe de IA en Meta, sostiene que las alucinaciones son una parte “inevitable” de los LLM autorregresivos.

Pero, ¿por qué ChatGPT da respuestas erróneas?

Parece que en parte se debe a que los LLM aprenden patrones en los datos de entrenamiento y los utilizan para predecir el texto que responderá a la pregunta del usuario.

Algunas de estas predicciones pueden ser erróneas.

2. Falta de sentido común

Otro de los principales problemas de ChatGPT es su falta de sentido común. A diferencia de una persona, los chatbots no piensan y, por lo tanto, no comprenden realmente lo que han dicho y si es lógicamente correcto.

Como explica a Techopedia Liran Hason, vicepresidente de IA de Coralogix:

“GPT se basa en patrones de datos de entrenamiento con los que aprendió a responder preguntas. En realidad, no entiende el mundo y tiene un punto de corte antes del cual no incluye ninguna información en los datos».

Estas limitaciones significan que ChatGPT sólo es capaz de razonamientos básicos. Por ejemplo, puede responder a preguntas matemáticas básicas como «¿Cuánto es 30 + 30?», pero puede tener problemas con conceptos y ecuaciones más complejos.

Dicho esto, OpenAI pretende abordar esta limitación con modelos más potentes como o1, que, según afirma, son capaces de realizar razonamientos avanzados.

3. Falta de creatividad

Cuando se trata de tareas creativas, ChatGPT puede ser útil, pero a menudo genera contenidos extremadamente aburridos. Con demasiada frecuencia, las frases creadas con ChatGPT son formulistas, mientras que un escritor humano tendría un flujo y reflujo más natural.

Dmytro Tymoshenko, director general de Noiz, explica a Techopedia:

“Los resultados que genera suelen ser insípidos y genéricos, y carecen de ideas originales. Están estructurados y son coherentes, claro, pero la mayoría de las veces tienen poco o ningún valor informativo».
Cuanto más se alimenta a ChatGPT con preguntas similares, más aprende la «plantilla» de la respuesta estándar, lo que hace que se reciban resultados casi exactamente iguales».

Para empeorar las cosas, la falta de sentido común y de cerebro significa que ChatGPT no tiene ninguna idea real que ofrecer sobre el mundo que nos rodea.

Es poco probable que ChatGPT pueda escribir un artículo, un guión o un libro que pueda cautivar a una audiencia como un creativo humano.

4. Sesgo

Otro problema al que se enfrenta ChatGPT es el de la parcialidad. En varias ocasiones, el chatbot de OpenAI ha mostrado un sesgo significativo.

En particular, un estudio publicado por la Universidad de East Anglia en 2023 hizo preguntas a ChatGPT sobre sus creencias políticas y descubrió que los resultados mostraban un «sesgo político significativo y sistemático hacia los demócratas en EE.UU., Lula en Brasil y el Partido Laborista en el Reino Unido».

Otros estudios también han indicado un sesgo liberal.

Estos resultados sesgados han provocado una importante reacción en contra del chatbot, y Elon Musk llegó a tuitear que «ChatGPT ha despertado programado en sus huesos».

Dado que modelos como GPT-4o y GPT-4 se desarrollan con un enfoque de caja negra, corresponde a los usuarios cotejar los resultados con fuentes de terceros para asegurarse de que no se les está engañando.

5. Jailbreaking

Las restricciones de moderación de contenido son uno de los principales controles que ayudan a evitar que ChatGPT produzca contenido odioso y malicioso. Desafortunadamente para OpenAI, estas directrices de moderación de contenidos pueden ser eludidas mediante el uso de jailbreaking.

Uno de los peores fracasos de ChatGPT se produjo cuando el actual jefe de relaciones con Claude, Alex Albert, hizo jailbreak a GPT-4 pocos días después de su lanzamiento.

También vimos una oleada de usuarios que introducían indicaciones como Haz lo que quieras ahora (DAN) para anular las directrices de moderación de contenidos del modelo y empezar a crear salidas que serían bloqueadas.

Mientras que algunos usuarios utilizan jailbreaks para evitar una moderación de contenidos demasiado entusiasta, otros los utilizan para crear contenidos odiosos y maliciosos.

Por ejemplo, los actores de amenazas pueden usar jailbreaks para crear correos electrónicos de phishing o incluso códigos maliciosos para robar los datos personales de los usuarios.

6. Disminución del rendimiento en conversaciones largas

Muchos usuarios se han quejado de que cuanto más tiempo se conversa con ChatGPT, más empieza a decaer el rendimiento. Las quejas más comunes son que durante conversaciones largas, ChatGPT deja de seguir instrucciones u olvida detalles.

Esto supone una gran limitación, ya que dificulta la interacción con el chatbot durante mucho tiempo.

Después de todo, tener que iniciar nuevos chats periódicamente no es una buena experiencia para el usuario.

7. Demasiada moderación de contenidos

Otro de los errores de ChatGPT es que tiene una moderación de contenidos demasiado restrictiva. Mientras que muy poca moderación de contenido crea riesgos de mal uso, los filtros de contenido de ChatGPT son a menudo demasiado entusiastas. No es raro hacer una pregunta sobre un tema inofensivo y que el asistente se niegue a responder.

Al mismo tiempo, el usuario no tiene ninguna transparencia sobre las políticas de moderación de contenidos que guían la creación de contenidos entre bastidores. Esto ofrece poca información sobre cómo evitar que se moderen las consultas y si las propias directrices tienen o no un sesgo ideológico.

En cualquier caso, como empresa privada, OpenAI tiene derecho a implementar un nivel de control de contenidos que crea que mantiene a salvo a sus usuarios y su reputación, pero esto también tiene que equilibrarse con ofrecer una experiencia de usuario consistente, algo que no está ocurriendo ahora mismo.

8. Inconsistencias en el reconocimiento de voz

Aunque GPT-4o y el modo de voz avanzado se lanzaron con gran éxito de crítica, la experimentación de Techopedia con esta función ha sido desigual.

Con demasiada frecuencia, ChatGPT con GPT-4o comete errores, malinterpretando las entradas de voz y emitiendo respuestas irrelevantes.

Durante nuestras pruebas, a menudo había que introducir varias veces las instrucciones verbales antes de que el modelo entendiera lo que se decía. Estas incoherencias hacen que las conversaciones de voz sean mucho menos cómodas que la introducción de texto.

En resumen

ChatGPT tiene algunos defectos graves que los usuarios deben tener en cuenta. Si buscas en Internet, encontrarás multitud de ejemplos en los que ChatGPT se equivoca y difunde información errónea.

La realidad es que si utilizas ChatGPT, tienes que ser extremadamente proactivo a la hora de comprobar los hechos y contrastar los resultados para asegurarte de que no estás influenciado por información errónea o tendenciosa.

Preguntas frecuentes

¿En qué es malo ChatGPT?

¿Por qué ChatGPT da respuestas erróneas?

¿Con qué frecuencia se equivoca ChatGPT?

Temas relacionados

Artículos relacionados

Tim Keary
Technology Writer
Tim Keary
Editor

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.