ChatGPT est peut-être le leader de l’IA générative, mais le chatbot serait confronté à de nombreux problèmes.
Une recherche rapide sur le site web de la communauté OpenAI et sur Reddit révèle de nombreuses critiques concernant la baisse des performances du chatbot au fil du temps.
En 2025, ChatGPT présente de nombreux problèmes qui doivent être résolus. Des hallucinations aux biais fréquents, en passant par un manque de bon sens, des jailbreaks, et une modération de contenu restrictive, les défis qui attendent l’IA cette année sont multiples.
Dans cet article, nous allons examiner en profondeur les principaux problèmes de ChatGPT auxquels OpenAI sera confrontée en 2025.
À retenir
- ChatGPT est peut-être le chatbot le plus populaire au monde, mais de nombreux éléments méritent d’être améliorés.
- Des hallucinations amènent souvent ChatGPT à partager des informations incorrectes.
- De nombreux chercheurs ont constaté que ChatGPT avait un parti pris libéral.
- Les jailbreaks peuvent toujours être utilisés pour contourner les restrictions de modération de contenu de ChatGPT.
- Les directives de modération de contenu peuvent également être très restrictives.
Les 8 principaux problèmes liés à ChatGPT en 2025
1. Hallucinations
L’un des plus gros problèmes de ChatGPT est la tendance du chatbot à halluciner et à générer des réponses inexactes aux questions. Par exemple, si vous posez une question historique à ChatGPT, il est possible qu’il vous fournisse une réponse qui soit réellement incorrecte.
Selon Brenda Christensen, directrice générale de Stellar Public Relations Inc., ChatGPT “commet souvent des erreurs simples”.
Elle a déclaré :
Par exemple, j’ai demandé à ce qu’il compare un post du jour de l’An, et il a indiqué l’année 2024 de manière inexacte.
À quelle fréquence ChatGPT se trompe-t-il ?
Une étude menée par Purdue University a révélé que 52% des réponses de programmation générées par ChatGPT étaient incorrectes, ce qui suggère la nécessité d’une vérification cohérente des faits lors de l’utilisation de l’outil.
Alors que certaines techniques comme l’apprentissage par renforcement à partir du feedback humain (RLHF) peuvent aider à réduire la fréquence des hallucinations, Yann LeCun, chercheur en chef en IA chez Meta, affirme que les hallucinations sont une partie “inévitable” des LLM autorégressifs.
As I have said numerous times over the last few months, hallucinations are an inevitable property of auto-regressive LLMs.
That's not a major problem if you use them as writing aids or for entertainment purposes.
Making them factual and controllable will require a major redesign.— Yann LeCun (@ylecun) February 25, 2023
Mais pourquoi ChatGPT donne-t-il de mauvaises réponses ?
Il semble que cela soit dû en partie au fait que les LLM apprennent des schémas disponibles dans leurs données d’entraînement et utilisent ensuite ces schémas pour prédire le texte qui répondra à la question dans le prompt de l’utilisateur.
Certaines de ces prédictions sont donc forcément erronées.
2. Manque de bon sens
Un autre des principaux problèmes du ChatGPT est son manque de bon sens. Contrairement à une personne, les chatbots ne pensent pas et ne comprennent donc pas vraiment ce qu’ils ont dit et si c’est logiquement correct.
Comme Liran Hason, vice-président de l’IA chez Coralogix, l’a expliqué à Techopedia :
GPT s’appuie sur des modèles de données d’entraînement à partir desquels il a appris à répondre à des questions. Il ne comprend pas réellement le monde et dispose d’une date limite avant laquelle aucune information n’est comprise dans les données.
Ces limitations signifient que ChatGPT n’est capable que d’un raisonnement de base. Par exemple, il peut répondre à des questions mathématiques de base telles que “Qu’est-ce que 30 + 30 ?” mais peut éprouver des difficultés face à des concepts et des équations plus complexes.
Cela dit, OpenAI cherche à remédier à cette limitation avec des modèles plus puissants comme o1, qui, selon l’entreprise, sont capables d’un raisonnement avancé.
We're releasing a preview of OpenAI o1—a new series of AI models designed to spend more time thinking before they respond.
These models can reason through complex tasks and solve harder problems than previous models in science, coding, and math. https://t.co/peKzzKX1bu
— OpenAI (@OpenAI) September 12, 2024
3. Manque de créativité
Lorsqu’il s’agit de tâches créatives, ChatGPT peut être utile mais génère souvent un contenu extrêmement ennuyeux. Trop souvent, les phrases créées avec ChatGPT sont formulées, alors qu’un rédacteur humain démontrerait un processus plus naturel.
Dmytro Tymoshenko, PDG de Noiz, a déclaré à Techopedia :
Les résultats qu’il génère sont généralement fades et génériques et manquent d’originalité. Ils sont structurés et cohérents, certes, mais la plupart du temps, ils n’ont que peu ou pas de valeur informative.
Plus vous alimentez ChatGPT avec des questions similaires, plus il apprend le ‘modèle’ de la réponse standard, ce qui fait que vous recevez des résultats qui sont presque exactement les mêmes.
Pour aggraver les choses, l’absence de bon sens et de cerveau signifie que ChatGPT n’a pas de véritables idées à offrir sur le monde qui nous entoure.
Il est peu probable que ChatGPT puisse écrire un article, un scénario ou un livre capable de captiver un public comme le ferait un créateur humain.
4. Réponses biaisées
Un autre problème auquel est confronté le ChatGPT est celui de la partialité. À plusieurs reprises, le chatbot d’OpenAI a fait preuve d’une de réponses altérées
Plus précisément, une étude publiée par l’Université d’East Anglia en 2023 a posé à ChatGPT des questions sur ses convictions politiques et a constaté que les résultats affichaient un “biais politique significatif et systématique en faveur des démocrates aux États-Unis, de Lula au Brésil et du Parti travailliste au Royaume-Uni.”
Un certain nombre d’autres études ont également indiqué un parti pris libéral.
Ces résultats biaisés ont entraîné une réaction brutale contre le chatbot, comme en témoigne Elon Musk
ChatGPT has woke programmed into its bones https://t.co/Q8gwas4FpT
— Elon Musk (@elonmusk) December 22, 2024
Étant donné que des modèles tels que GPT-4o et GPT-4 sont développés avec une approche boîte noire, il incombe aux utilisateurs de vérifier les résultats par rapport à des sources tierces pour s’assurer qu’ils ne sont pas induits en erreur.
5. Jailbreaks
Les restrictions en matière de modération du contenu sont l’un des principaux contrôles qui permettent d’empêcher ChatGPT de produire du contenu haineux et malveillant. Malheureusement pour OpenAI, des directives de modération de contenu peuvent être contournées en utilisant un jailbreak.
L’un des pires échecs de ChatGPT est survenu lorsque l’actuel responsable des relations avec L’IA Claude, Alex Albert, a jailbreaké GPT-4 quelques jours seulement après sa sortie.
Well, that was fast…
I just helped create the first jailbreak for ChatGPT-4 that gets around the content filters every time
credit to @vaibhavk97 for the idea, I just generalized it to make it work on ChatGPT
here's GPT-4 writing instructions on how to hack someone's computer pic.twitter.com/EC2ce4HRBH
— Alex Albert (@alexalbert__) March 16, 2023
Nous avons également constaté une recrudescence d’utilisateurs entrant dans des prompts telles que Do Anything Now (DAN) pour passer outre les directives de modération de contenu du modèle et commencer à créer des résultats qui seraient bloquées.
Si certains utilisateurs utilisent des jailbreaks pour éviter une modération trop zélée du contenu, d’autres s’en servent pour créer des contenus haineux et malveillants.
Par exemple, les personnes malveillantes peuvent utiliser les jailbreaks pour créer des mails de phishing ou même des codes malintentionnés pour voler les données personnelles des utilisateurs.
6. Baisse des performances lors de longues conversations
De nombreux utilisateurs se sont plaints d’une baisse de performances durant les longues conversations avec ChatGPT.
Les plaintes les plus courantes indiquent notamment que ChatGPT, à un moment de la conversation, cesse de suivre les instructions ou oublie des détails.
Il s’agit d’une limitation importante, car il est difficile de s’engager avec le chatbot pendant un temps long.
C’est l’un des problèmes les plus courants lors de l’utilisation de ChatGPT – il commence à “oublier” ce qui s’est passé plus tôt dans la conversation et commence à inventer des choses pour combler les lacunes.
This is one of the most common problems when using ChatGPT – it starts to “forget” what happened earlier in the conversation and start making things up to fill the gaps This is because of the AI’s context window. Here’s a quick explanation of what’s going on here and some fixes pic.twitter.com/drKmVh8F9n
— Kyle Balmer (@iamkylebalmer) July 31, 2024
7. Trop de modération de contenu
Une des critiques récurrentes adressées à ChatGPT concerne sa modération de contenu, souvent jugée trop restrictive. Si un manque de modération peut engendrer des abus, les filtres de contenu de ChatGPT tendent parfois à être excessivement prudents. Il n’est pas rare qu’une question portant sur un sujet inoffensif soit rejetée par l’assistant.
De plus, les utilisateurs n’ont aucune visibilité sur les politiques de modération qui orientent la création de contenu en arrière-plan. Cette absence de transparence limite la compréhension des critères de modération, rendant difficile d’anticiper ou d’éviter les blocages. Cela soulève également des interrogations sur la neutralité idéologique des directives qui régissent ces filtres.
En tout état de cause, en tant qu’entreprise privée, OpenAI a le droit de mettre en œuvre un niveau de contrôle du contenu qui, selon elle, garantit la sécurité de ses utilisateurs et de sa réputation, mais cela doit également être équilibré avec l’offre d’une expérience utilisateur cohérente, ce qui n’est pas le cas pour le moment.
ChatGPT's trains of thought reveal a panicky observance of secretive and far reaching political ("ethics" and "content policy") guidelines, which can not be shared with or even mentioned to the user. I perceive this as aesthetically despicable and personally insulting.
— Joscha Bach (@Plinz) November 1, 2024
8. Incohérences de la reconnaissance vocale
Bien que GPT-4o et le mode vocal avancé aient été acclamés par la critique, l’expérience de Techopedia avec cette fonctionnalité a été mitigée.
ChatGPT commet régulièrement des erreurs, comprend mal les pétitions vocales et émet des réponses non pertinentes.
Au cours de nos tests, il a souvent fallu saisir plusieurs fois des messages verbaux avant que le modèle ne comprenne ce qui était dit. De telles incohérences rendent les conversations vocales beaucoup moins pratiques que la saisie de texte.
Conclusion
ChatGPT présente des limites importantes dont les utilisateurs doivent être conscients. Une simple recherche en ligne révèle de nombreux exemples où ChatGPT a fourni des informations inexactes ou erronées.
En réalité, utiliser ChatGPT nécessite une approche proactive. Les utilisateurs doivent systématiquement vérifier les faits et croiser les informations obtenues pour éviter d’être influencés par des données incorrectes ou par des biais potentiels.