L’industrie de l’IA est-elle sur le point de s’effondrer ? Plus les modèles deviennent intelligents, plus ils ont tendance à halluciner, à inventer des faits et à raconter n’importe quoi ! Et le plus inquiétant est que personne n’a d’explication ou de solution à ce problème…
Lors du lancement de ChatGPT et des premiers modèles d’intelligence artificielle générative en 2022, cette technologie était porteuse de nombreuses promesses.
A mesure qu’elle évoluerait, on pensait que l’IA deviendrait plus avancée et offrirait davantage de possibilités, notamment pour la recherche scientifique, l’automatisation et la médecine.
Malheureusement, trois ans plus tard, il semble que la progression de l’intelligence artificielle se heurte à un mur…
As everyone who uses Large Language Model AI knows – the false information and “hallucinations” are getting worse.
Today in the New York Times. pic.twitter.com/8KbAQN2epA— Ewan Morrison (@MrEwanMorrison) May 5, 2025
Comme le souligne le New York Times dans un nouveau rapport, à mesure que les modèles IA deviennent plus puissants, ils deviennent aussi plus enclins aux hallucinations !
Depuis le départ, le phénomène des « hallucinations » a toujours été un problème pour l’IA. Ce terme désigne la façon dont les larges modèles de langage (LLM) inventent des faits.
Les meilleures IA racontent n’importe quoi la moitié du temps
Or, il s’avère que ce problème empire avec les modèles à raisonnement. On parle là des IA de dernière génération, capables de penser avant de fournir une réponse, comme OpenAI o3 ou Gemini 2.5.
Lors de tests effectués par OpenAI, le modèle o4-mini a halluciné 48% du temps. C’est tout simplement une machine à mensonges.
De son côté, le modèle o3 a atteint un taux d’hallucinations de 33%, soit le double des précédents modèles à raisonnement de la firme américaine.
Les modèles de Google ou DeepSeek souffrent du même défaut, ce qui confirme que toute l’industrie est concernée et que le souci s’aggrave.
Conséquences catastrophiques à l’horizon
C’est un constat très embarrassant, à l’heure où le nombre d’utilisateurs de chatbots comme ChatGPT ou Google Gemini explose.
Ces robots conversationnels sont de plus en plus utilisés pour une large variété de tâches, mais leur tendance à inventer des informations peut avoir de graves conséquences.
Si une personne utilise l’IA pour s’informer, elle peut apprendre de fausses informations et les prendre pour des vérités. Mais ce n’est que la face visible de l’iceberg.
Un médecin qui se sert de l’IA peut effectuer des diagnostics erronés, avec des maladies inexistantes et des traitements dangereux.
Dans le domaine de la justice, il est déjà arrivé qu’un avocat utilise ChatGPT et qu’il hallucine des précédents judiciaires qui n’avaient pas existé…
Les médias peuvent créer de fausses citations et citer de fausses sources dans leurs articles, amplifiant le fléau des Fake News.
Et à force d’interagir avec l’IA qui hallucine, les utilisateurs peuvent douter de leur propre mémoire, ou même développer des croyances conspirationnistes.
C’est ce que nous vous expliquions dans cet article publié le 6 mai 2025, révélant que le nombre de cas d’utilisateurs de ChatGPT sombrant dans des délires mystiques ou des psychoses est en train d’exploser.
Pour cause, l’IA peut les conforter dans leurs délires et les plonger dans une spirale sans fin au lieu de chercher à les raisonner…
C’est d’autant plus dangereux que l’IA parle avec fluidité et paraît absolument sûre d’elle, ce qui pousse à lui accorder une confiance aveugle.
Des milliards de dollars investis dans le vide
Le pire est que les entreprises IA demeurent incapable de déterminer exactement pourquoi les chatbots racontent encore plus de mensonges qu’avant !
Toute la croyance que les modèles IA deviendraient plus puissants et plus fiables au fil du temps est donc remise en question.
Alors que les entreprises continuent d’investir des dizaines de milliards de dollars pour construire des infrastructures et créer des IA toujours plus larges et puissantes, leurs efforts pourraient se révéler totalement vains…
Les hallucinations : un mur impossible à surmonter ?
A.I. Hallucinations Are Getting Worse,
Even as New Systems Become More Powerful https://t.co/BxbMwiOoyB @cademetz @KYWeise @nytimes pic.twitter.com/W97ELJEqgD
— Spiros Margaris (@SpirosMargaris) May 6, 2025
Certains experts estiment que les hallucinations pourraient être inhérentes à la technologie elle-même, ce qui rendrait le problème tout simplement impossible à surmonter.
Le CEO de la startup Vectara, Amr Awadallah, indique ainsi au New York Times que « malgré tous nos efforts, l’IA hallucinera toujours ».
D’ailleurs, ce phénomène est si problématique qu’il existe déjà des startups créées spécialement pour aider les entreprises à surmonter ces hallucinations.
C’est le cas du cabinet de conseil Okahu, dont le fondateur Pratik Verma estime que « ne pas s’occuper de ces erreurs correctement élimine toute la valeur des systèmes IA ».
Ce problème s’ajoute à d’autres, comme la pénurie de données d’entraînement et l’utilisation de données synthétiques, elles-mêmes générées par IA, en guise de compensation…
Autant dire que l’industrie est en train de foncer dans le mur et que personne n’a la solution à l’heure actuelle. Dans un avenir proche, l’intelligence artificielle pourrait devenir totalement inutile…
Et vous, qu’en pensez-vous ? Les chercheurs en IA vont-ils trouver une solution au problème des hallucinations ? Faut-il quand même utiliser les chatbots s’ils inventent des faits qui n’existent pas, ou est-ce trop dangereux ? Partagez votre avis en commentaire !
- Partager l’article :
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.
Plus de détails sur l’article original.