L’intelligence artificielle (IA) est-elle en train de devenir trop… imaginative ? Alors que les modèles de langage comme ChatGPT ou Gemini semblent chaque mois plus performants, une nouvelle étude menée par OpenAI révèle une vérité dérangeante : plus un modèle est sophistiqué, plus il a tendance à « halluciner » – c’est-à-dire, à produire des informations fausses, mais présentées de façon parfaitement crédible.
Et les chiffres parlent d’eux-mêmes : selon OpenAI, ses deux modèles de raisonnement récents, o3 et o4-mini, hallucinent respectivement dans 33 % et 48 % des cas dans certains tests. C’est deux à trois fois plus que les anciens modèles. Une performance inquiétante, surtout à l’heure où l’IA est appelée à intervenir dans des domaines sensibles comme la médecine, le droit ou la recherche.
Halluciner, en IA, ça veut dire quoi exactement ?
Dans le langage de l’intelligence artificielle, une « hallucination » désigne le fait qu’un modèle génère une information incorrecte ou totalement inventée, tout en gardant un ton parfaitement fluide et convaincant. Cela peut être un faux chiffre, une citation qui n’a jamais existé, une source inventée… mais aussi une solution mathématique erronée présentée avec assurance.
Ce phénomène est bien connu des spécialistes, mais il devient plus problématique à mesure que les IA gagnent en performance. Car plus un modèle est doué pour raisonner et structurer un discours, plus ses hallucinations sont crédibles – et donc dangereuses pour les utilisateurs peu avertis.
Un bug ? Pas vraiment.
Contrairement à ce que l’on pourrait croire, ces erreurs ne sont pas des bugs. Elles sont inhérentes au fonctionnement même des grands modèles de langage (LLM). Ces IA ne « connaissent » pas les faits comme le ferait un moteur de recherche. Elles génèrent du texte en prédisant mot après mot ce qui semble le plus probable, sur la base de milliards de données ingérées pendant leur entraînement.
Et pour créer du contenu original – comme un nouveau poème, un scénario de jeu vidéo ou une solution inédite à un problème – ces IA doivent sortir des sentiers battus. Cela suppose parfois de prendre des risques… et donc de « rêver », comme le ferait un cerveau humain. Ce qui les rend aussi puissantes pour l’innovation, les rend en retour fragiles sur la précision.

Crédit : iStock
Crédits : :PhonlamaiPhoto/istockLe paradoxe des IA modernes
Selon Eleanor Watson, spécialiste en éthique de l’IA à l’IEEE, « ce n’est pas le manque de données qui provoque ces erreurs, mais au contraire l’extrême complexité des raisonnements générés par les modèles les plus avancés ». En d’autres termes : plus l’IA devient intelligente, plus elle devient imprévisible.
Un autre chercheur, Sohrob Kazerounian, va même plus loin : « Tout ce qu’un modèle produit est une hallucination. C’est juste que certaines sont vraies. » Ce paradoxe est au cœur des inquiétudes actuelles dans le domaine : pour innover, l’IA doit halluciner… mais pour être fiable, elle ne le doit pas trop.
Un problème insoluble ?
Pas forcément. Des pistes existent pour limiter ces dérives. La plus prometteuse est la génération augmentée par récupération (RAG) : au lieu de puiser uniquement dans ses modèles internes, l’IA va chercher des informations dans des bases de données fiables et actualisées, pour ancrer ses réponses dans la réalité.
D’autres approches consistent à forcer l’IA à expliciter son raisonnement, à comparer plusieurs hypothèses ou à signaler ses incertitudes – bref, à la rendre plus humble dans ses réponses. Mais ces solutions sont encore en développement, et aucune méthode ne permet pour l’instant de garantir à 100 % l’absence d’erreurs.
Apprendre à douter… comme avec les humains
En attendant, le meilleur remède reste sans doute l’esprit critique. Comme le souligne Kazerounian, « il faut traiter les réponses de l’IA avec le même scepticisme que celles d’un interlocuteur humain ». L’IA n’est pas une encyclopédie infaillible, mais un générateur de discours intelligent – capable du meilleur comme du pire.
Cela implique de toujours vérifier les faits, surtout si une information semble trop belle pour être vraie. Et de se rappeler que la responsabilité reste humaine : c’est à nous, et non aux machines, de juger ce qui est vrai, fiable, ou simplement probable.