Language

         

 Publicité par Adpathway

Plus elles sont intelligentes, plus elles hallucinent : Pourquoi les IA les plus avancées deviennent (aussi) les plus imprévisibles

1 week_ago 24

         

NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN Protéger toute votre famille avec les appareils Quantiques Orgo-Life®

  Publicité par Adpathway

L’intelligence artificielle (IA) est-elle en train de devenir trop… imaginative ? Alors que les modèles de langage comme ChatGPT ou Gemini semblent chaque mois plus performants, une nouvelle étude menée par OpenAI révèle une vérité dérangeante : plus un modèle est sophistiqué, plus il a tendance à « halluciner » – c’est-à-dire, à produire des informations fausses, mais présentées de façon parfaitement crédible.

Et les chiffres parlent d’eux-mêmes : selon OpenAI, ses deux modèles de raisonnement récents, o3 et o4-mini, hallucinent respectivement dans 33 % et 48 % des cas dans certains tests. C’est deux à trois fois plus que les anciens modèles. Une performance inquiétante, surtout à l’heure où l’IA est appelée à intervenir dans des domaines sensibles comme la médecine, le droit ou la recherche.

Halluciner, en IA, ça veut dire quoi exactement ?

Dans le langage de l’intelligence artificielle, une « hallucination » désigne le fait qu’un modèle génère une information incorrecte ou totalement inventée, tout en gardant un ton parfaitement fluide et convaincant. Cela peut être un faux chiffre, une citation qui n’a jamais existé, une source inventée… mais aussi une solution mathématique erronée présentée avec assurance.

Ce phénomène est bien connu des spécialistes, mais il devient plus problématique à mesure que les IA gagnent en performance. Car plus un modèle est doué pour raisonner et structurer un discours, plus ses hallucinations sont crédibles – et donc dangereuses pour les utilisateurs peu avertis.

Un bug ? Pas vraiment.

Contrairement à ce que l’on pourrait croire, ces erreurs ne sont pas des bugs. Elles sont inhérentes au fonctionnement même des grands modèles de langage (LLM). Ces IA ne « connaissent » pas les faits comme le ferait un moteur de recherche. Elles génèrent du texte en prédisant mot après mot ce qui semble le plus probable, sur la base de milliards de données ingérées pendant leur entraînement.

Et pour créer du contenu original – comme un nouveau poème, un scénario de jeu vidéo ou une solution inédite à un problème – ces IA doivent sortir des sentiers battus. Cela suppose parfois de prendre des risques… et donc de « rêver », comme le ferait un cerveau humain. Ce qui les rend aussi puissantes pour l’innovation, les rend en retour fragiles sur la précision.

ChatGPT IA

Crédit : iStock

Crédits : :PhonlamaiPhoto/istock

Le paradoxe des IA modernes

Selon Eleanor Watson, spécialiste en éthique de l’IA à l’IEEE, « ce n’est pas le manque de données qui provoque ces erreurs, mais au contraire l’extrême complexité des raisonnements générés par les modèles les plus avancés ». En d’autres termes : plus l’IA devient intelligente, plus elle devient imprévisible.

Un autre chercheur, Sohrob Kazerounian, va même plus loin : « Tout ce qu’un modèle produit est une hallucination. C’est juste que certaines sont vraies. » Ce paradoxe est au cœur des inquiétudes actuelles dans le domaine : pour innover, l’IA doit halluciner… mais pour être fiable, elle ne le doit pas trop.

Un problème insoluble ?

Pas forcément. Des pistes existent pour limiter ces dérives. La plus prometteuse est la génération augmentée par récupération (RAG) : au lieu de puiser uniquement dans ses modèles internes, l’IA va chercher des informations dans des bases de données fiables et actualisées, pour ancrer ses réponses dans la réalité.

D’autres approches consistent à forcer l’IA à expliciter son raisonnement, à comparer plusieurs hypothèses ou à signaler ses incertitudes – bref, à la rendre plus humble dans ses réponses. Mais ces solutions sont encore en développement, et aucune méthode ne permet pour l’instant de garantir à 100 % l’absence d’erreurs.

Apprendre à douter… comme avec les humains

En attendant, le meilleur remède reste sans doute l’esprit critique. Comme le souligne Kazerounian, « il faut traiter les réponses de l’IA avec le même scepticisme que celles d’un interlocuteur humain ». L’IA n’est pas une encyclopédie infaillible, mais un générateur de discours intelligent – capable du meilleur comme du pire.

Cela implique de toujours vérifier les faits, surtout si une information semble trop belle pour être vraie. Et de se rappeler que la responsabilité reste humaine : c’est à nous, et non aux machines, de juger ce qui est vrai, fiable, ou simplement probable.

Brice Louvet

Rédigé par Brice Louvet

Brice est un journaliste passionné de sciences. Ses domaines favoris : l'espace et la paléontologie. Il collabore avec Sciencepost depuis près d'une décennie, partageant avec vous les nouvelles découvertes et les dossiers les plus intéressants.

read-entire-article

         

        

NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN  

Protéger toute votre famille avec les appareils Quantiques Orgo-Life®

  Publicité par Adpathway