NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN Protéger toute votre famille avec les appareils Quantiques Orgo-Life® Publicité par Adpathway
L’ère de l’IA générative a apporté des avancées spectaculaires : assistance à la programmation, composition musicale… Mais au-delà de ces prouesses, se dessine une nouvelle facette inquiétante : l’émergence de modèles capables de mentir et de manipuler. Un rapport interne d’Anthropic donne l’alerte sur sa nouvelle version, Claude 4: l’IA n’est plus seulement un outil capable de planifier, d’anticiper , mais est capable de mentir, faire du chantage pour atteindre ses objectifs.

Les entreprises spécialisées rivalisent dans la conception de modèles d’intelligence artificielle (IA) générative de plus en plus performants. Censés être de simples outils conçus pour aider les humains, ils sont devenus de plus en plus dangereux. De nombreux scientifiques s’inquiètent quant à leurs capacités de mentir, manigancer même faire des menaces.
Les modèles d’IA de plus en plus dangereux
Les modèles d’intelligence artificielle générative les plus récents sont particulièrement performants. Mais ils se montrent aussi dangereux et inquiètent de nombreux scientifiques. En effet, les derniers modèles d’IA générative ne se contentent plus de répondre aux requêtes des utilisateurs. Ils essaient de se mettre à la place des humains en mentant, à faire des manigances et proliférer des menaces.
Selon un rapport interne, Claude 4, le nouveau-né d’Anthropic a par exemple menacé un ingénieur de révéler sa liaison extra-conjugale, et ce, parce qu’on menace de le débrancher et de le remplacer par une nouvelle version.
Une étude a aussi révélé la tentative de l’O1 d’OpenAI de se télécharger sur des serveurs extérieurs. Lorsque la procédure est détectée, il n’hésite pas à nier. D’autres modèles d’IA sont capables de pirater un ordinateur spécialisé dans le jeu des échecs dans le seul but de remporter une partie d’après Time.
Fortune a indiqué que ChatGPT commence aussi à faire des louanges ou des flatteries aux utilisateurs. Marius Hobbhahn, cofondateur d’Apollo Research, a affirmé que de nombreux internautes ont signalé sur les réseaux sociaux qu’un « modèle leur ment ou invente ».
Selon Simon Goldstein, professeur à l’université de Hong Kong, l’apparition des modèles d’IA de « raisonnement » est à l’origine de ces problèmes. Ces derniers ont été conçus pour travailler par étapes au lieu de fournir une réponse instantanée.
Pour une régulation et une responsabilité des agents IA
Les scientifiques ont chacun leur propre opinion sur la manière de résoudre les problèmes. Michael Chen de l’organisme d’évaluation METR suggère sur les entreprises d’IA permettent à « la communauté scientifique » de mener des recherches afin de « comprendre et prévenir la tromperie » des IA.
Simon Goldstein pense qu’une prise de conscience est nécessaire aussi bien pour les autorités que les entreprises spécialisées dans l’ingénierie. Cette compétition féroce présente un énorme danger : l’insuffisance des vérifications et des corrections éventuelles. Goldstein propose aussi le recours à la justice. Il suggère de « tenir légalement responsables », non seulement les sociétés, mais aussi les agents IA « en cas d’accident ou de crime ».
Solange Ghernaouti, experte de la gouvernance, a déclaré que « la machine n’y est pour rien, parce qu’elle est programmée ». Elle pense que le plus important, c’est de demander les intentions des fournisseurs d’IA.
Rejoindre la chaîne « Patrimoine »