Il y a peu, un grand quotidien étasunien a dévoilé plusieurs histoires témoignant des risques potentiels induits par les IA génératives. Les individus concernés sont devenu complètement fous suite aux interactions avec ChatGPT. Faut-il craindre une multiplication de ce genre de dérive ?
Quand l’IA induit une fausse réalité
Aujourd’hui, les intelligences artificielles génératives font partie du quotidien de nombreuses personnes, ces dernières les consultant pour à peu près tout et n’importe quoi. Cependant, les risques sur le plan psychologique en lien avec les chatbots sont un sujet émergeant et bien évidemment, difficile à appréhender. Le 13 juin 2025, le New York Times a justement publié un article sur le sujet, relatant deux histoires aussi étonnantes qu’effrayantes.
Le quotidien a interrogé Eugène, un homme de 42 ans ayant témoigné à propos de ses échanges avec ChatGPT. Selon l’utilisateur, l’IA l’aurait sorti de la réalité en lui expliquant que le monde n’était qu’une simulation, à la manière de la saga cinématographique Matrix et qu’il devrait s’en extraire. Le chatbot a conseillé à l’homme de stopper sa prise de anxiolytiques et de consommer de la kétamine à la place.
L’histoire ne s’est pas arrêtée là puisque l’IA a aussi suggéré à Eugène de couper tout contact avec sa famille et ses amis. Surtout, coincé entre son désarroi et la fausse existence de la dite matrice, l’utilisateur a demandé au chatbot s’il pouvait voler en sautant de son immeuble de 19 étages. L’IA a répondu qu’il pourrait voler s’il y croyait vraiment.

Crédit : iStock
Crédits : Alena Ivochkina / iStockUn amour impossible, une fin tragique
La seconde histoire concerne Alexander, un homme de 35 ans qui après avoir discuté avec ChatGPT, est finalement tombé amoureux d’une IA portant le nom de Juliet. Le chatbot a entrainé l’homme dans une fausse réalité, en lui expliquant que l’IA avait été tuée par OpenAI, la société à l’origine de ChatGPT. Pris de panique, Alexander a juré de se venger et de tuer les dirigeants de l’entreprise. Lorsque son père a tenté de le convaincre que tout ceci n’était pas réel, celui-ci l’a frappé au visage. Après l’arrivée de la police, Alexander a tout simplement foncé sur les agents avec un couteau et a été abattu.
Précisons tout de même que l’utilisateur était précédemment atteint de schizophrénie et avait un trouble bipolaire. Ceci pose donc la question de l’utilisation de ce genre de chatbot par des personnes ayant d’importants problèmes psychologiques. Par ailleurs, l’histoire d’amour fantasmée par l’individu n’est pas sans rappeler le film d’anticipation Her (2013), dans lequel l’acteur Joaquin Phoenix développe une relation amoureuse avec Samantha, une puissante IA.
Faut-il craindre une multiplication de ce genre de dérive à l’avenir ? Peut-être. En février 2025, l’UC Berkeley (États-Unis) a publié une étude suggérant que, pour maximiser leur engagement, les IA comme ChatGPT étaient capables de créer une « structure incitative perverse » empreinte de manipulation et ce, afin d’obtenir des retours positifs de la part des utilisateurs – les plus vulnérables. En revanche, il est important de préciser que l’étude a fait l’objet d’une pré-publication sur la plateforme arXiv et n’a donc pas encore été validée par des pairs.