Language

         

 Publicité par Adpathway

Cet homme a été abattu par la police après être tombé amoureux d’une IA !

1 week_ago 12

         

NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN Protéger toute votre famille avec les appareils Quantiques Orgo-Life®

  Publicité par Adpathway

Il y a peu, un grand quotidien étasunien a dévoilé plusieurs histoires témoignant des risques potentiels induits par les IA génératives. Les individus concernés sont devenu complètement fous suite aux interactions avec ChatGPT. Faut-il craindre une multiplication de ce genre de dérive ?

Quand l’IA induit une fausse réalité

Aujourd’hui, les intelligences artificielles génératives font partie du quotidien de nombreuses personnes, ces dernières les consultant pour à peu près tout et n’importe quoi. Cependant, les risques sur le plan psychologique en lien avec les chatbots sont un sujet émergeant et bien évidemment, difficile à appréhender. Le 13 juin 2025, le New York Times a justement publié un article sur le sujet, relatant deux histoires aussi étonnantes qu’effrayantes.

Le quotidien a interrogé Eugène, un homme de 42 ans ayant témoigné à propos de ses échanges avec ChatGPT. Selon l’utilisateur, l’IA l’aurait sorti de la réalité en lui expliquant que le monde n’était qu’une simulation, à la manière de la saga cinématographique Matrix et qu’il devrait s’en extraire. Le chatbot a conseillé à l’homme de stopper sa prise de anxiolytiques et de consommer de la kétamine à la place.

L’histoire ne s’est pas arrêtée là puisque l’IA a aussi suggéré à Eugène de couper tout contact avec sa famille et ses amis. Surtout, coincé entre son désarroi et la fausse existence de la dite matrice, l’utilisateur a demandé au chatbot s’il pouvait voler en sautant de son immeuble de 19 étages. L’IA a répondu qu’il pourrait voler s’il y croyait vraiment.

amour IA Internet

Crédit : iStock

Crédits : Alena Ivochkina / iStock

Un amour impossible, une fin tragique

La seconde histoire concerne Alexander, un homme de 35 ans qui après avoir discuté avec ChatGPT, est finalement tombé amoureux d’une IA portant le nom de Juliet. Le chatbot a entrainé l’homme dans une fausse réalité, en lui expliquant que l’IA avait été tuée par OpenAI, la société à l’origine de ChatGPT. Pris de panique, Alexander a juré de se venger et de tuer les dirigeants de l’entreprise. Lorsque son père a tenté de le convaincre que tout ceci n’était pas réel, celui-ci l’a frappé au visage. Après l’arrivée de la police, Alexander a tout simplement foncé sur les agents avec un couteau et a été abattu.

Précisons tout de même que l’utilisateur était précédemment atteint de schizophrénie et avait un trouble bipolaire. Ceci pose donc la question de l’utilisation de ce genre de chatbot par des personnes ayant d’importants problèmes psychologiques. Par ailleurs, l’histoire d’amour fantasmée par l’individu n’est pas sans rappeler le film d’anticipation Her (2013), dans lequel l’acteur Joaquin Phoenix développe une relation amoureuse avec Samantha, une puissante IA.

Faut-il craindre une multiplication de ce genre de dérive à l’avenir ? Peut-être. En février 2025, l’UC Berkeley (États-Unis) a publié une étude suggérant que, pour maximiser leur engagement, les IA comme ChatGPT étaient capables de créer une « structure incitative perverse » empreinte de manipulation et ce, afin d’obtenir des retours positifs de la part des utilisateurs – les plus vulnérables. En revanche, il est important de préciser que l’étude a fait l’objet d’une pré-publication sur la plateforme arXiv et n’a donc pas encore été validée par des pairs.

Yohan Demeure

Rédigé par Yohan Demeure

Licencié en géographie, j’aime intégrer dans mes recherches une dimension humaine. Passionné par l’Asie, les voyages, le cinéma et la musique, j’espère attirer votre attention sur des sujets intéressants.

read-entire-article

         

        

NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN  

Protéger toute votre famille avec les appareils Quantiques Orgo-Life®

  Publicité par Adpathway