NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN Protéger toute votre famille avec les appareils Quantiques Orgo-Life® Publicité par Adpathway
ChatGPT remplacera-t-il à terme les thérapies de couple ? Certaines personnes commencent à faire confiance à l’intelligence artificielle d’OpenAI quand une dispute se produit dans leur couple. Après une dispute avec son mari, la chanteuse Lilly Allen prend son smartphone et sollicite les conseils de l’agent conversationnel, comme le rapporte L'ADN. Dans le podcast Miss Me ? elle prend un exemple de prompt qu’elle a envoyé à ChatGPT : « Écris-moi un long SMS sur une dispute qui a commencé à propos du lave-vaisselle et s’est terminée par une discussion sur nos finances ». En quelques secondes, l’IA produit une réponse.
Et la musicienne britannique n’est pas la seule. Une étude américaine a recueilli les témoignages de plus de 800 personnes sur leurs utilisations de l’intelligence artificielle dans des situations similaires. Leurs réponses suggèrent que la majorité a tendance à faire plus confiance à la machine qu’à un psychologue. « Les réponses de ChatGPT dans les scénarios de psychothérapie sont souvent mieux notées que celles écrites par des thérapeutes humains », écrivent les chercheurs.
En mars dernier, le New York Post a interrogé un couple adepte de cette nouvelle forme de thérapie. « ChatGPT a sauvé notre relation », affirmait Abella. Ajoutant : « ChatGPT est étrangement utile pour désamorcer les bagarres. Aucun de nous deux ne veut se disputer avec un robot. » Le couple débourse 20 dollars par mois pour jouir de toutes les fonctionnalités de l’agent conversationnel. Un abonnement moins chère qu’une séance chez un psychologue.
Des réponses « biaisées »
« Il n'y a pas assez de recherches [prouvant que les conseils de ChatGPT] sont fiables », tempère Ashley Williams, directrice d’un cabinet de thérapie de couples à New York. « Quelle quantité d'informations personnelles divulguez-vous à l'IA et où ces informations sont-elles stockées ? », s’interroge la thérapeute.
Mais à l’inverse d’un professionnel, l’application est disponible 24h/24, 7j/7. Pour autant, elle ne peut pas remplacer l’analyse humaine. D’autant que la réponse du robot dépend des informations que lui fournissent la personne. « Les gens structurent les questions à partir de leur propre point de vue, ce qui fait que les réponses peuvent également être biaisées », explique Melanie McNally, psychologue dans l’Illinois au HuffPost.
« ChatGPT ne va pas vous interroger sur votre propre rôle dans le conflit ou vous aider à comprendre le point de vue de quelqu'un d'autre, à moins que vous ne le demandiez directement », poursuit la thérapeute. Elle souligne aussi la faiblesse d’analyse de l’IA qui ne peut pas lire le langage corporel et qui n’a accès qu’à des fragments d’informations sur une situation.