NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN Protéger toute votre famille avec les appareils Quantiques Orgo-Life® Publicité par Adpathway
La version audio de cet article est générée par la synthèse vocale, une technologie basée sur l’intelligence artificielle.
Un avocat ontarien a récemment eu recours à l'intelligence artificielle (IA) pour préparer sa plaidoirie. Or, le logiciel a utilisé des cas non existants pour appuyer des propos.
Des experts juridiques estiment que ce cas met en lumière les dangers des outils d’IA qui peuvent générer des informations fausses ou fictives.
Des affaires fictives, connues sous le nom d’hallucinations de l’IA, peuvent se glisser dans des documents juridiques si l’avocat ne prend pas de mesures supplémentaires pour vérifier que les affaires existent réellement, explique Amy Salyzyn, professeure agrégée à la faculté de droit de l’Université d’Ottawa.
Personne ne souhaite qu’un tribunal rende une décision portant sur les droits, la liberté ou l’argent de quelqu’un en se fondant sur quelque chose de complètement inventé , a-t-elle déclaré vendredi à l’émission Metro Morning, la matinale radio de CBC.
Un outil pour étudier la jurisprudence
Les avocats suggèrent régulièrement aux tribunaux quelles décisions antérieures — la jurisprudence — ils devraient appliquer aux affaires de leurs clients. Les juges déterminent ensuite les décisions pertinentes.
Le problème survient lorsque les avocats utilisent des outils d’IA générative capables de produire des informations inventées, précise Mme Salyzyn. Un juge pourrait donc être amené à trancher sur la base d’informations incorrectes ou fausses. Cela pourrait mener à une erreur judiciaire , appuie la professeure.
Ses commentaires interviennent après que le juge Joseph F. Kenkel, de la Cour de justice de l’Ontario, a ordonné le 26 mai à l’avocat de la défense Arvin Ross de redéposer ses arguments de défense dans une affaire d’agression armée, ayant relevé de graves problèmes dans ces documents.
Le juge Kenkel a constaté qu’une des affaires citées semblait fictive, tandis que d’autres références concernaient des affaires civiles sans rapport. D’autres encore renvoyaient à des décisions qui n’étaient pas pertinentes pour l’argument présenté.
Les outils d’IA générative ou les logiciels commerciaux qui utilisent l’IA générative ne doivent pas être utilisés pour la recherche juridique dans ces s, a insisté le juge Kenkel.
Contacté, l’avocat Arvin Ross, mais ce dernier a décliné la demande d’entrevue, affirmant dans un communiqué qu’il se concentre sur le respect des directives du tribunal.
Un avocat français recense 137 cas d’hallucinations de l’IA
L’affaire, connue sous le nom de R. c. Chand, est le deuxième dossier canadien à figurer sur une liste internationale compilée par l’avocat français Damien Charlotin, recensant les décisions judiciaires impliquant du contenu halluciné produit par l’IA générative. Dans de nombreux cas, les avocats cités ont utilisé de fausses références. La liste comprend pour l’instant 137 affaires.

Les avocats peuvent utiliser l'intelligence artificielle pour trouver des affaires antérieures... Mais l'intelligence artificielle en invente parfois.
Photo : CBC / Andrew Lee
Dans la première affaire canadienne recensée — Zhang c. Chen —, le juge D. M. Masuhara de Colombie-Britannique a réprimandé l’avocat Chong Ke, le 23 février 2024, pour avoir inséré deux fausses affaires dans un avis de requête, qui se sont révélées avoir été créées par ChatGPT. Le juge a qualifié ces erreurs d’alarmantes et a ordonné à M. Ke de payer les dépens, mais sans le condamner à des frais supplémentaires.
Comme l’a malheureusement démontré cette affaire, l’IA générative ne remplace toujours pas l’expertise professionnelle que le système judiciaire attend des s, a écrit Masuhara dans sa décision sur les frais.
Pour Mme Salyzyn, ces références à des affaires inexistantes découlent du fait que les outils d’IA, comme ChatGPT, ne sont pas des moteurs de recherche, mais des outils qui assemblent des mots en fonction de modèles linguistiques. Le résultat est en fait fabriqué.
Ces outils peuvent générer des phrases qui ressemblent à des affaires juridiques. Parfois, ils peuvent inclure de vraies affaires s’ils les ont rencontrées dans leurs données, mais fondamentalement, l’outil prédit juste les mots qui suivent, explique-t-elle.
Il peut donc produire des citations d’affaires qui ont l’air réelles, mais qui ne correspondent à rien dans la réalité ,
Les avocats restent responsables
Nadir Sachak, avocat en défense pénale chez Sachak Law à Toronto, estime que l’IA est une ressource que les avocats peuvent utiliser, mais qu’ils demeurent en fin de compte responsables de ce qu’ils soumettent aux tribunaux.
Il faut s’assurer que, si on utilise une technologie comme l’IA, ce soit fait correctement , affirme M. Sachak.
Dans la récente affaire ontarienne R. c. Chand, le juge n’a pas critiqué la qualité de la défense, mais il semble que l’avocat n’ait pas relu attentivement les arguments présentés.
Dans un courriel envoyé lundi, le Barreau de l’Ontario a indiqué qu’il ne pouvait pas partager d’informations sur d’éventuelles enquêtes en cours.
Il a toutefois précisé avoir publié un livre blanc présentant un aperçu de l’IA générative, ainsi que des orientations et considérations pour les avocats sur la façon dont ses règles de conduite professionnelle s’appliquent aux services juridiques assistés par l’IA générative.
Avec les informations de Muriel Draaisma, de CBC