NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN Protéger toute votre famille avec les appareils Quantiques Orgo-Life® Publicité par Adpathway
Le 1er mai dernier, au tribunal de Maricopa, en Arizona, fut projetée une vidéo dans laquelle on pouvait voir Christopher Pelkey, un ancien militaire barbu vêtu d’une casquette et d’un coton ouaté kaki. « Dans une autre vie, nous aurions probablement pu être amis », disait-il en s’adressant à Gabriel Horcasitas, accusé de l’avoir tué lors d’une altercation à un feu rouge. Car Pelkey est mort il y a de cela trois ans. C’était la première fois qu’un mort témoignait au procès de son propre assassin. Non, Pelkey n’était pas un revenant, mais un produit de l’intelligence artificielle (IA). Les magistrats ont justifié la présentation de cette vidéo réalisée par sa sœur en se contentant d’expliquer qu’elle n’avait pas le statut de preuve et qu’il n’y avait pas de jurés.
François Rastier n’est pas étonné de cette anecdote puisqu’il a lui-même à plusieurs reprises été déclaré mort par ChatGPT. Selon les versions, il serait mort le 2 mars 2021, le 3 juillet 2020 ou quelque part en août 2019. Heureusement, ce spécialiste de la sémantique et directeur de recherche honoraire au CNRS aura été ressuscité à temps pour que nous puissions l’interviewer. Après avoir travaillé pendant une décennie dans un laboratoire d’intelligence artificielle, l’auteur de L’I.A. m’a tué. Comprendre le monde post-humain en est venu à la conclusion que nous sommes en train de vivre une révolution anthropologique.
« On n’a jamais vécu un tel changement. La parole non humaine est quelque chose de tout à fait nouveau. Nous sommes déjà entrés dans le monde de la post-vérité où les données prennent la place des faits. Ces machines qui se mettent à parler créent de l’addiction et on leur délègue une partie de notre vie. Vous avez des gens qui ne prennent pas une décision sans consulter leur IA, y compris pour des décisions d’ordre sentimental ou matrimonial. Il y a plus de 30 % des investisseurs qui consultent leur IA avant d’investir. »
Précisons que le chercheur ne parle pas des IA spécialisées qu’on utilise en médecine, en droit ou pour la gestion du trafic automobile, autrefois appelées « systèmes experts », dont les corpus sont restreints et bien contrôlés. Mais il n’en va pas de même de l’IA dite générative et grand public qui s’abreuve à des milliards de textes.
Le théorème de Ramsey
« La vérité, explique Rastier, est un concept qui n’a pas de sens pour une machine. » Par corrélations, la machine cherche simplement à générer un texte qui en a les apparences et qui correspond à ce qu’un calcul de probabilité lui indique. « La question de la vérification et de l’authenticité ne se pose tout simplement pas pour l’IA générative. Ni celle de l’évaluation. Or, pour faire de l’IA généraliste, il faut des milliards de données que personne n’est en mesure de trier et de vérifier. Bien sûr, il y a des petites mains qui sélectionnent un peu pour éviter les mots disgracieux. Mais la vérité prend du temps et exige de trier des choses. »
En réalité, ces IA, dit le chercheur, « ratissent tout ce qu’elles trouvent, sans payer de droits la plupart du temps. Mais comme leur corpus est secret, on ne sait jamais ce qu’il y a dedans. Et elles le ressortent de façon à plaire au client, à éviter les vagues, dans un discours feel good. Comme sources, elles s’abreuvent notamment aux réseaux sociaux. L’IA d’Elon Musk commence par X. » Exactement comme une bête qui se nourrit d’elle-même !
C’est ici qu’intervient le théorème de Ramsey. Car il est prouvé que plus on pige dans une grande masse de documents, plus le nombre de corrélations s’accroît et plus celles-ci peuvent être complètement déphasées. « Plus les données sont étendues, dit Rastier, moins il y a d’informations pertinentes et plus les corrélations oiseuses s’accroissent, au point de devenir majoritaires. Cela est mathématiquement prouvé par le théorème de Ramsey. On pourra ainsi établir que les mariages dans l’État du Kentucky diminuent en proportion du nombre de noyés dans les excursions de pêche à la ligne. Le problème, c’est que pour faire une IA grand public, on n’a pas le choix d’exploiter une énorme masse de données. Donc, il y a une contradiction de fond. »
Une langue n’est pas un code
Le chercheur constate que le « prêchi-prêcha wokiste », largement présent sur les réseaux sociaux, est entré dans le corpus des IA. Si on leur demande par exemple de faire des plaisanteries sur les hommes, elles obéissent généralement sans rechigner. Mais lorsqu’il s’agit des femmes ou d’une minorité, elles refusent sous prétexte de lutte contre les stéréotypes.
« On ne peut pas savoir comment cela a été orienté ni par qui. Mais le système des algorithmes ne fait que reproduire le discours majoritaire et le radicaliser. Nous sommes donc devant une forme de conformisme radicalisé. » D’ailleurs, l’IA n’aime pas la contradiction. L’un des amis du sémanticien s’est amusé à faire discuter quatre IA ensemble. « Au bout de quinze minutes, dit-il, elles se couvraient de compliments. Puisque le client est roi, il a toujours raison. C’est la bienveillance des machines qui s’adressent à vous en disant “je” ou “tu”. Comme l’IA chinoise qui drague les célibataires. Car en Chine, il y en a beaucoup. »
Signe de l’omniprésence de ces IA génératives, il est aujourd’hui courant en ressources humaines que des curriculum vitæ générés eux-mêmes par IA soient ensuite examinés par l’IA. Google fait maintenant précéder ses renvois d’une définition qu’il génère lui-même. On trouve aussi des fonctions qui résument en deux lignes chacun des 500 courriels que vous avez reçus la veille. « Le problème, dit Rastier, c’est que personne n’ira vérifier la justesse du résumé. Il n’y a plus de retour à la source documentaire. Pour les IA générales, c’est même complètement impossible puisqu’on ne connaît pas leurs sources. »
On l’aura remarqué, la langue de l’IA, c’est l’anglais, car les corpus sont massivement en anglais et que cette langue domine le Web, dit Rastier. « Ces machines pensent en anglais. Pourquoi se fatiguer ? La réponse est en anglais et traduite automatiquement. C’est un problème que vous connaissez bien au Canada : il y a des gens qui pensent en anglais et qui parlent en français. »
Mais le chercheur s’inquiète surtout du type de langue que produisent ces machines. Car, il ne faut surtout pas confondre langue et code, dit-il. « Pour l’IA, il n’y a pas de langue, il n’y a que des codes. Elle doit donc transformer les langues en code. C’est le rôle des mots-clés. Le mot-clé est un élément d’un code et non pas d’une langue. C’est un mot décontextualisé. Or, les mots de la langue, eux, ne peuvent s’interpréter que dans un contexte. »
« Pourtant, il n’y a pas eu besoin de Google pour raisonner comme l’IA. On n’a pas attendu Trump pour bannir des mots », estime le chercheur.
Une perte d’expertise
Selon François Rastier, la généralisation des IA représente une immense perte d’expertise. Il cite ces universités où plus personne ne fait de fautes d’orthographe parce qu’il n’y a plus aucun devoir qui ne soit pas écrit par l’IA. « On fait des examens oraux. Mais l’oral et l’écrit, ce n’est pas la même chose. On forme des gens qui ne savaient déjà pas beaucoup lire et qui ne sauront plus écrire. La crétinisation est en marche. »
Le sémanticien ne voit malheureusement aucune résistance dans les universités. « On aurait pu penser que dans l’éducation, ce serait le cas. Mais ça rentre comme dans du beurre. Dire qu’il y a un ancien ministre de l’Éducation nationale [Luc Ferry] qui écrit que ChatGPT est mille fois plus cultivé que lui. Quelle conception de la culture a-t-il donc ? C’est de la culture presse-bouton ! »
Rastier voit dans l’engouement pour l’IA le vieux rêve d’un homme nouveau et immortel. « Alors que dans toutes les civilisations, on a peur des fantômes, dans la nôtre, on le devient soi-même. Et en plus, c’est payant. »