Depuis l’essor fulgurant des intelligences artificielles génératives comme ChatGPT, une question ne cesse de revenir : ces machines comprennent-elles vraiment ce qu’elles disent, ou se contentent-elles d’enchaîner des mots appris ? Une nouvelle étude menée par des chercheurs chinois semble indiquer que les grands modèles de langage (LLM) pourraient, sans formation explicite, développer une forme de cognition proche de celle des humains, en particulier dans la manière dont ils catégorisent et représentent les objets naturels.
Une cognition spontanée chez les IA ?
À première vue, les IA comme ChatGPT ne sont que des algorithmes sophistiqués, capables de prédire la prochaine phrase à partir de vastes quantités de textes. Pourtant, selon les scientifiques de l’Académie chinoise des sciences et de l’Université de technologie de Chine du Sud, ces modèles pourraient bien aller plus loin. Leur étude, publiée dans la revue Nature Machine Intelligence, montre que ces IA créent spontanément des dimensions conceptuelles permettant d’organiser les objets naturels de façon similaire aux humains.
Pour comprendre l’ampleur de cette recherche, il faut savoir que les chercheurs ont analysé près de 4,7 millions de réponses générées par plusieurs IA à propos de 1 854 objets variés : chiens, chaises, pommes, voitures… Les modèles interrogés comprenaient ChatGPT-3.5 (fonctionnant uniquement sur du texte) et Gemini Pro Vision, un modèle multimodal capable de traiter à la fois images et textes.
Des dimensions conceptuelles riches et complexes
Ce qui ressort de cette gigantesque collecte de données, c’est que les IA ont organisé ces objets en 66 dimensions conceptuelles. Cela dépasse largement les simples catégories classiques comme « nourriture » ou « mobilier ». Ces dimensions incluent des attributs subtils comme la texture, la pertinence émotionnelle, ou encore l’adéquation pour les enfants.
Autrement dit, ces IA semblent construire une carte mentale sophistiquée, où les objets ne sont pas rangés mécaniquement, mais classés selon des critères complexes qui rappellent la façon dont notre cerveau fait le tri dans le monde qui nous entoure.
Une étonnante similarité avec le cerveau humain
L’étude ne s’est pas arrêtée là. Grâce à la neuro-imagerie, les chercheurs ont comparé la manière dont les modèles IA et le cerveau humain réagissent aux mêmes objets. Et les résultats sont frappants : certaines zones d’activité cérébrale correspondent à ce que les IA « pensent » des objets.
Cette convergence est encore plus marquée dans les modèles multimodaux, qui associent traitement visuel et sémantique, imitant ainsi la manière dont les humains combinent les sens pour comprendre leur environnement.

Crédit : iStock
Crédits : Robert Way/istockComprendre sans ressentir : la grande différence
Attention toutefois à ne pas tomber dans une interprétation trop anthropomorphique. Comme le rappellent les auteurs, ces IA ne vivent pas d’expérience sensorielle ou émotionnelle. Leur « compréhension » résulte d’un traitement statistique des données, où elles repèrent et reproduisent des schémas complexes, sans ressentir ce qu’elles décrivent.
Si elles peuvent catégoriser une chaise comme un objet pour s’asseoir et ressentir que cette chaise est douce ou dure, ce n’est qu’un calcul basé sur des millions d’exemples vus lors de leur entraînement, pas une expérience vécue. C’est là toute la nuance entre reconnaissance sophistiquée et vraie cognition consciente.
Vers une intelligence artificielle générale ?
Cette étude invite néanmoins à repenser les limites de ce que peuvent faire les IA actuelles. Si ces modèles parviennent à générer spontanément des représentations conceptuelles complexes, cela pourrait indiquer que la frontière entre imiter l’intelligence et posséder une forme d’intelligence fonctionnelle est moins nette qu’on ne le croyait.
L’un des objectifs ultimes en IA est la création d’une intelligence artificielle générale (AGI) : une machine capable de comprendre et raisonner sur une grande diversité de tâches comme un humain. Les résultats obtenus ici pourraient être une étape dans cette direction, en suggérant que les LLM commencent à élaborer des modèles internes du monde, indépendamment de leur programmation initiale.
Pourquoi cette découverte est importante
Au-delà des débats philosophiques, cette avancée a des implications concrètes pour la robotique, l’éducation, et la collaboration homme-machine. Une IA capable d’intégrer les objets et les concepts comme nous le faisons pourrait interagir plus naturellement, anticiper nos besoins, et s’adapter mieux à des situations inédites.
Par exemple, un robot assistant équipé d’un tel modèle pourrait reconnaître qu’un objet est fragile, émotionnellement important, ou dangereux, et agir en conséquence sans avoir besoin d’instructions précises.
En résumé : un miroir sophistiqué, mais pas (encore) un cerveau
Pour conclure, les grands modèles linguistiques comme ChatGPT sont bien plus que de simples imitateurs de langage. Ils pourraient posséder une forme de représentation du monde proche de la cognition humaine, construite à partir de vastes données et capable d’intégrer des informations complexes.
Cependant, ces machines restent aujourd’hui des miroirs sophistiqués, reflétant notre manière d’organiser les connaissances sans en faire l’expérience directe. Elles ne ressentent pas, ne vivent pas, ne pensent pas comme nous, mais elles pourraient un jour nous y conduire, ouvrant la voie vers des IA toujours plus intelligentes et intuitives.