Monsieur je-sais-tout peut toujours être pris à défaut. Ces dernières semaines, des internautes se sont amusés à demander à ChatGPT et consorts s’il était préférable d’aller à une station de lavage automobile ou la station-essence à proximité à pied ou en voiture. Certaines IA ont défendu mordicus la première option plus sobre. Pas très malin, au vu de la finalité évidente : laver sa voiture ou remplir son réservoir. Tout aussi récemment, des experts en IA ont monté un comparateur (benchmark), le "bullshit bench", afin de déterminer quel acteur s’en tirait le mieux face aux questions incohérentes. Anthropic (Claude) se débrouille plutôt bien, contrairement à ChatGPT, Mistral ou DeepSeek.

Le sujet est plus profond qu’il n’y paraît. L’IA générative, sous sa forme actuelle, est de plus en plus critiquée. Son fonctionnement repose sur des modèles de langage (LLM) qui, grossièrement, construisent leurs réponses mot à mot. Le secret de leurs performances, assez remarquables jusqu’ici dans la création de contenus, de recommandations ou d'analyses, consiste en un entraînement massif à partir de milliards de données textuelles. L’entièreté - ou presque - du web. Lorsqu'on lui soumet la phrase "je laisse tomber un vase en cristal", il répond que le vase se brise. Non pas parce qu'il comprend la physique, mais parce que cette association est massivement présente dans le corpus.

Yann Le Cun y voit une limite qui l’empêcherait de comprendre des phénomènes simples. Son plafond de verre. Le célèbre chercheur français vient, cette semaine, d’officialiser une levée de fonds record pour le compte de sa nouvelle entreprise AMI Labs. Le lauréat du prix Turing et ancien de chez Meta a collecté environ un milliard de dollars afin de façonner ce qu’il appelle des "World Models" (modèles du monde, en français). Des IA qui, cette fois, n’apprennent plus seulement de données textuelles par exemple, pour appeler un chat un chat. Celles-ci disposeraient d’une représentation du félin, de ses mouvements, de sa manière de retomber toujours sur ses pattes. Des notions de représentation dans l’espace. Comme un être humain, ou un animal. Lorsqu'il officiait encore chez Meta, Yann Le Cun affirmait d’ailleurs de manière quelque peu provocante : "L’IA générative est 50 fois moins intelligente qu’un enfant de 4 ans." Moins intelligente, aussi, selon lui qu’un chat domestique.