L’industrie applaudit les LLM. Yann LeCun, lui, parie déjà sur l’après.
Pendant qu’une grande partie du marché continue de confondre fluidité verbale et intelligence générale, Yann LeCun remet une pièce dans un débat que beaucoup auraient préféré refermer trop vite.
Sa startup AMI, fondée après son départ de Meta, a levé 1,03 milliard de dollars avec l’ambition assumée de contester la domination du paradigme LLM. L’objectif n’est pas de fabriquer un chatbot un peu plus brillant. L’ambition est beaucoup plus radicale : construire des systèmes capables de raisonner, de planifier et de comprendre le monde, autrement dit d’aller vers des modèles du monde plutôt que de rester prisonniers de la seule prédiction statistique du langage. C’est bien ainsi que Reuters et Wired décrivent la promesse d’AMI.
Et c’est précisément là que le sujet devient passionnant.
Parce que ce qui se joue ici n’est pas seulement une bataille technologique.
C’est une bataille de lecture du réel.
Les LLM impressionnent. Cela ne suffit pas à en faire une destination finale.
Les LLM ont transformé l’interface entre l’humain et la machine. Ils résument, rédigent, traduisent, codent, assistent, accélèrent. Leur impact est indéniable. Leur adoption aussi. Le rapport AI Index 2025 de Stanford montre d’ailleurs que l’usage de l’IA en entreprise a fortement progressé en 2024 et que les investissements privés restent massifs, notamment dans l’IA générative.
Mais l’histoire de la technologie est pleine de confusions entre succès commercial et point d’arrivée intellectuel.
Un produit peut dominer un cycle…
sans représenter l’architecture finale du progrès.
C’est tout l’intérêt du geste de LeCun. Il ne dit pas simplement : “je veux faire mieux que les autres”.
Il dit quelque chose de plus dérangeant : “vous êtes peut-être en train d’optimiser la mauvaise voie”.
Cette critique n’est pas nouvelle chez lui. Dès 2016, il défendait déjà l’idée que des systèmes vraiment robustes auraient besoin d’un modèle interne du monde, capable de prédire, raisonner et planifier. En 2022, dans son papier A Path Towards Autonomous Machine Intelligence, il formalise cette direction autour de modèles prédictifs du monde et d’agents capables d’agir à différents horizons temporels.
Autrement dit :
les LLM savent très bien parler du monde.
Le pari de LeCun consiste à construire des systèmes qui en captent mieux la structure.
C’est une intuition forte. Ce n’est pas encore une innovation accomplie.
C’est ici qu’il faut résister à l’emballement.
Dans mon livre, au chapitre 3, je rappelle que créativité, invention et innovation ne sont pas synonymes, et surtout que « sans mise en œuvre, on ne peut pas parler d’innovation ». Le même chapitre insiste aussi sur le fait que l’innovation implique la mise en œuvre réelle, souvent par une équipe, et pas seulement une idée séduisante ou un récit puissant.
C’est une distinction décisive.
AMI est aujourd’hui :
une vision forte,
une thèse courageuse,
un financement spectaculaire,
un signal stratégique très puissant.
Mais AMI n’est pas encore, à ce stade, une innovation validée par le marché ou par un déploiement démontré à grande échelle. Reuters parle d’une startup qui vise l’automobile, l’aéronautique, le biomédical et, à terme, la robotique grand public. Wired parle d’une ambition de “world models” et de mémoire persistante. Tout cela décrit une direction. Pas encore une bascule prouvée.
Et c’est très bien ainsi.
Parce qu’une industrie progresse aussi grâce à ceux qui rouvrent des questions que le marché croyait réglées.
Le vrai signal n’est peut-être pas technique. Il est intellectuel.
Ce que j’aime dans cette séquence, ce n’est pas qu’un homme célèbre lève beaucoup d’argent.
C’est qu’il réintroduit de la tension intellectuelle dans un secteur qui adore les effets de troupeau.
Quand un paradigme domine, il attire tout :
les capitaux,
les talents,
les imitateurs,
les discours,
les conférences,
les démonstrations.
Puis un danger apparaît : tout le monde finit par améliorer la même chose, avec des variations de surface, en appelant cela une révolution.
LeCun force l’écosystème à se poser une question inconfortable :
et si la prochaine grande marche ne consistait pas à faire parler les machines encore mieux, mais à leur faire modéliser le réel plus profondément ?
Cette question ne détruit pas la valeur des LLM.
Elle remet simplement leur place en perspective.
Un outil dominant n’est pas forcément l’horizon ultime.
Il peut être une étape très rentable, très spectaculaire, très utile… et transitoire.
L’histoire récente de l’IA donne du poids à cette prudence
Même dans des domaines où les modèles progressent vite, leurs limites apparaissent dès que l’on attend d’eux autre chose qu’une bonne probabilité de formulation. Une étude publiée dans Scientific Reports en 2025 montre par exemple des limites marquées de plusieurs LLM dans le raisonnement clinique, avec des problèmes de bon sens médical, d’hallucinations et de surconfiance.
Cela ne signifie pas que les LLM sont “finis”.
Cela signifie qu’ils ne doivent pas être confondus avec une intelligence générale déjà en marche.
Le marché aime les raccourcis.
La recherche sérieuse les supporte beaucoup moins longtemps.
Là où beaucoup voient une guerre de modèles, je vois une leçon de stratégie
Le point le plus intéressant pour les dirigeants n’est peut-être même pas la technique.
C’est la discipline stratégique derrière ce pari.
Contester un paradigme dominant demande trois choses :
1. Refuser la séduction du consensus
Quand tout le monde se rue dans la même direction, la tentation est immense d’y voir une preuve.
Souvent, ce n’est qu’une validation sociale à grande échelle.
2. Assumer qu’un marché peut sur-optimiser une impasse
Une technologie peut générer énormément de valeur tout en restant incomplète.
L’histoire économique adore ces phases intermédiaires.
3. Comprendre qu’innover, ce n’est pas répéter le dernier succès
Dans mon livre, au chapitre 9, je souligne que la capacité d’une organisation à innover repose sur une culture entretenue avec attention, et que la sécurité psychologique est essentielle à la performance des équipes innovantes. Ce type de pari n’émerge pas dans une culture obsédée par la répétition rassurante.
Un secteur qui n’accepte plus la contradiction finit toujours par raffiner ses habitudes au lieu de préparer sa prochaine rupture.
Le plus grand risque serait de caricaturer le débat
Opposer “LLM” et “world models” comme s’il fallait choisir un camp une fois pour toutes serait une erreur.
Le futur le plus crédible n’est pas forcément une élimination pure et simple.
Il pourrait être une hybridation.
Des systèmes linguistiques très puissants pour l’interface, l’abstraction, l’accès au savoir.
Des modèles du monde pour la prédiction, la planification, l’action, la robustesse et l’autonomie.
Le débat utile n’est donc pas :
“Les LLM sont-ils morts ?”
Le débat utile est plutôt :
“Que manque-t-il encore aux systèmes actuels pour passer de la conversation convaincante à la compréhension opérante ?”
Et sur ce terrain, LeCun a au moins un mérite immense : il force l’industrie à regarder plus loin que son reflet.
Ce que ce moment nous apprend vraiment
Le marché adore les technologies qui se voient.
L’innovation profonde commence souvent par des architectures que peu de gens comprennent au premier regard.
AMI n’a peut-être pas encore prouvé que les LLM ont atteint leur plafond.
Mais AMI a déjà réussi quelque chose d’important : rappeler qu’un paradigme dominant n’est jamais à l’abri d’une relève plus ambitieuse.
Dans les périodes d’euphorie, la lucidité devient un avantage concurrentiel.
Et dans l’IA comme ailleurs, la question décisive n’est jamais seulement :
“Qu’est-ce qui marche aujourd’hui ?”
La question utile est :
“Qu’est-ce qui préparera vraiment demain ?”
Références
(Reuters) = https://www.reuters.com/business/ex-meta-ai-chief-yann-lecuns-ami-raises-103-billion-alternative-ai-approach-2026-03-10/
(Wired) = https://www.wired.com/story/yann-lecun-raises-dollar1-billion-to-build-ai-that-understands-the-physical-world/
(OpenReview) = https://openreview.net/pdf?id=BZ5a1r-kVsf
(Meta Engineering) = https://engineering.fb.com/2016/06/20/ml-applications/a-path-to-unsupervised-learning-through-adversarial-networks/
(Stanford HAI) = https://hai.stanford.edu/ai-index/2025-ai-index-report
(Scientific Reports) = https://www.nature.com/articles/s41598-025-22940-0
- Partager sur LinkedIn(ouvre dans une nouvelle fenêtre) LinkedIn
- Envoyer un lien par e-mail à un ami(ouvre dans une nouvelle fenêtre) E-mail
- Partager sur WhatsApp(ouvre dans une nouvelle fenêtre) WhatsApp
- Partager sur Reddit(ouvre dans une nouvelle fenêtre) Reddit
- Partager sur Facebook(ouvre dans une nouvelle fenêtre) Facebook
- Partager sur X(ouvre dans une nouvelle fenêtre) X



