
Ce n’est pas seulement une levée de fonds spectaculaire pour une startup IA en France. Le 10 mars 2026, Yann LeCun a officialisé à Paris le lancement d’AMI Labs, pour Advanced Machine Intelligence, avec 1,03 milliard de dollars réunis dès l’origine et une valorisation rapportée à 3,5 milliards de dollars. Derrière ce chiffre exceptionnel, l’enjeu est plus large : défendre une vision différente de l’intelligence artificielle. Celle-ci est moins centrée sur le texte et davantage orientée vers la compréhension du monde réel.
Une levée géante pour une société qui vend encore une promesse
Le montant suffit à imposer le sujet. À ce stade de développement, un tel tour de table place immédiatement AMI Labs parmi les opérations les plus marquantes. En effet, cela concerne le secteur en Europe. Le consortium réunit des fonds de capital-risque, des groupes technologiques et des investisseurs individuels venus de plusieurs continents. Le message est clair : le marché accepte de financer très cher une entreprise sans produit largement commercialisé. En effet, cela s’explique par sa promesse d’une percée sur la prochaine génération d’IA.
Le pari repose d’abord sur un pionnier de l’IA. Yann LeCun, figure de Meta, n’arrive pas comme un outsider. Lauréat du prix Turing, longtemps associé à Meta, Yann LeCun apporte un capital rare : du prestige scientifique, une doctrine technique cohérente, héritée de ses travaux sur les modèles à énergie, et une capacité intacte à attirer des chercheurs comme des financeurs. Dans l’économie de l’IA, la crédibilité repose à la fois sur les talents et sur les puces. Par conséquent, cela vaut presque autant qu’un produit.
Autour de lui, l’équipe fondatrice renforce cette impression de densité. Alexandre Lebrun, présenté aussi comme Alex LeBrun selon les sources, prend la direction générale. Laurent Solly s’occupe des opérations. Saining Xie et Pascale Fung figurent parmi les cofondateurs mis en avant. L’ensemble dessine un attelage mêlant recherche, direction industrielle et connaissance des grands groupes technologiques.
Mais c’est aussi là que commence la prudence. Une levée de cette taille ne prouve pas qu’une rupture scientifique est acquise. Elle signifie simplement qu’un nombre inhabituel d’investisseurs trouve le scénario assez crédible. Ainsi, ils immobilisent des sommes massives très tôt. En d’autres termes, AMI Labs n’a pas encore gagné sa bataille technique. Elle a gagné le droit de la mener avec des moyens exceptionnels.
Yann LeCun et les ‘world models’, ou la revanche du monde physique
AMI Labs ne veut pas se placer sur le même terrain que les champions des grands modèles de langage. Sa thèse est plus ancienne, et presque dissidente dans le climat actuel. Pour l’équipe, prédire du texte ne suffit pas à comprendre le réel. Le langage peut imiter, résumer, répondre, séduire. Il n’épuise pas la structure du monde.
L’entreprise affirme donc travailler sur des world models, c’est-à-dire des systèmes nourris par des données issues de caméras, de capteurs, de vidéos et d’environnements 3D. L’idée n’est pas d’accumuler plus de phrases, mais de construire des représentations abstraites. Ainsi, elles peuvent anticiper ce qui peut arriver lorsqu’une action est lancée dans un environnement donné.
Dit autrement, AMI Labs veut pousser la machine vers quelque chose de plus concret : prévoir les conséquences d’un mouvement, d’une décision, d’un enchaînement d’actions. C’est cette promesse qui distingue le projet des modèles purement conversationnels. Là où les LLM excellent à prolonger des séquences symboliques, les « world models » prétendent approcher la logique du monde physique, de ses contraintes, de ses continuités, de ses surprises aussi.
Cette différence technique a une portée politique et industrielle. Depuis deux ans, l’IA grand public a imposé la domination du texte, du chatbot, du copilote universel. LeCun, lui, défend depuis longtemps une autre ligne : l’intelligence ne commence pas dans les mots, mais dans la perception, l’action, la mémoire et la planification. Avec AMI Labs, cette thèse quitte le terrain du débat académique pour devenir une entreprise.
Sur le plan scientifique, cette ligne n’est pas sortie de nulle part. Dans A Path Towards Autonomous Machine Intelligence publié sur OpenReview en 2022, Yann LeCun décrit les « world models » comme des modèles internes capables d’apprendre de manière auto-supervisée, puis d’être utilisés pour prédire, raisonner et planifier. En 2023, il cosigne à CVPR un article remarqué, Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture, qui présente I-JEPA, une méthode où la machine ne reconstruit pas chaque pixel mais prédit des représentations abstraites. En 2024, avec Learning and Leveraging World Models in Visual Representation Learning sur arXiv, il pousse l’idée plus loin en parlant d’Image World Models, conçus pour apprendre des transformations du monde dans l’espace latent plutôt qu’au niveau brut de l’image.
L’enjeu pédagogique est simple à formuler. Un LLM prolonge des suites de mots en exploitant des régularités statistiques du langage. Un world model, lui, cherche à fabriquer une représentation compacte de ce qui reste stable dans une scène ou une situation, puis à estimer comment cette situation peut évoluer après une action. Dans le cadre défendu par LeCun, on ne demande donc pas à la machine de « refaire » le monde pixel par pixel, mais d’en extraire les variables utiles : la position probable d’un objet, la dynamique d’un mouvement, la conséquence plausible d’un geste. Cette abstraction, en théorie, doit rendre les systèmes plus sobres, plus planificateurs et plus robustes. En effet, elle est essentielle dans des usages physiques.
Cette intuition rejoint une littérature plus large. Dans World Models (NeurIPS 2018), David Ha et Jürgen Schmidhuber montraient déjà qu’un agent pouvait apprendre un modèle compressé de son environnement, puis s’entraîner à agir à partir de cette simulation interne. Plus récemment, Danijar Hafner, Jimmy Ba et Timothy Lillicrap ont défendu avec DreamerV3 dans Mastering Diverse Domains through World Models l’idée qu’un agent peut améliorer son comportement en « imaginant » des futurs possibles dans un espace latent. Et une enquête de synthèse publiée fin 2025, A Step Toward World Models: A Survey on Robotic Manipulation, rappelle que ces approches séduisent la robotique parce qu’elles promettent de relier perception, prédiction et contrôle, tout en soulignant leurs limites : coût de calcul, difficulté des prédictions à long horizon, bruit du monde réel et passage délicat du laboratoire à l’industrie.

Pourquoi les investisseurs paient si cher une société sans produit visible
La réponse tient à trois mots : rareté, calcul, positionnement.
Rareté, d’abord, parce que les équipes capables de tenir une promesse d’IA de rupture sont peu nombreuses. Les profils capables de concevoir les architectures sont encore plus rares. De plus, ils doivent organiser l’entraînement à grande échelle. Par ailleurs, ces profils doivent convaincre des partenaires industriels. Dans cette économie, on finance les personnes avant de financer les revenus.
Calcul, ensuite, parce qu’aucun acteur sérieux ne peut aujourd’hui avancer sans puissance matérielle. AMI Labs a besoin de GPU et de capacités d’entraînement. De plus, une infrastructure coûteuse est nécessaire avant même de prétendre livrer un produit. La levée sert donc autant à acheter du temps scientifique qu’à acheter des ressources informatiques. Dans l’IA contemporaine, le capital n’est plus seulement un moyen de croître : il est une condition d’existence.
Positionnement, enfin, parce que les investisseurs cherchent déjà l’après-LLM. Beaucoup parient sur le prochain saut de valeur. En effet, il viendra de systèmes plus fiables et plus contrôlables. Par ailleurs, ces systèmes seront plus capables d’agir dans des environnements complexes. Robotique, automatisation, santé, contrôle de procédés industriels, appareils portables : AMI Labs vise des secteurs où l’erreur coûte plus cher qu’une réponse imprécise dans une conversation.
C’est ici que la promesse séduit. Si la startup réussit à rendre ses modèles suffisamment robustes, elle pourrait occuper une place stratégique importante. En effet, cette position serait entre la recherche de frontière et des usages concrets à forte valeur. Mais l’écart entre l’idée et l’exécution reste immense. Les concurrents ne manquent pas. Les géants installés disposent d’argent, de données, de puces et de partenaires. Et rien ne garantit qu’une intuition juste scientifiquement se traduise vite en plateforme rentable.
Les sources vérifiables renforcent toutefois la cohérence du dossier. Le site officiel d’AMI Labs présente une feuille de route claire. Elle inclut l’apprentissage sur des données de capteurs du monde réel. De plus, elle mentionne la prédiction en espace de représentation. Enfin, elle aborde la planification conditionnée par l’action et les garde-fous de sécurité. La presse économique anglo-saxonne, du Financial Times au Wall Street Journal, converge sur plusieurs points factuels importants. En effet, ce tour de table s’élève à 1,03 milliard de dollars. Par ailleurs, la valorisation est proche de 3,5 milliards. De plus, l’entreprise a son siège à Paris et affiche une ambition tournée vers la robotique. Elle cible également l’automatisation et des usages industriels. Des bases de marché comme PitchBook apportent un cadre utile, non pour certifier seules l’opération, mais pour mesurer le contexte : leurs notes récentes sur les investissements IA en 2026 décrivent un marché où une part croissante du capital se concentre sur quelques équipes dites de frontière, capables d’absorber beaucoup de calcul avant tout revenu visible.
C’est aussi ce qui explique la patience relative des financeurs. Ils n’achètent pas un produit fini. Ils achètent une combinaison rare comprenant une thèse scientifique identifiable et une équipe de haut niveau. De plus, ils répondent à un besoin massif en calcul. En outre, il existe une possibilité spéculative d’occuper le prochain segment stratégique de l’IA. Dans cette lecture, AMI Labs ressemble moins à une start-up logicielle classique qu’à une infrastructure de recherche très capitalisée.
Paris gagne un symbole, pas encore une base industrielle
Le choix du siège à Paris n’est pas anodin. Dans une Europe souvent reléguée au second rang technologique, voir une startup d’IA partir de France est significatif. En effet, réaliser une telle levée de fonds constitue une force de vitrine incontestable. Cela nourrit un récit : la capitale peut encore attirer des talents mondiaux. De plus, elle peut abriter de la recherche de pointe. En outre, elle peut devenir un point d’ancrage crédible pour une entreprise conçue d’emblée comme internationale.
AMI Labs se présente toutefois comme un acteur dispersé sur plusieurs places, de Paris à New York, Montréal et Singapour. Ce maillage rappelle une vérité simple : dans l’IA de frontière, la souveraineté n’est jamais purement nationale. Les capitaux, les chercheurs, les partenaires et les infrastructures circulent à l’échelle du monde.
La question française est donc plus exigeante qu’il n’y paraît. Paris gagne-t-elle un trophée de communication, ou un noyau durable de recherche, d’emplois qualifiés et de décisions stratégiques ? À ce stade, personne ne peut trancher. Le siège parisien envoie un signal politique et économique. Il ne suffit pas encore à prouver un ancrage industriel massif.
Le pari LeCun, entre rupture possible et impatience du marché
L’intérêt du dossier tient à cette tension finale. Yann LeCun arrive avec une force singulière : une réputation mondiale, une pensée stable, et une capacité à imposer un récit alternatif à l’IA générative dominante. Il peut attirer des chercheurs qui veulent travailler sur des problèmes plus fondamentaux que le simple perfectionnement des assistants textuels. Il peut aussi convaincre des industriels qu’une IA utile devra un jour comprendre davantage que des phrases.
Ses angles morts sont connus, eux aussi. Le projet reste théorique sur plusieurs points décisifs. Le calendrier produit demeure flou. L’intensité capitalistique est considérable. Et la temporalité de la recherche profonde s’accorde mal avec l’impatience des investisseurs, même prestigieux.
C’est aussi le point sur lequel la littérature scientifique invite à la mesure. Les travaux de Ha et Schmidhuber, puis ceux de Hafner et de ses coauteurs, montrent qu’un modèle du monde peut devenir un outil puissant pour la décision et l’apprentissage dans des environnements bien cadrés. Cependant, les chercheurs travaillant sur la robotique réelle rappellent qu’il y a une différence notable. En effet, entre une prédiction élégante dans un espace latent et un système fiable sur le terrain, le chemin reste long. Les capteurs sont bruyants, les scènes sont ambiguës, les événements rares comptent énormément, et la sûreté ne se décrète pas. Autrement dit, l’idée d’AMI Labs repose sur une véritable tradition scientifique. Cependant, sa transformation en entreprise de rupture reste un pari ouvert.
Repères scientifiques et sources vérifiables
Pour lire AMI Labs avec plus de distance, il faut distinguer trois niveaux.
Le premier relève des faits d’entreprise. Le communiqué et le site officiel d’AMI Labs fixent le récit que la société veut imposer : données issues du monde réel, apprentissage auto-supervisé, prédiction abstraite, usages en robotique, santé et industrie. Les grands médias économiques ayant documenté l’opération le 10 mars 2026 s’accordent sur les chiffres clés. Par ailleurs, ils convergent également sur l’identité des principaux investisseurs.
Le deuxième relève de la doctrine scientifique de LeCun. Les textes les plus utiles sont A Path Towards Autonomous Machine Intelligence (2022), Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture (CVPR 2023), Learning and Leveraging World Models in Visual Representation Learning (arXiv 2024) et, pour prolonger le débat sur l’auto-supervision, LeJEPA: Provable and Scalable Self-Supervised Learning Without the Heuristics (arXiv 2025, avec Randall Balestriero). Ensemble, ils expriment une conviction constante : l’IA la plus générale ne proviendra pas uniquement de la génération de texte. En outre, elle émergera de la capacité à apprendre des représentations du monde manipulables et prédictives.

Le troisième relève du regard extérieur. World Models (NeurIPS 2018) de David Ha et Jürgen Schmidhuber, Mastering Diverse Domains through World Models de Danijar Hafner et ses coauteurs, ainsi que la synthèse A Step Toward World Models: A Survey on Robotic Manipulation publiée en 2025, montrent pourquoi cette famille d’approches attire tant de chercheurs : elle promet de rapprocher perception, mémoire, simulation et action. Mais ces mêmes travaux rappellent aussi que la robustesse, la généralisation et la maîtrise des cas rares restent les vraies épreuves. C’est précisément à cet endroit qu’AMI Labs sera attendue : non sur le prestige de son fondateur, mais sur sa capacité à faire tenir cette promesse dans le réel.
Voilà pourquoi AMI Labs mérite mieux qu’un simple récit admiratif. Cette entreprise n’ouvre pas seulement un nouveau chapitre entrepreneurial pour un chercheur star. Elle remet en jeu une question plus vaste, presque philosophique, mais devenue industrielle : l’avenir de l’intelligence artificielle passera-t-il par le langage, ou par une compréhension plus robuste du réel ?
Pour l’instant, 1,03 milliard de dollars ont été mis sur la seconde réponse. Le reste appartient aux faits à venir.