{"id":304953,"date":"2025-11-12T19:26:19","date_gmt":"2025-11-12T18:26:19","guid":{"rendered":"https:\/\/legrandcontinent.eu\/fr\/?p=304953"},"modified":"2025-11-12T19:26:24","modified_gmt":"2025-11-12T18:26:24","slug":"que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/","title":{"rendered":"Que sont les \u00ab TRM \u00bb ? Apr\u00e8s les LLM, comprendre la future r\u00e9volution de l’IA"},"content":{"rendered":"\n

Le papier \u00ab Less is More : Recursive Reasoning with Tiny Networks \u00bb<\/em> <\/span>1<\/sup><\/a><\/span><\/span>, qui a \u00e9merg\u00e9 en octobre au milieu d\u2019un tumulte d\u2019annonces, a d\u00e9clench\u00e9 une petite r\u00e9volution dans l’\u00e9cosyst\u00e8me IA..<\/em><\/p>\n\n\n\n

Alors que les infrastructures de l\u2019IA \u2014 puces, data centers \u2014 sont entr\u00e9es au c\u0153ur des discussions industrielles et strat\u00e9giques, sujettes \u00e0 des investissements colossaux, cet article sign\u00e9 Alexia Jolic\u0153ur-Martineau vient bouleverser des certitudes.<\/em><\/p>\n\n\n\n

Chercheuse en intelligence artificielle au Samsung SAIT AI Lab, elle est sp\u00e9cialis\u00e9e dans les mod\u00e8les g\u00e9n\u00e9ratifs profonds, elle travaille sur ces approches depuis une dizaine d’ann\u00e9es. Elle est notamment reconnue pour avoir introduit les Relativistic GANs, une am\u00e9lioration des GAN classiques \u2014 des mod\u00e8les capables de cr\u00e9er de nouvelles donn\u00e9es r\u00e9alistes \u00e0 partir d\u2019un jeu d\u2019entra\u00eenement, comme des images, de la musique ou du texte.<\/em><\/p>\n\n\n\n

Dans un contexte de p\u00e9nurie de puissance de calcul, l\u2019\u00e9cosyst\u00e8me tout entier observe avec attention les innovations architecturales susceptibles de rebattre les cartes.<\/em><\/p>\n\n\n\n

Contrairement aux Large Language Models (LLM)<\/a> pr\u00e9entra\u00een\u00e9s s\u2019appuyant sur d\u2019\u00e9normes corpus de donn\u00e9es \u2014 web, code, livres, documents scientifiques \u2014, les Tiny Recursive Models (TRM) utilisent une ing\u00e9nierie plus cibl\u00e9e \u2014 deep supervision, deep recursion, data augmentation<\/em>. Comment d\u00e9cririez-vous les innovations principales de votre papier, leurs fonctions et les principaux r\u00e9sultats qui en d\u00e9coulent ? <\/h3>\n\n\n\n

L\u2019id\u00e9e des TRM, c\u2019est qu\u2019un petit mod\u00e8le peut raisonner r\u00e9cursivement pour mettre \u00e0 jour sa r\u00e9ponse.<\/p>\n\n\n\n

Un LLM, ce que tout le monde utilise aujourd\u2019hui, doit g\u00e9n\u00e9rer ses r\u00e9ponses un token \u00e0 la fois<\/em> <\/span>2<\/sup><\/a><\/span><\/span>, ce qui \u00e9quivaut \u00e0 un demi-mot \u00e0 la fois ; s\u2019il fait une seule erreur, la suite du raisonnement est fauss\u00e9e car l\u2019erreur se propage. Par exemple, s\u2019il fait 1+1 = 3, toute la suite du raisonnement est invalid\u00e9e \u00e0 cause du 3 qui va propager l\u2019erreur.<\/p>\n\n\n\n

En mettant \u00e0 jour sa r\u00e9ponse et en r\u00e9fl\u00e9chissant r\u00e9cursivement \u00e0 propos de sa r\u00e9ponse, il est possible d\u2019enlever des erreurs.<\/p>\n\n\n\n

Si le TRM fait des erreurs, il peut revenir sur ses pas \u2014 c\u2019est ce qu\u2019on appelle le backtrack<\/em> \u2014  puis changer sa r\u00e9ponse. Cela lui permet d’attendre d\u2019avoir une bonne r\u00e9ponse et de la peaufiner avant de la g\u00e9n\u00e9rer ; \u00e0 la diff\u00e9rence des LLM, le TRM g\u00e9n\u00e8re sa r\u00e9ponse d\u2019un coup, et non un token \u00e0 la fois.<\/p>\n\n\n\n

Le TRM est un tout petit mod\u00e8le : l’id\u00e9e est que son caract\u00e8re r\u00e9cursif lui permet de raisonner davantage mais avec tr\u00e8s peu de param\u00e8tres. Il dispose ainsi de 10 000 fois moins de param\u00e8tres qu\u2019un LLM classique et est 1000 fois plus rapide \u2014 m\u00eame si les chiffres sont difficiles \u00e0 estimer. Cela permet de l\u2019entra\u00eener avec beaucoup moins de ressources ; pour cette raison, il est indirectement plus \u00e9co-responsable.<\/p>\n\n\n\n

\u00c9tant petit, le mod\u00e8le peut directement fonctionner sur un t\u00e9l\u00e9phone, ce qui n\u2019est pas possible avec les LLM \u00e0 l\u2019heure actuelle. Aujourd\u2019hui, les donn\u00e9es transitent par Internet et sont trait\u00e9es sur des serveurs externes avant de revenir \u00e0 l\u2019utilisateur ; la confidentialit\u00e9 n\u2019est donc pas garantie. Avec un petit mod\u00e8le qui tourne sur le t\u00e9l\u00e9phone, celle-ci est davantage pr\u00e9serv\u00e9e et le mod\u00e8le fonctionne m\u00eame sans connexion.<\/p>\n\n\n\n

La promesse de ce changement de paradigme a aussi b\u00e9n\u00e9fici\u00e9 \u00e0 Samsung. Mon article est sorti pendant les cong\u00e9s en Cor\u00e9e du Sud ; au retour des vacances, apr\u00e8s sa publication, la capitalisation boursi\u00e8re de Samsung a bondi de 10 % \u2014 l\u2019\u00e9quivalent d\u2019environ 60 milliards de dollars.<\/p>\n\n\n\n

Le TRM dispose de 10 000 fois moins de param\u00e8tres qu\u2019un LLM classique et est 1000 fois plus rapide.<\/p>Alexia Jolicoeur-Martineau<\/cite><\/blockquote><\/figure>\n\n\n\n

Votre article sugg\u00e8re que, pour certaines t\u00e2ches exigeantes de raisonnement, on peut drastiquement troquer la taille du mod\u00e8le \u2014 le nombre de layers<\/em> <\/span>3<\/sup><\/a><\/span><\/span> \u2014\u00a0 contre une dynamique d\u2019apprentissage alternative \u2014 deep supervision, deep recursion<\/em> \u2014 et une meilleure structuration de la quantit\u00e9 de calcul utilis\u00e9e pour l\u2019inf\u00e9rence. Quelle est l\u2019id\u00e9e sous-jacente pour que cela fonctionne ?\u00a0\u00a0<\/h3>\n\n\n\n

Les LLM doivent d\u00e9j\u00e0 utiliser du temps de calcul pour l\u2019inf\u00e9rence.<\/p>\n\n\n\n

Pour \u00e9viter qu\u2019une erreur sur un token p\u00e9nalise toute la suite de la r\u00e9ponse, plusieurs techniques de g\u00e9n\u00e9ration explorent le fait de d\u00e9rouler plusieurs tentatives de r\u00e9ponses avant de choisir la meilleure \u2014 ou celle qui revient le plus souvent. En cons\u00e9quence, ces m\u00e9thodes utilisent plus de calcul pour l\u2019inf\u00e9rence.<\/p>\n\n\n\n

De ce point de vue, cela ne change pas de ce que font les TRM, mais ces derniers sont plus petits, donc l\u2019inf\u00e9rence peut se faire sur les t\u00e9l\u00e9phones mobiles ; leur entra\u00eenement est beaucoup plus efficace et il co\u00fbte moins de 500 dollars.<\/p>\n\n\n\n

M\u00eame si on a toujours besoin de donn\u00e9es de tr\u00e8s bonne qualit\u00e9, on peut traiter beaucoup plus de donn\u00e9es bien plus rapidement, car les mod\u00e8les sont beaucoup plus petits et la r\u00e9ponse est g\u00e9n\u00e9r\u00e9e en une fois.<\/p>\n\n\n\n

\n \n \r\n \r\n \r\n \r\n \r\n <\/picture>\r\n \n <\/a>\n<\/figure>\n\n\n

Observe-t-on pour ces mod\u00e8les des lois d\u2019\u00e9chelle <\/span>4<\/sup><\/a><\/span><\/span>, comme c\u2019est le cas avec les LLM ? Si oui, quelles sont les variables sur lesquelles jouer pour avoir des outils plus performants ? Faut-il donner plus de donn\u00e9es au mod\u00e8le, ou lui faire retravailler ses r\u00e9ponses un plus grand nombre de fois ?<\/h3>\n\n\n\n

Le nombre de r\u00e9cursions n\u00e9cessaire <\/span>5<\/sup><\/a><\/span><\/span> est fonction de la difficult\u00e9 des t\u00e2ches : des t\u00e2ches plus faciles vont prendre moins de r\u00e9cursions mais des t\u00e2ches plus difficiles vont en demander plus.<\/p>\n\n\n\n

L\u2019id\u00e9e serait donc d\u2019atteindre un certain \u00e9quilibre entre les deux. <\/p>\n\n\n\n

La donn\u00e9e \u2014 en quantit\u00e9 et en qualit\u00e9 \u2014 reste aussi fondamentale dans l\u2019\u00e9quation car plus le mod\u00e8le s\u2019am\u00e9liore, moins il y a besoin de r\u00e9cursion. Quand le probl\u00e8me devient vraiment difficile, il peut n\u00e9anmoins \u00eatre utile de r\u00e9fl\u00e9chir plus longtemps. <\/p>\n\n\n\n

Vous \u00e9prouvez votre mod\u00e8le sur des probl\u00e8mes comme la compl\u00e9tion de grilles de sudoku ou des benchmarks de raisonnement et vous pouvez optimiser l\u2019architecture du mod\u00e8le en fonction de la t\u00e2che. Avec les LLM, nous avions cru pouvoir en finir avec un monde o\u00f9 un mod\u00e8le \u00e9tait sp\u00e9cialis\u00e9 pour une t\u00e2che sp\u00e9cifique. Est-ce qu’on retourne vers ce monde de mod\u00e8les sp\u00e9cialis\u00e9s par t\u00e2che ou d\u2019architectures sp\u00e9cialis\u00e9es pour diff\u00e9rents types de t\u00e2ches ?<\/h3>\n\n\n\n

Il y a un \u00e9quilibre \u00e0 trouver entre les deux.<\/p>\n\n\n\n

Avec les LLM, on a trop pench\u00e9 vers une seule direction parce que le paradigme pr\u00e9c\u00e9dent \u00e9tait celui de la sp\u00e9cialisation. On a pris l\u2019un de ces mod\u00e8les, et on a remarqu\u00e9 qu\u2019il pouvait faire mieux sur toutes les t\u00e2ches ; ce paradigme n\u00e9cessite cependant tellement de ressources qu\u2019on parle de milliards de dollars pour des am\u00e9liorations marginales de plus en plus petites. Cela me para\u00eet excessif.<\/p>\n\n\n\n

Ce que j\u2019essaye de mettre en avant, ce sont des mod\u00e8les plus petits et plus simples, qui vont \u00eatre aussi performants que les LLM sur des t\u00e2ches sp\u00e9cialis\u00e9es. On pourra ensuite penser \u00e0 conceptualiser un mod\u00e8le plus g\u00e9n\u00e9ral qui choisirait le mod\u00e8le sp\u00e9cialis\u00e9 \u00e0 ex\u00e9cuter pour une t\u00e2che. <\/p>\n\n\n\n

Mon article est sorti pendant les cong\u00e9s en Cor\u00e9e du Sud ; au retour des vacances, apr\u00e8s sa publication, la capitalisation boursi\u00e8re de Samsung a bondi de 10 % \u2014 l\u2019\u00e9quivalent d\u2019environ 60 milliards de dollars.<\/p>Alexia Jolicoeur-Martineau<\/cite><\/blockquote><\/figure>\n\n\n\n

On peut songer pour cela \u00e0 Windows, par exemple : celui-ci comprend des sous-programmes ; m\u00eame sans conna\u00eetre ceux-ci dans le d\u00e9tail, le programme plus g\u00e9n\u00e9ral qui les g\u00e8re a la capacit\u00e9 de les utiliser et d\u2019exploiter leurs r\u00e9sultats pour raisonner.<\/p>\n\n\n\n

Les progr\u00e8s dans votre domaine de recherche sont rapides. Vous am\u00e9liorez en fait significativement les r\u00e9sultats d\u2019un papier paru en juin 2025 <\/span>6<\/sup><\/a><\/span><\/span>. Quel futur voyez-vous pour les Tiny Recursive Models<\/em> ? D\u2019ici deux ou trois articles sur le sujet, quels sont les r\u00e9sultats que l\u2019on pourrait esp\u00e9rer ?<\/h3>\n\n\n\n

Les choses devraient aller vite : je pense qu’il y a beaucoup d’int\u00e9r\u00eat en ce moment pour les TRM et je continue de travailler l\u00e0-dessus pour de nouvelles applications.<\/p>\n\n\n\n

On peut s’attendre \u00e0 ce qu\u2019ils servent dans toutes sortes de domaines, par exemple les mat\u00e9riaux ou les mol\u00e9cules.<\/p>\n\n\n\n

C\u2019est tr\u00e8s important, en particulier pour Samsung car les \u00e9crans de t\u00e9l\u00e9phones utilisent beaucoup de recherche en biologie mol\u00e9culaire pour obtenir une meilleure luminosit\u00e9, par exemple.<\/p>\n\n\n\n

\n \n \r\n \r\n \r\n \r\n \r\n <\/picture>\r\n \n <\/a>\n<\/figure>\n\n\n

Plus g\u00e9n\u00e9ralement, la robotique mobile en b\u00e9n\u00e9ficiera : avec les LLM, les mod\u00e8les sont trop gros et le temps de latence trop important : \u00e0 les employer, le robot aurait des mouvements saccad\u00e9s.<\/p>\n\n\n\n

Il est n\u00e9cessaire d\u2019avoir des mod\u00e8les plus rapides et petits pour pouvoir cr\u00e9er des robots bougeant de fa\u00e7on continue sans difficult\u00e9s.<\/p>\n\n\n\n

Vos travaux invitent \u00e0 nuancer l\u2019analogie biologique souvent mobilis\u00e9e pour justifier certains choix de conception en IA  \u2014 notamment ceux de l\u2019article duquel vous \u00eates partie pour votre propre travail. Comment percevez-vous l\u2019usage de ces m\u00e9taphores \u2014 et plus g\u00e9n\u00e9ralement du vocabulaire anthropomorphique comme thinking tokens<\/em>, reasoning<\/em> ou hallucinating<\/em> \u2014 lorsqu\u2019il s\u2019agit de d\u00e9crire le comportement des mod\u00e8les ?<\/h3>\n\n\n\n

Je pense que les m\u00e9taphores sont des raccourcis \u2014 imparfaits, certes, mais souvent utiles pour comprendre des id\u00e9es complexes. Par exemple, quand on parle de thinking token<\/em>, ce n\u2019est pas qu\u2019un mod\u00e8le \u00ab pense \u00bb r\u00e9ellement : il \u00e9crit simplement, mot par mot, un raisonnement qu\u2019un humain pourrait formuler. C\u2019est une fa\u00e7on de d\u00e9crire le processus, non une r\u00e9alit\u00e9.<\/p>\n\n\n\n

Bien entendu, ce genre de termes est parfois utilis\u00e9 pour rendre les technologies plus s\u00e9duisantes ; c\u2019est ce que font certaines startups ou entreprises.<\/p>\n\n\n\n

Malgr\u00e9 tout, ces m\u00e9taphores ont leur int\u00e9r\u00eat. Les concepts complexes sont plus faciles \u00e0 comprendre quand on les explique simplement, et les m\u00e9taphores peuvent aider \u00e0 cette simplification. Pour moi, parler de reasoning<\/em>, par exemple, rend le concept sous-jacent plus accessible et plus intuitif.<\/p>\n\n\n\n

C\u2019est quand on abuse de ces m\u00e9taphores que les probl\u00e8mes surgissent. Le papier duquel je suis partie \u00e9tait, \u00e0 mon sens, inutilement compliqu\u00e9 : il est en cela assez caract\u00e9ristique du monde acad\u00e9mique, o\u00f9 l\u2019on emploie des termes techniques ou biologiques que m\u00eame les chercheurs en neurosciences ne comprennent pas toujours. On ne peut pas pr\u00e9tendre savoir comment fonctionne le cerveau, ni affirmer que nos mod\u00e8les doivent forc\u00e9ment reproduire ce fonctionnement. C\u2019\u00e9tait aller un peu trop loin.<\/p>\n\n\n\n

En g\u00e9n\u00e9ral, les m\u00e9taphores et les raccourcis restent tr\u00e8s pratiques \u2014 tant qu\u2019on garde \u00e0 l\u2019esprit leurs limites.<\/p>\n\n\n\n

Quel est votre point de vue dans le d\u00e9bat entre ceux qui pensent que le scaling<\/em> a atteint ses limites et ceux qui estiment au contraire qu\u2019il continuera \u00e0 tenir ses promesses ? <\/h3>\n\n\n\n

Il y a un ralentissement tr\u00e8s net.<\/p>\n\n\n\n

La courbe de progression des mod\u00e8les ne cro\u00eet que logarithmiquement en fonction du temps et des avanc\u00e9es technologiques ; les rendements sont d\u00e9croissants. On a constat\u00e9 que les alimenter avec toujours davantage de donn\u00e9es venues d\u2019Internet ne rend pas les mod\u00e8les meilleurs sur des t\u00e2ches sp\u00e9cifiques. Du reste, on remarque aussi un probl\u00e8me li\u00e9 \u00e0 la qualit\u00e9 des donn\u00e9es : beaucoup de donn\u00e9es g\u00e9n\u00e9rales ne sont pas tr\u00e8s utiles. <\/p>\n\n\n\n

Avec les LLM, quand on ajoute des t\u00e2ches dans la base de donn\u00e9es d’entra\u00eenement pour en diversifier les situations et r\u00e9ponses-types, le mod\u00e8le devient meilleur pour le traitement de ces t\u00e2ches \u2014 mais cela ne veut pas dire qu\u2019il est vraiment capable de g\u00e9n\u00e9raliser.<\/p>\n\n\n\n

Autrement dit : il ne faut pas s\u2019attendre avec les LLM \u00e0 une IA parfaite<\/a>.<\/p>\n\n\n\n

\n \n \r\n \r\n \r\n \r\n \r\n <\/picture>\r\n \n <\/a>\n<\/figure>\n\n\n

Avec des mod\u00e8les sp\u00e9cialis\u00e9s, on sait davantage \u00e0 quoi s\u2019attendre.<\/p>\n\n\n\n

Il faut donc regarder ailleurs pour consid\u00e9rer de nouveaux paradigmes. En ce moment, trop d\u2019argent et de temps sont d\u00e9pens\u00e9s \u00e0 exploiter le syst\u00e8me existant plut\u00f4t qu’\u00e0 d\u00e9couvrir de nouvelles mani\u00e8res de faire. <\/p>\n\n\n\n

C\u2019est quand on abuse des m\u00e9taphores que les probl\u00e8mes surgissent.<\/p>Alexia Jolicoeur-Martineau<\/cite><\/blockquote><\/figure>\n\n\n\n

En mai dernier, Yann Le Cun a conseill\u00e9 aux chercheurs acad\u00e9miques, aux \u00e9tudiants souhaitant construire les mod\u00e8les de demain de \u00ab ne plus travailler plus sur les LLM \u00bb. Qu\u2019en pensez-vous ? Aujourd\u2019hui, quels sont les diff\u00e9rents enjeux  \u2014 barri\u00e8res \u00e0 l\u2019entr\u00e9e, co\u00fbts \u2014  de la recherche sur les nouvelles architectures ?<\/h3>\n\n\n\n

Je suis d\u2019accord avec ce que dit Yann Le Cun : en ce moment, on consacre une attention consid\u00e9rable aux LLM ; or, avec ceux-ci, une seule erreur dans la g\u00e9n\u00e9ration des tokens am\u00e8ne \u00e0 l\u2019\u00e9chec.<\/p>\n\n\n\n

L\u2019industrie b\u00e2tit en ce moment des cath\u00e9drales de syst\u00e8mes pour essayer de r\u00e9soudre ce probl\u00e8me de mani\u00e8re superficielle sans remettre en cause le paradigme. Par exemple, une des solutions a \u00e9t\u00e9 d\u2019introduire artificiellement des \u00ab wait \u00bb <\/span>7<\/sup><\/a><\/span><\/span> pendant la g\u00e9n\u00e9ration pour inciter le LLM \u00e0 faire une pause et r\u00e9fl\u00e9chir. \u00ab 1+1 = wait…2 \u00bb <\/span>8<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n

Beaucoup ont \u00e9t\u00e9 amen\u00e9s \u00e0 penser qu\u2019il n\u2019y avait plus rien \u00e0 explorer et que l\u2019exploitation unique du paradigme actuel des LLM nous m\u00e8nerait vers l’intelligence artificielle g\u00e9n\u00e9rale.<\/p>\n\n\n\n

Il n\u2019en sera rien.<\/p>\n\n\n\n

C’est pour cette raison qu’il faut toujours continuer d’essayer de d\u00e9couvrir de nouvelles fa\u00e7ons de faire. Explorer ces nouvelles voies est cependant difficile, car les incitations sont faibles.<\/p>\n\n\n\n

L\u2019id\u00e9e qu\u2019il faille absolument le plus gros mod\u00e8le pour atteindre son but est d\u00e9faitiste. Avoir moins de ressources peut \u00eatre un avantage dans la recherche pour d\u00e9couvrir de nouvelles fa\u00e7ons de faire, des moyens plus efficaces. Il n\u2019y a pas une unique mani\u00e8re de s\u2019y prendre.<\/p>\n\n\n\n

Pendant un an, j\u2019\u00e9tais moi aussi enthousiasm\u00e9e par les LLM, mais \u00e0 chaque fois que je les utilisais, sur des mol\u00e9cules \u2014 pour d\u00e9couvrir si elles pouvaient avoir des propri\u00e9t\u00e9s int\u00e9ressantes pour les \u00e9crans de t\u00e9l\u00e9phones \u2014 ou dans les jeux vid\u00e9o, j\u2019ai eu de moins bons r\u00e9sultats.<\/p>\n\n\n\n

Mon exp\u00e9rience est qu\u2019il est plus pertinent d’entra\u00eener ses propres petits mod\u00e8les pour beaucoup de situations.<\/p>\n\n\n\n

\n \n \r\n \r\n \r\n \r\n \r\n <\/picture>\r\n \n <\/a>\n<\/figure>\n\n\n

Vous \u00eates l\u2019unique autrice de votre article. C\u2019est assez notable car plut\u00f4t rare en IA en ce moment ; on peut songer au papier Gemini de Google <\/span>9<\/sup><\/a><\/span><\/span> o\u00f9 plus de 3000 auteurs sont cr\u00e9dit\u00e9s. Y-a-t-il une raison particuli\u00e8re pour l\u2019avoir \u00e9crit seule ?<\/h3>\n\n\n\n

C\u2019est ma femme qui m\u2019a vraiment pouss\u00e9e \u00e0 \u00e9crire cet article \u2014 quand elle a vu que ma courbe de citations baissait. Toutefois, lorsque les \u00e9toiles s\u2019alignent et qu\u2019on a une id\u00e9e claire en t\u00eate, on peut d\u00e9rouler le fil pour \u00e9crire seule. J\u2019ai aussi produit un autre article important de cette mani\u00e8re, \u00ab Relativistic GAN<\/em> \u00bb <\/span>10<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n

Geoffrey Hinton et Yoshua Bengio <\/span>11<\/sup><\/a><\/span><\/span> ont aussi \u00e9crit en solitaire quelques-uns de leurs tr\u00e8s bons articles.<\/p>\n\n\n\n

Ce sont des id\u00e9es qui leur sont venues d\u2019une fa\u00e7on intense.<\/p>\n\n\n\n

Quand tout va bien, l\u2019\u00e9criture est tr\u00e8s simple.<\/p>\n","protected":false},"excerpt":{"rendered":"

C\u2019est avec les LLM comme ChatGPT que l\u2019IA est entr\u00e9e dans nos vies.<\/p>\n

Mais ces mod\u00e8les montrent aujourd\u2019hui leurs limites  : la nouvelle fronti\u00e8re remplace le langage par le raisonnement.<\/p>\n

Dans un papier scientifique dont la publication a fait exploser la capitalisation de Samsung de plus de 60 milliards de dollars, Alexia Jolicoeur-Martineau propose un autre futur pour l\u2019IA  : les \u00ab  TRM  \u00bb.<\/p>\n

Explications.<\/p>\n","protected":false},"author":10,"featured_media":304956,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"templates\/post-interviews.php","format":"standard","meta":{"_acf_changed":true,"_trash_the_other_posts":false,"footnotes":""},"categories":[3412],"tags":[],"geo":[525],"class_list":["post-304953","post","type-post","status-publish","format-standard","hentry","category-puissances-de-lia","staff-victor-storchan","geo-ameriques"],"acf":[],"yoast_head":"\nIA : apr\u00e8s les LLM, les TRM sont-ils la future r\u00e9volution de l'IA ?<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"IA : apr\u00e8s les LLM, les TRM sont-ils la future r\u00e9volution de l'IA ?\" \/>\n<meta property=\"og:description\" content=\"C\u2019est avec les LLM comme ChatGPT que l\u2019IA est entr\u00e9e dans nos vies. Mais ces mod\u00e8les montrent aujourd\u2019hui leurs limites : la nouvelle fronti\u00e8re remplace le langage par le raisonnement. Dans un papier scientifique dont la publication a fait exploser la capitalisation de Samsung de plus de 60 milliards de dollars, Alexia Jolicoeur-Martineau propose un autre futur pour l\u2019IA : les \u00ab TRM \u00bb. Explications.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/\" \/>\n<meta property=\"og:site_name\" content=\"Le Grand Continent\" \/>\n<meta property=\"article:published_time\" content=\"2025-11-12T18:26:19+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-11-12T18:26:24+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/gc-glitchia-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1440\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Matheo Malik\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/gc-glitchia-scaled.jpg\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Matheo Malik\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"14 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/\",\"name\":\"IA : apr\u00e8s les LLM, les TRM sont-ils la future r\u00e9volution de l'IA ?\",\"isPartOf\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png\",\"datePublished\":\"2025-11-12T18:26:19+00:00\",\"dateModified\":\"2025-11-12T18:26:24+00:00\",\"author\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45\"},\"breadcrumb\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#primaryimage\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png\",\"contentUrl\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png\",\"width\":1024,\"height\":1536},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/legrandcontinent.eu\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Que sont les \u00ab TRM \u00bb ? Apr\u00e8s les LLM, comprendre la future r\u00e9volution de l’IA\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#website\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/\",\"name\":\"Le Grand Continent\",\"description\":\"L'\u00e9chelle pertinente\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/legrandcontinent.eu\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45\",\"name\":\"Matheo Malik\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g\",\"caption\":\"Matheo Malik\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"IA : apr\u00e8s les LLM, les TRM sont-ils la future r\u00e9volution de l'IA ?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/","og_locale":"fr_FR","og_type":"article","og_title":"IA : apr\u00e8s les LLM, les TRM sont-ils la future r\u00e9volution de l'IA ?","og_description":"C\u2019est avec les LLM comme ChatGPT que l\u2019IA est entr\u00e9e dans nos vies. Mais ces mod\u00e8les montrent aujourd\u2019hui leurs limites : la nouvelle fronti\u00e8re remplace le langage par le raisonnement. Dans un papier scientifique dont la publication a fait exploser la capitalisation de Samsung de plus de 60 milliards de dollars, Alexia Jolicoeur-Martineau propose un autre futur pour l\u2019IA : les \u00ab TRM \u00bb. Explications.","og_url":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/","og_site_name":"Le Grand Continent","article_published_time":"2025-11-12T18:26:19+00:00","article_modified_time":"2025-11-12T18:26:24+00:00","og_image":[{"width":2560,"height":1440,"url":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/gc-glitchia-scaled.jpg","type":"image\/jpeg"}],"author":"Matheo Malik","twitter_card":"summary_large_image","twitter_image":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/gc-glitchia-scaled.jpg","twitter_misc":{"\u00c9crit par":"Matheo Malik","Dur\u00e9e de lecture estim\u00e9e":"14 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/","url":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/","name":"IA : apr\u00e8s les LLM, les TRM sont-ils la future r\u00e9volution de l'IA ?","isPartOf":{"@id":"https:\/\/legrandcontinent.eu\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#primaryimage"},"image":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#primaryimage"},"thumbnailUrl":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png","datePublished":"2025-11-12T18:26:19+00:00","dateModified":"2025-11-12T18:26:24+00:00","author":{"@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45"},"breadcrumb":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#primaryimage","url":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png","contentUrl":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png","width":1024,"height":1536},{"@type":"BreadcrumbList","@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/11\/12\/que-sont-les-trm-apres-les-llm-comprendre-la-future-revolution-de-lia\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/legrandcontinent.eu\/fr\/"},{"@type":"ListItem","position":2,"name":"Que sont les \u00ab TRM \u00bb ? Apr\u00e8s les LLM, comprendre la future r\u00e9volution de l’IA"}]},{"@type":"WebSite","@id":"https:\/\/legrandcontinent.eu\/fr\/#website","url":"https:\/\/legrandcontinent.eu\/fr\/","name":"Le Grand Continent","description":"L'\u00e9chelle pertinente","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/legrandcontinent.eu\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Person","@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45","name":"Matheo Malik","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g","caption":"Matheo Malik"}}]}},"_links":{"self":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts\/304953","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/users\/10"}],"replies":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/comments?post=304953"}],"version-history":[{"count":8,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts\/304953\/revisions"}],"predecessor-version":[{"id":304968,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts\/304953\/revisions\/304968"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/media\/304956"}],"wp:attachment":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/media?parent=304953"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/categories?post=304953"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/tags?post=304953"},{"taxonomy":"geo","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/geo?post=304953"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}