{"id":282621,"date":"2025-06-10T08:02:36","date_gmt":"2025-06-10T06:02:36","guid":{"rendered":"https:\/\/legrandcontinent.eu\/fr\/?p=282621"},"modified":"2025-06-10T08:02:39","modified_gmt":"2025-06-10T06:02:39","slug":"ia-llm-marcus","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/","title":{"rendered":"\u00ab&#160;L\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si&#160;\u00bb&#160;: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d&rsquo;Apple"},"content":{"rendered":"\n<h3 class=\"wp-block-heading\">Un article publi\u00e9 ce week-end par Apple <strong>propose une quantification des capacit\u00e9s de raisonnement des LLMs qui semblent s\u2019effondrer au-del\u00e0 d\u2019un certain niveau de complexit\u00e9 des t\u00e2ches<\/strong>. <strong>Plusieurs observateurs parlent d\u2019un coup dur, un mur de complexit\u00e9 auquel se heurte la g\u00e9n\u00e9ration actuelle des grands mod\u00e8les de langage (LLMs)<\/strong>&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-1-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-1-282621' title='Les &lt;em&gt;Large Language Models&lt;\/em&gt; sont des mod\u00e8les d\u2019intelligence artificielle entra\u00een\u00e9s sur de vastes corpus de textes pour g\u00e9n\u00e9rer, compl\u00e9ter ou analyser du langage humain, se basant sur des corr\u00e9lations statistiques entre les mots.'><sup>1<\/sup><\/a><\/span><\/span>. Qu&rsquo;en pensez-vous&#160;?<\/h3>\n\n\n\n<p>Il ne s&rsquo;agit pas d&rsquo;un simple coup dur, mais d&rsquo;une mise au tapis, d&rsquo;autant que cet article n\u2019est pas un coup isol\u00e9. Il fait suite \u00e0 une autre recherche publi\u00e9e l&rsquo;ann\u00e9e derni\u00e8re par plusieurs des m\u00eames auteurs qui montrait d\u00e9j\u00e0 qu\u2019il est impossible de construire des agents fiables sans raisonnement formel et abstrait suffisamment d\u00e9velopp\u00e9&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-2-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-2-282621' title='Mirzadeh, Iman, Oncel Tuzel, Keivan Alizadeh, Samy Bengio, Hooman Shahrokhi, et Mehrdad Farajtabar. GSM-Symbolic&amp;#160;: Understanding the Limitations of Mathematical Reasoning in Large Language Models. Apple, n.d.'><sup>2<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Pourriez-vous r\u00e9sumer bri\u00e8vement l\u2019argument de l\u2019article&#160;?<\/h3>\n\n\n\n<p>Apple a test\u00e9 les capacit\u00e9s de \u00ab&#160;raisonnement&#160;\u00bb des intelligences artificielles actuelles, telles que ChatGPT, Claude ou DeepSeek. Si tous ces mod\u00e8les semblent intelligents au premier abord, ils \u00e9chouent totalement d\u00e8s que la complexit\u00e9 augmente. La force globale de l&rsquo;argumentation est ind\u00e9niable \u2014 m\u00eame s\u2019il y a une faiblesse int\u00e9ressante dans le nouvel argumentaire, la conclusion est sans appel.&nbsp;<\/p>\n\n\n\n<p>Aucun des mod\u00e8les fond\u00e9s sur des LLMs ne fait preuve d&rsquo;un raisonnement v\u00e9ritable. Il ne s\u2019agit que de syst\u00e8mes extr\u00eamement co\u00fbteux de reconnaissance de motifs qui s\u2019effondrent d\u00e8s qu\u2019on les confronte \u00e0 des situations en dehors de leur zone d&rsquo;entra\u00eenement.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">S&rsquo;agit-il d\u2019une impasse structurelle des LLMs pour certaines applications&#160;?<\/h3>\n\n\n\n<p>En effet, toutes les recherches s\u00e9rieuses montrent d\u00e9sormais que les grands mod\u00e8les de langage ne raisonnent pas de la m\u00eame mani\u00e8re que les humains. Ils peuvent \u00ab&#160;r\u00e9fl\u00e9chir davantage&#160;\u00bb \u2014 mais seulement jusqu\u2019\u00e0 un certain point.&nbsp;<\/p>\n\n\n\n<p>Au-del\u00e0 d&rsquo;un certain seuil, ils abandonnent rapidement, m\u00eame s\u2019ils disposent encore de ressources de calcul en quantit\u00e9 plus que suffisante.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>Aucun des mod\u00e8les fond\u00e9s sur des LLMs ne fait preuve d&rsquo;un raisonnement v\u00e9ritable.<\/p><cite>Gary Marcus<\/cite><\/blockquote><\/figure>\n\n\n\n<p>M\u00eame lorsqu&rsquo;on leur fournit l\u2019algorithme exact \u00e0 suivre \u2014 les r\u00e8gles pour r\u00e9soudre une t\u00e2che complexe \u2014, ces mod\u00e8les ont tendance \u00e0 tr\u00e8s mal l\u2019ex\u00e9cuter. Cela met en lumi\u00e8re une distinction essentielle&#160;: ex\u00e9cuter ne signifie pas comprendre.&nbsp;<\/p>\n\n\n\n<p>Le probl\u00e8me ne r\u00e9side pas dans un manque de cr\u00e9ativit\u00e9, mais dans une d\u00e9faillance logique fondamentale. Les mod\u00e8les ont tendance \u00e0 \u00ab&#160;trop r\u00e9fl\u00e9chir&#160;\u00bb \u00e0 des probl\u00e8mes simples et \u00e0 tester de mauvaises r\u00e9ponses m\u00eame apr\u00e8s avoir trouv\u00e9 la bonne. Et face \u00e0 des probl\u00e8mes plus difficiles, ils r\u00e9fl\u00e9chissent moins. Il en r\u00e9sulte un gaspillage de ressources de calcul d\u2019un c\u00f4t\u00e9 et un abandon pr\u00e9matur\u00e9 de l\u2019autre.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Comment cette nouvelle \u00e9tude \u2014 qui prolonge l\u2019analyse critique du paradigme actuel<a href=\"https:\/\/legrandcontinent.eu\/fr\/2023\/04\/28\/limites-dun-systeme-comment-debloquer-lia\/\"> que nous publions d\u00e9j\u00e0 en 2023 dans nos pages<\/a> \u2014 s\u2019inscrit-elle, selon vous, dans le d\u00e9bat sur la capacit\u00e9 des LLMs \u00e0 g\u00e9n\u00e9raliser \u00e0 des situations radicalement nouvelles&#160;?<\/h3>\n\n\n\n<p>D&rsquo;une part, cette recherche fait \u00e9cho et amplifie l\u2019argument sur la distribution d\u2019entra\u00eenement que je d\u00e9veloppe depuis 1998&#160;: les r\u00e9seaux neuronaux, sous diverses formes, peuvent g\u00e9n\u00e9raliser \u00e0 l\u2019int\u00e9rieur de la distribution de donn\u00e9es sur laquelle ils ont \u00e9t\u00e9 entra\u00een\u00e9s, mais leurs g\u00e9n\u00e9ralisations ont tendance \u00e0 s\u2019effondrer en dehors de cette distribution.&nbsp;<\/p>\n\n\n\n<p>C\u2019\u00e9tait le c\u0153ur d\u2019un article que j\u2019avais publi\u00e9 en 1998, dans lequel je critiquais les perceptrons multicouches (<em>multilayer perceptrons<\/em>) \u2014 les anc\u00eatres des mod\u00e8les de langage actuels \u2014 en montrant leurs \u00e9checs hors distribution sur des t\u00e2ches simples de calcul et de pr\u00e9diction de phrases&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-3-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-3-282621' title='Gary F. Marcus, \u00ab&amp;#160;Rethinking Eliminative Connectionism&amp;#160;\u00bb, &lt;a href=&quot;https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0010028598906946&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Cognitive Psychology&lt;\/a&gt;, Volume 37, Issue 3, 1998, Pages 243-282, ISSN 0010-0285.'><sup>3<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>Il existe une distinction essentielle dans l\u2019IA g\u00e9n\u00e9rative&#160;: ex\u00e9cuter ne signifie pas comprendre.<\/p><cite>Gary Marcus<\/cite><\/blockquote><\/figure>\n\n\n\n<p>Ce fut \u00e9galement l\u2019axe central de mon premier livre, <em>The Algebraic Mind<\/em> (2001)&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-4-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-4-282621' title='Gary F. Marcus, &lt;em&gt;The Algebraic Mind Integrating Connectionism and Cognitive Science&lt;\/em&gt;, MIT Press, 2001.'><sup>4<\/sup><\/a><\/span><\/span>, qui \u00e9largissait cette critique, ainsi que de mon premier article dans <em>Science<\/em> (1999)&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-5-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-5-282621' title='Marcus, Gary F., S. Vijayan, S. Bandi Rao, and Peter M. Vishton. \u00ab&amp;#160;Rule Learning by Seven-Month-Old Infants.&amp;#160;\u00bb &lt;em&gt;Science&lt;\/em&gt; 283, no. 5398 (1999)&amp;#160;: 77\u201380.'><sup>5<\/sup><\/a><\/span><\/span>, o\u00f9 j\u2019ai d\u00e9montr\u00e9, \u00e0 travers une exp\u00e9rience, que des nourrissons de sept mois pouvaient extrapoler d\u2019une mani\u00e8re que les r\u00e9seaux neuronaux de l\u2019\u00e9poque \u00e9taient incapables de r\u00e9pliquer. C\u2019\u00e9tait aussi la motivation principale de <em>Deep Learning&#160;: Critical Appraisal<\/em> (2018)&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-6-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-6-282621' title='Gary Marcus, &lt;a href=&quot;https:\/\/www.researchgate.net\/publication\/322220859_Deep_Learning_A_Critical_Appraisal&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;&lt;em&gt;Deep Learning&amp;#160;: Critical Appraisal&lt;\/em&gt;&lt;\/a&gt;, 2018&lt;em&gt;.&lt;\/em&gt;'><sup>6<\/sup><\/a><\/span><\/span>, puis de <em>Deep Learning is Hitting a Wall<\/em> (2022)&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-7-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-7-282621' title='Gary Marcus, \u00ab&amp;#160;Deep Learning Is Hitting a Wall. What would it take for artificial intelligence to make real progress&amp;#160;?&amp;#160;\u00bb, &lt;a href=&quot;https:\/\/nautil.us\/deep-learning-is-hitting-a-wall-238440\/&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Nautilus&lt;\/a&gt;, 10 mars 2022.'><sup>7<\/sup><\/a><\/span><\/span>. J\u2019ai identifi\u00e9 cette limite l\u2019an dernier encore comme la faiblesse la plus importante \u2014 et la plus importante \u00e0 comprendre \u2014 des LLMs.&nbsp;<\/p>\n\n\n\n<p>Cela fait donc un certain temps que je travaille sur ce sujet\u2026<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">L&rsquo;article s\u2019appuie \u00e9galement sur le travail de<a href=\"https:\/\/cotopaxi.eas.asu.edu\/\"> Subbarao Kambhampati<\/a>, chercheur en informatique de l\u2019Arizona State University.<\/h3>\n\n\n\n<p>Oui, et je veux le souligner. Cette recherche ne fait pas simplement \u00e9cho aux arguments que Rao d\u00e9veloppe depuis plusieurs ann\u00e9es, mais les renforce.<\/p>\n\n\n\n<p>Il s\u2019agit des critiques sur les mod\u00e8les dits de \u00ab&#160;raisonnement&#160;\u00bb et les fameuses \u00ab&#160;cha\u00eenes de pens\u00e9e&#160;\u00bb (<em>CoT<\/em>) qu\u2019ils produisent qui semblent bien moins solides qu\u2019on ne le pr\u00e9tend.<\/p>\n\n\n\n<p>Pour ceux qui ne sont pas familiers du concept, une \u00ab&#160;cha\u00eene de pens\u00e9e&#160;\u00bb est, grossi\u00e8rement, ce que le syst\u00e8me pr\u00e9tend avoir \u00ab&#160;raisonn\u00e9&#160;\u00bb pour arriver \u00e0 une r\u00e9ponse, dans les cas o\u00f9 il effectue plusieurs \u00e9tapes de r\u00e9flexion. Les \u00ab&#160;mod\u00e8les de raisonnement&#160;\u00bb d\u00e9signent quant \u00e0 eux la nouvelle g\u00e9n\u00e9ration de tentatives pour contourner les limites structurelles des LLMs, en les for\u00e7ant \u00e0 \u00ab&#160;raisonner&#160;\u00bb dans le temps, <em>via<\/em> une technique appel\u00e9e <em>inference-time compute<\/em> (calcul au moment de l\u2019inf\u00e9rence).&nbsp;<\/p>\n\n\n\n<p>Rao n\u2019a jamais \u00e9t\u00e9 convaincu par cet argument.&nbsp;<\/p>\n\n\n\n<p>Il a \u00e9crit une s\u00e9rie d\u2019articles brillants montrant, entre autres, que les cha\u00eenes de pens\u00e9e g\u00e9n\u00e9r\u00e9es par les LLMs ne correspondent pas toujours \u00e0 ce que ces mod\u00e8les font r\u00e9ellement. R\u00e9cemment, par exemple, il a observ\u00e9 que nous avons tendance \u00e0 sur-anthropomorphiser les traces de raisonnement des LLMs, en parlant de \u00ab&#160;pens\u00e9e&#160;\u00bb l\u00e0 o\u00f9 ce terme ne para\u00eet pas ad\u00e9quat&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-8-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-8-282621' title='Subbarao Kambhampati et al. &lt;em&gt;Stop Anthropomorphizing Intermediate Tokens as Reasoning\/Thinking Traces&amp;#160;!&lt;\/em&gt; School of Computing &amp;amp; AI, &lt;a href=&quot;https:\/\/arxiv.org\/pdf\/2504.09762&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Arizona State University&lt;\/a&gt;.'><sup>8<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>Un autre de ses articles r\u00e9cents montre que m\u00eame lorsque les cha\u00eenes de raisonnement semblent correctes, les r\u00e9ponses finales, elles, ne le sont pas forc\u00e9ment&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-9-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-9-282621' title='Bhambri Siddhant, Upasana Biswas et Subbarao Kambhampati, &lt;a href=&quot;https:\/\/arxiv.org\/pdf\/2505.13792&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Interpretable Traces, Unexpected Outcomes&amp;#160;: Investigating the Disconnect in Trace-Based Knowledge Distillation&lt;\/a&gt;.'><sup>9<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>Rao a d\u2019ailleurs sans doute \u00e9t\u00e9 le premier \u00e0 d\u00e9montrer que l\u2019un de ces \u00ab&#160;mod\u00e8les de raisonnement&#160;\u00bb \u2014 en l\u2019occurrence o1 \u2014 souffrait du genre de probl\u00e8me que le rapport d\u2019Apple documente aujourd\u2019hui&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-10-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-10-282621' title='Valmeekam Karthik, Kaya Stechly, Atharva Gundawar et Subbarao Kambhampati. \u00ab&amp;#160;A Systematic Evaluation of the Planning and Scheduling Abilities of the Reasoning Model o1.&amp;#160;\u00bb &lt;em&gt;Transactions on Machine Learning Research&lt;\/em&gt;, avril 2025.'><sup>10<\/sup><\/a><\/span><\/span>. Je conseille \u00e0 tout le monde de lire son travail.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Le papier d\u2019Apple reprend la critique de Rao et la v\u00f4tre en se concentrant notamment sur un probl\u00e8me classique assez simple&#160;: la tour de Hano\u00ef. De quoi s\u2019agit-il&#160;?<\/h3>\n\n\n\n<p>Il s&rsquo;agit d&rsquo;un jeu classique compos\u00e9 de trois tiges et de plusieurs disques de tailles diff\u00e9rentes&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-11-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-11-282621' title='Jouer \u00e0 la Tour de Hano\u00ef &lt;a href=&quot;https:\/\/www.mathsisfun.com\/games\/towerofhanoi.html&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;ici&lt;\/a&gt;.'><sup>11<\/sup><\/a><\/span><\/span>. L\u2019objectif est de d\u00e9placer tous les disques de la tige de gauche vers celle de droite, en respectant une r\u00e8gle essentielle&#160;: il est interdit de placer un disque plus grand sur un disque plus petit.<\/p>\n\n\n\n<p>Si vous ne connaissez pas encore ce jeu, il faut un tout petit moment pour comprendre son fonctionnement.<\/p>\n\n\n\n<p>Avec un peu de pratique, un enfant de sept ans intelligent et patient peut y arriver \u2014 et pour un ordinateur, c\u2019est un exercice qui ne pr\u00e9sente aucune difficult\u00e9. N\u2019importe quel \u00e9tudiant en premi\u00e8re ann\u00e9e d\u2019informatique devrait \u00eatre capable de r\u00e9aliser un programme qui pourrait syst\u00e9matiquement r\u00e9soudre le jeu.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>La probabilit\u00e9 que des mod\u00e8les comme Claude ou o3 atteignent un jour l\u2019intelligence artificielle g\u00e9n\u00e9rale (AGI) para\u00eet \u2014 au mieux \u2014 tr\u00e8s \u00e9loign\u00e9e.<\/p><cite>Gary Marcus<\/cite><\/blockquote><\/figure>\n\n\n\n<p>Or les mod\u00e8les les plus r\u00e9cents comme Claude peinent d\u00e9j\u00e0 \u00e0 r\u00e9soudre le probl\u00e8me avec 7 disques \u2014 atteignant moins de 80&#160;% de pr\u00e9cision \u2014 et sont pratiquement incapables de r\u00e9ussir avec 8 disques.<\/p>\n\n\n\n<p>Apple a constat\u00e9 que m\u00eame le tr\u00e8s appr\u00e9ci\u00e9 o3-min (high) ne faisait pas mieux et a observ\u00e9 des r\u00e9sultats similaires sur plusieurs autres t\u00e2ches.<\/p>\n\n\n\n<p>Il est v\u00e9ritablement embarrassant que les LLMs ne parviennent toujours pas \u00e0 r\u00e9soudre de fa\u00e7on fiable un probl\u00e8me aussi trivial que la tour de Hano\u00ef. Et ce, alors qu\u2019il existe de nombreuses biblioth\u00e8ques de code source disponibles gratuitement sur le web&#160;!<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Qu\u2019est-ce que cela dit de l\u2019intelligence des LLMs&#160;?<\/h3>\n\n\n\n<p>Si l\u2019on ne peut pas utiliser un syst\u00e8me d\u2019IA \u00e0 plusieurs milliards de dollars pour r\u00e9soudre un probl\u00e8me que Herbert Simon \u2014 l\u2019un des v\u00e9ritables \u00ab&#160;p\u00e8res fondateurs&#160;\u00bb de l\u2019IA \u2014 a r\u00e9solu d\u00e8s 1957 et que des \u00e9tudiants de premi\u00e8re ann\u00e9e en intelligence artificielle r\u00e9solvent sans probl\u00e8me alors la probabilit\u00e9 que des mod\u00e8les comme Claude ou o3 atteignent un jour l\u2019intelligence artificielle g\u00e9n\u00e9rale (AGI)&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-12-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-12-282621' title='L\u2019AGI (Artificial General Intelligence) d\u00e9signe une forme d\u2019intelligence artificielle capable de comprendre, d\u2019apprendre et d\u2019accomplir toute t\u00e2che cognitive qu\u2019un \u00eatre humain peut r\u00e9aliser, avec un niveau de performance \u00e9gal ou sup\u00e9rieur.'><sup>12<\/sup><\/a><\/span><\/span> para\u00eet \u2014 au mieux \u2014 tr\u00e8s \u00e9loign\u00e9e.<\/p>\n\n\n\n<p>L\u2019un des coauteurs de la recherche, Iman Mirzadeh, a attir\u00e9 mon attention sur la section 4.4 de l\u2019article<\/p>\n\n\n\n<p>Les chercheurs avaient fourni l\u2019algorithme de solution au mod\u00e8le qui n\u2019avait plus qu\u2019\u00e0 suivre les \u00e9tapes pour r\u00e9soudre le probl\u00e8me. Or m\u00eame dans ce contexte, ses performances ne s&rsquo;\u00e9taient pas am\u00e9lior\u00e9es. Il a comment\u00e9 ce paradoxe ainsi&#160;: \u00ab&#160;Notre argument n\u2019est donc pas&#160;: \u2018Les humains n\u2019ont pas de limites, mais les mod\u00e8les de raisonnement linguistique (LRMs) en ont, donc ils ne sont pas intelligents\u2019. Mais plut\u00f4t&#160;: \u2018ce que l\u2019on observe de leur raisonnement ne ressemble ni \u00e0 un processus logique, ni \u00e0 une forme d\u2019intelligence\u2019&#160;\u00bb.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>L\u2019objectif de l\u2019AGI ne devrait pas \u00eatre de r\u00e9pliquer parfaitement l\u2019humain, mais de combiner le meilleur des deux mondes&#160;: l\u2019adaptabilit\u00e9 humaine avec la force brute et la fiabilit\u00e9 computationnelle.<\/p><cite>Gary Marcus<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Vous dites avoir remarqu\u00e9 un point critique dans l\u2019article, lequel&#160;?<\/h3>\n\n\n\n<p>Il s\u2019agit d\u2019une faiblesse qui a \u00e9t\u00e9 bien expos\u00e9e par un compte anonyme sur X \u2014&nbsp;ce qui, en g\u00e9n\u00e9ral, n\u2019est pas une source r\u00e9put\u00e9e pour ses bons arguments\u2026&nbsp;<\/p>\n\n\n\n<p>Elle est la suivante&#160;: les humains ordinaires pr\u00e9sentent eux aussi un certain nombre de limites, qui ressemblent \u00e0 celles mises en \u00e9vidence par l\u2019\u00e9quipe d\u2019Apple pour les LLMs. Beaucoup de personnes \u2014 pas toutes \u2014 se trompent en essayant de r\u00e9soudre des versions de la tour de Hano\u00ef avec 8 disques.<\/p>\n\n\n\n<p>Mais justement, nous avons une r\u00e9ponse \u00e0 cette faille. Nous avons invent\u00e9 les ordinateurs \u2014 et avant les calculatrices \u2014 pr\u00e9cis\u00e9ment pour r\u00e9soudre de mani\u00e8re fiable des probl\u00e8mes complexes, fastidieux ou de plus ou moins grande ampleur, comme la Tour de Hanoi.<\/p>\n\n\n\n<p>L\u2019objectif de l\u2019AGI ne devrait pas \u00eatre de r\u00e9pliquer parfaitement l\u2019humain, mais \u2014 comme je l\u2019ai souvent moi-m\u00eame dit \u2014 de combiner le meilleur des deux mondes&#160;: l\u2019adaptabilit\u00e9 humaine avec la force brute et la fiabilit\u00e9 computationnelle.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Vous pensez qu\u2019avec les LLMs, on risque de combiner le pire des deux mondes&#160;?<\/h3>\n\n\n\n<p>La vision que j\u2019ai toujours eue de l\u2019AGI est celle d\u2019un syst\u00e8me qui allie les forces humaines et celles de la machine, tout en d\u00e9passant les faiblesses humaines. Une AGI incapable de faire une addition correcte ne m\u2019int\u00e9resse pas. Et je ne voudrais certainement pas confier l\u2019infrastructure mondiale ou l\u2019avenir de l\u2019humanit\u00e9 \u00e0 un tel syst\u00e8me.<\/p>\n\n\n\n<p>Nous ne voulons pas d\u2019une AGI qui oublie de retenir une unit\u00e9 dans une addition \u00e9l\u00e9mentaire sous pr\u00e9texte que les humains font parfois la m\u00eame erreur \u2014 bonne chance dans ce cas pour obtenir un v\u00e9ritable \u00ab&#160;alignement&#160;\u00bb ou \u00ab&#160;s\u00e9curit\u00e9&#160;\u00bb sans fiabilit\u00e9&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-13-282621' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#easy-footnote-bottom-13-282621' title='L\u2019alignement en intelligence artificielle d\u00e9signe le fait de s\u2019assurer qu\u2019un syst\u00e8me d\u2019IA poursuit des objectifs compatibles avec les intentions, les valeurs et les int\u00e9r\u00eats des humains qui l\u2019utilisent ou le d\u00e9ploient.'><sup>13<\/sup><\/a><\/span><\/span>&#160;!<\/p>\n\n\n\n<p>Au passage, les mod\u00e8les comme o3 commettent bien plus souvent des erreurs dues \u00e0 l&rsquo;hallucination et peinent lourdement \u00e0 dessiner des sch\u00e9mas fiables. Ils partagent certaines faiblesses humaines, mais ils sont simplement moins bons sur plusieurs aspects. Et si les humains \u00e9chouent, c\u2019est souvent par manque de m\u00e9moire&#160;; les LLMs, eux, disposent de gigaoctets de m\u00e9moire, ils n\u2019ont donc aucune excuse.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>L\u2019enthousiasme autour des LLMs vous semble-t-il d\u00e9tourner l\u2019IA de son v\u00e9ritable potentiel scientifique \u2014 celui, notamment, d\u2019une alliance entre raisonnement causal et puissance de calcul&#160;?<\/strong><\/h3>\n\n\n\n<p>Ce qui est \u00e9vident c\u2019est que nous n\u2019allons pas \u00ab&#160;extraire le c\u00f4ne de lumi\u00e8re&#160;\u00bb de la Terre ou \u00ab&#160;r\u00e9soudre la physique&#160;\u00bb quoi que puissent signifier ces d\u00e9clarations pr\u00e9tentieuses de Sam Altman avec des syst\u00e8mes incapables de jouer \u00e0 la Tour de Hano\u00ef avec 8 disques.<\/p>\n\n\n\n<p>Quand on me demande pourquoi \u2014 contrairement \u00e0 ce qu\u2019on dit \u2014 j\u2019aime l\u2019IA, et pourquoi je pense que l\u2019IA \u2014&nbsp;mais pas l\u2019IA g\u00e9n\u00e9rative \u2014 pourrait, \u00e0 terme, b\u00e9n\u00e9ficier profond\u00e9ment \u00e0 l\u2019humanit\u00e9, je cite toujours le potentiel de progr\u00e8s scientifiques et technologiques que nous pourrions accomplir si l\u2019on parvenait \u00e0 combiner les capacit\u00e9s de raisonnement causal de nos meilleurs scientifiques avec la puissance de calcul brut des ordinateurs num\u00e9riques modernes.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>Nous ne voulons pas d\u2019une IA qui oublie de retenir une unit\u00e9 dans une addition \u00e9l\u00e9mentaire sous pr\u00e9texte que les humains font parfois la m\u00eame erreur.<\/p><cite>Gary Marcus<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Quelles seront les cons\u00e9quences de cette progressive prise de conscience des limites de l\u2019actuelle g\u00e9n\u00e9ration de mod\u00e8les&#160;?<\/strong><\/h3>\n\n\n\n<p>Ce que montre le papier d\u2019Apple, de mani\u00e8re fondamentale \u2014 quelle que soit la fa\u00e7on dont on d\u00e9finit l\u2019AGI \u2014, c\u2019est que les LLMs ne sont pas un substitut aux bons algorithmes conventionnels bien sp\u00e9cifi\u00e9s.<\/p>\n\n\n\n<p>Les LLMs ne savent pas jouer aux \u00e9checs aussi bien que les algorithmes classiques, ne peuvent pas replier des prot\u00e9ines aussi efficacement que certains hybrides neurosymboliques sp\u00e9cialis\u00e9s, ne g\u00e8rent pas les bases de donn\u00e9es aussi bien que les moteurs con\u00e7us pour cela\u2026 Dans le meilleur des cas \u2014 qui n\u2019est pas toujours atteint \u2014, ils peuvent \u00e9crire du code Python, en s\u2019appuyant sur des blocs de code symboliques externes pour compenser leurs propres faiblesses \u2014 mais m\u00eame cela n\u2019est pas fiable.<\/p>\n\n\n\n<p>La principale cons\u00e9quence pour les entreprises et la soci\u00e9t\u00e9 que je vois est la suivante&#160;: on ne peut pas simplement \u00ab&#160;brancher&#160;\u00bb o3 ou Claude sur un probl\u00e8me complexe et s\u2019attendre \u00e0 ce que cela fonctionne de mani\u00e8re robuste.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Ne cherche-t-on pas \u00e0 se rassurer&#160;?\u00a0 L\u2019usage des LLMs n\u2019a jamais \u00e9t\u00e9 aussi grand. <\/strong><a href=\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/05\/aux-etats-unis-chatgpt-est-plus-utilise-que-wikipedia\/\"><strong>Plus de personnes utilisent d\u00e9sormais ChatGPT que Wikipedia<\/strong><\/a><strong>\u2026<\/strong><\/h3>\n\n\n\n<p>Comme le montre le dernier article d\u2019Apple, les LLMs peuvent tr\u00e8s bien r\u00e9ussir sur un jeu de tests simple \u2014 comme la Tour de Hano\u00ef \u00e0 4 disques \u2014, et vous donner l\u2019illusion d\u2019avoir appris une solution g\u00e9n\u00e9ralisable, alors que ce n\u2019est pas du tout le cas.<\/p>\n\n\n\n<p>Au moins pour la prochaine d\u00e9cennie, les LLMs \u2014 avec ou sans \u00ab&#160;raisonnement&#160;\u00bb au moment de l\u2019inf\u00e9rence \u2014 continueront d&rsquo;\u00eatre utiles, notamment pour le code, le <em>brainstorming<\/em> et la r\u00e9daction de textes. Et comme, me le disait r\u00e9cemment Rao&#160;: \u00ab&#160;Le fait que les LLMs\/LRMs n\u2019apprennent pas de mani\u00e8re fiable un seul algorithme sous-jacent n\u2019est pas un obstacle absolu \u00e0 leur utilisation. Je vois les LRMs comme des syst\u00e8mes qui apprennent \u00e0 approximer le d\u00e9roulement d\u2019un algorithme en allongeant progressivement le raisonnement \u00e0 l\u2019inf\u00e9rence.&#160;\u00bb Dans certains contextes, cela suffit. Dans d\u2019autres, non.<\/p>\n\n\n\n<p>Mais toute personne qui pense que les LLMs repr\u00e9sentent un chemin direct vers une AGI capable de transformer radicalement la soci\u00e9t\u00e9 pour le bien commun se berce d\u2019illusions.<br>Cela ne signifie pas que les r\u00e9seaux neuronaux sont morts, ni que le <em>deep learning<\/em> est arriv\u00e9 \u00e0 sa fin.<\/p>\n\n\n\n<p>Les LLMs ne sont qu\u2019une forme possible de <em>deep learning<\/em>, et peut-\u00eatre que d\u2019autres \u2014 en particulier ceux qui collaborent mieux avec des repr\u00e9sentations symboliques \u2014 s\u2019en sortiront mieux \u00e0 l\u2019avenir. Le temps le dira.<\/p>\n\n\n\n<p>Mais cette approche actuelle a des limites qui deviennent chaque jour plus \u00e9videntes.<\/p>\n\n\n\n<p>L\u2019IA ne se heurte pas \u00e0 un mur.&nbsp;<\/p>\n\n\n\n<p>Mais les LLMs, probablement si \u2014 ou du moins ils atteignent un point de rendements d\u00e9croissants.&nbsp;<\/p>\n\n\n\n<p>Nous avons besoin de nouvelles approches, et de diversifier les voies qui sont explor\u00e9es activement.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un papier publi\u00e9 par Apple vient de bouleverser l\u2019intelligence artificielle. <\/p>\n<p>Les capacit\u00e9s de raisonnement des mod\u00e8les actuels peuvent s\u2019effondrer compl\u00e8tement au-del\u00e0 d\u2019un certain niveau de difficult\u00e9. Ces mod\u00e8les semblent \u00ab&#160;&#160;abandonner&#160;&#160;\u00bb l\u2019effort de raisonnement quand la t\u00e2che devient trop dure \u2014 m\u00eame s\u2019ils disposent des ressources n\u00e9cessaires. <\/p>\n<p>Gary Marcus replace ces limitations dans le prolongement de ses analyses pass\u00e9es et en expose certaines des causes profondes.<\/p>\n","protected":false},"author":10,"featured_media":282622,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"templates\/post-interviews.php","format":"standard","meta":{"_acf_changed":false,"_trash_the_other_posts":false,"footnotes":""},"categories":[3412],"tags":[],"staff":[4292,2457],"editorial_format":[],"serie":[],"audience":[],"geo":[525],"class_list":["post-282621","post","type-post","status-publish","format-standard","hentry","category-puissances-de-lia","staff-gary-marcus","staff-victor-storchan","geo-ameriques"],"acf":{"open_in_webview":false,"accent":false},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>\u00abL\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si\u00bb: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d&#039;Apple | Le Grand Continent<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"\u00abL\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si\u00bb: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d&#039;Apple | Le Grand Continent\" \/>\n<meta property=\"og:description\" content=\"Un papier publi\u00e9 par Apple vient de bouleverser l\u2019intelligence artificielle.   Les capacit\u00e9s de raisonnement des mod\u00e8les actuels peuvent s\u2019effondrer compl\u00e8tement au-del\u00e0 d\u2019un certain niveau de difficult\u00e9. Ces mod\u00e8les semblent \u00ab&#160;abandonner&#160;\u00bb l\u2019effort de raisonnement quand la t\u00e2che devient trop dure \u2014 m\u00eame s\u2019ils disposent des ressources n\u00e9cessaires.   Gary Marcus replace ces limitations dans le prolongement de ses analyses pass\u00e9es et en expose certaines des causes profondes.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/\" \/>\n<meta property=\"og:site_name\" content=\"Le Grand Continent\" \/>\n<meta property=\"article:published_time\" content=\"2025-06-10T06:02:36+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-06-10T06:02:39+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/gc-marcus-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1436\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Matheo Malik\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/gc-marcus-scaled.jpg\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Matheo Malik\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"14 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/\",\"name\":\"\u00abL\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si\u00bb: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d'Apple | Le Grand Continent\",\"isPartOf\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/PSM_V26_D464_The_tower_of_hanoi.jpg\",\"datePublished\":\"2025-06-10T06:02:36+00:00\",\"dateModified\":\"2025-06-10T06:02:39+00:00\",\"author\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45\"},\"breadcrumb\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#primaryimage\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/PSM_V26_D464_The_tower_of_hanoi.jpg\",\"contentUrl\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/PSM_V26_D464_The_tower_of_hanoi.jpg\",\"width\":1167,\"height\":1728,\"caption\":\"Grabado del juego de la Torre de Hanoi inventado por el matem\u00e1tico \u00c9douard Lucas.\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/legrandcontinent.eu\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"\u00ab&#160;L\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si&#160;\u00bb&#160;: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d&rsquo;Apple\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#website\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/\",\"name\":\"Le Grand Continent\",\"description\":\"L&#039;\u00e9chelle pertinente\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/legrandcontinent.eu\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45\",\"name\":\"Matheo Malik\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g\",\"caption\":\"Matheo Malik\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"\u00abL\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si\u00bb: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d'Apple | Le Grand Continent","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/","og_locale":"fr_FR","og_type":"article","og_title":"\u00abL\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si\u00bb: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d'Apple | Le Grand Continent","og_description":"Un papier publi\u00e9 par Apple vient de bouleverser l\u2019intelligence artificielle.   Les capacit\u00e9s de raisonnement des mod\u00e8les actuels peuvent s\u2019effondrer compl\u00e8tement au-del\u00e0 d\u2019un certain niveau de difficult\u00e9. Ces mod\u00e8les semblent \u00ab&#160;abandonner&#160;\u00bb l\u2019effort de raisonnement quand la t\u00e2che devient trop dure \u2014 m\u00eame s\u2019ils disposent des ressources n\u00e9cessaires.   Gary Marcus replace ces limitations dans le prolongement de ses analyses pass\u00e9es et en expose certaines des causes profondes.","og_url":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/","og_site_name":"Le Grand Continent","article_published_time":"2025-06-10T06:02:36+00:00","article_modified_time":"2025-06-10T06:02:39+00:00","og_image":[{"width":2560,"height":1436,"url":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/gc-marcus-scaled.jpg","type":"image\/jpeg"}],"author":"Matheo Malik","twitter_card":"summary_large_image","twitter_image":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/gc-marcus-scaled.jpg","twitter_misc":{"\u00c9crit par":"Matheo Malik","Dur\u00e9e de lecture estim\u00e9e":"14 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/","url":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/","name":"\u00abL\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si\u00bb: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d'Apple | Le Grand Continent","isPartOf":{"@id":"https:\/\/legrandcontinent.eu\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#primaryimage"},"image":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#primaryimage"},"thumbnailUrl":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/PSM_V26_D464_The_tower_of_hanoi.jpg","datePublished":"2025-06-10T06:02:36+00:00","dateModified":"2025-06-10T06:02:39+00:00","author":{"@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45"},"breadcrumb":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#primaryimage","url":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/PSM_V26_D464_The_tower_of_hanoi.jpg","contentUrl":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2025\/06\/PSM_V26_D464_The_tower_of_hanoi.jpg","width":1167,"height":1728,"caption":"Grabado del juego de la Torre de Hanoi inventado por el matem\u00e1tico \u00c9douard Lucas."},{"@type":"BreadcrumbList","@id":"https:\/\/legrandcontinent.eu\/fr\/2025\/06\/10\/ia-llm-marcus\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/legrandcontinent.eu\/fr\/"},{"@type":"ListItem","position":2,"name":"\u00ab&#160;L\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si&#160;\u00bb&#160;: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d&rsquo;Apple"}]},{"@type":"WebSite","@id":"https:\/\/legrandcontinent.eu\/fr\/#website","url":"https:\/\/legrandcontinent.eu\/fr\/","name":"Le Grand Continent","description":"L&#039;\u00e9chelle pertinente","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/legrandcontinent.eu\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Person","@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45","name":"Matheo Malik","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g","caption":"Matheo Malik"}}]}},"term_position_data":null,"_links":{"self":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts\/282621","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/users\/10"}],"replies":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/comments?post=282621"}],"version-history":[{"count":0,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts\/282621\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/media\/282622"}],"wp:attachment":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/media?parent=282621"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/categories?post=282621"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/tags?post=282621"},{"taxonomy":"staff","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/staff?post=282621"},{"taxonomy":"editorial_format","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/editorial_format?post=282621"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/serie?post=282621"},{"taxonomy":"audience","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/audience?post=282621"},{"taxonomy":"geo","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/geo?post=282621"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}