{"id":321318,"date":"2026-03-10T17:09:04","date_gmt":"2026-03-10T16:09:04","guid":{"rendered":"https:\/\/legrandcontinent.eu\/fr\/?p=321318"},"modified":"2026-03-10T17:10:59","modified_gmt":"2026-03-10T16:10:59","slug":"hallucination-ia-chatgpt","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/","title":{"rendered":"IA&#160;: le mod\u00e8le \u00e9conomique de ChatGPT repose sur les hallucinations"},"content":{"rendered":"\n<p class=\"intro\">L\u2019an dernier, environ <a href=\"https:\/\/legrandcontinent.eu\/fr\/2025\/12\/28\/lia-en-2025-quatre-tendances\/#easy-footnote-bottom-11-310377\">1,8 milliard de personnes ont utilis\u00e9 l\u2019IA<\/a> dans le monde dont 550 \u00e0 600 millions quotidiennement.<\/p>\n\n\n\n<p class=\"intro\">Alors que des centaines de millions de personnes se tournent d\u00e9sormais vers les nombreux chatbots disponibles gratuitement \u2014 ChatGPT, Claude, Gemini, Le Chat \u2014 pour formuler leurs requ\u00eates, la question des hallucinations, c\u2019est-\u00e0-dire des r\u00e9ponses factuellement erron\u00e9es produites par les mod\u00e8les, s\u2019est impos\u00e9e dans le d\u00e9bat public. Bien identifi\u00e9es par le grand public, elles occupent aujourd\u2019hui une place centrale dans les critiques adress\u00e9es aux syst\u00e8mes d\u2019IA, et plus largement dans les discussions sur leur fiabilit\u00e9&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-1-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-1-321318' title='&lt;a href=&quot;https:\/\/hai.stanford.edu\/assets\/files\/hai_ai_index_report_2025.pdf&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Artificial Intelligence Index Report 2025&lt;\/a&gt;, Stanford Institute for Human-Centered Artificial Intelligence.'><sup>1<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p class=\"intro\">\u00c0 mesure que les syst\u00e8mes d\u2019IA sont mobilis\u00e9s pour des t\u00e2ches plus complexes et de plus longue dur\u00e9e, sur des contextes plus longs, une limite structurelle appara\u00eet pour v\u00e9rifier un nombre croissant d\u2019assertions factuelles distinctes, dont chacune devrait id\u00e9alement \u00eatre examin\u00e9e s\u00e9par\u00e9ment. En somme, la v\u00e9rification humaine ne passe pas \u00e0 l\u2019\u00e9chelle et des mod\u00e8les incapables de v\u00e9rifier eux-m\u00eames leurs r\u00e9ponses et leurs raisonnements ne peuvent \u00eatre pleinement fiables. Dans cette perspective, rendre les syst\u00e8mes d\u2019IA v\u00e9rifiables devient une condition pour franchir un nouveau seuil de capacit\u00e9.<\/p>\n\n\n\n<p class=\"intro\">Dans un article publi\u00e9 le 5 septembre 2025&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-2-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-2-321318' title='&lt;a href=&quot;https:\/\/openai.com\/fr-FR\/index\/why-language-models-hallucinate\/&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Mod\u00e8les de langage&amp;#160;: aux origines des hallucinations&lt;\/a&gt;, OpenAI, 5 septembre 2025.'><sup>2<\/sup><\/a><\/span><\/span> \u2014 c\u2019est-\u00e0-dire entre <a href=\"https:\/\/legrandcontinent.eu\/fr\/2025\/08\/07\/openai-gpt-5-geopolitique-de-lopen-source-selon-sam-altman\/\">la sortie de GPT-5<\/a> en ao\u00fbt 2025 et avant celle de GPT-5.1 et GPT-5.2 \u2014 OpenAI a souhait\u00e9 mettre fin au mythe d\u2019un mod\u00e8le infaillible&#160;: les hallucinations sont inh\u00e9rentes \u00e0 l\u2019architecture statistique des LLM.\u00a0<\/p>\n\n\n\n<p class=\"intro\">Pour l\u2019une des plus grandes entreprises dans le domaine des LLM, la d\u00e9claration ne sape qu\u2019en apparence son propre travail. Se pr\u00e9sentant \u00e0 la fois comme contribution technique et comme une prise de position institutionnelle, l\u2019article d\u2019OpenAI ne saborde pas les LLM en reconnaissant en eux une limite incontournable&#160;: il invite \u00e0 reformuler leur usage.<\/p>\n\n\n\n<p class=\"intro\">\u00c0 l\u2019heure des syst\u00e8mes agentiques, le LLM \u00e9tant coupl\u00e9 \u00e0 des moyens externes comme des syst\u00e8mes de recherche en ligne, il ne s\u2019agit plus de cr\u00e9er un outil infaillible dans ses r\u00e9ponses. La r\u00e9orientation des LLM vers un auxiliaire de travail, et non un substitut aux encyclop\u00e9dies, doit donc s\u2019accompagner d\u2019une refonte des <em>benchmarks<\/em> sur lesquels ceux-ci sont \u00e9valu\u00e9s, de m\u00eame que sur l\u2019architecture de ces m\u00eames mod\u00e8les.<\/p>\n\n\n\n<p class=\"intro\">Les instructions fournies aux LLM, de m\u00eame que les crit\u00e8res retenus pour les <em>benchmarks<\/em>, r\u00e9compensent en effet une forme d\u2019assurance factice \u2014 la fourniture d\u2019une r\u00e9ponse, m\u00eame fausse \u00e9tant privil\u00e9gi\u00e9e \u00e0 un aveu d\u2019ignorance. Infl\u00e9chir ces normes ne peut se faire qu\u2019en r\u00e9visant les promesses qui ont port\u00e9 la croissance de l\u2019IA, que l\u2019article pr\u00e9sente comme autant de lignes de fuite.<\/p>\n\n\n\n<p class=\"intro\">Contre le r\u00eave d\u2019un passage \u00e0 l\u2019\u00e9chelle qui l\u00e8verait toutes les difficult\u00e9s des mod\u00e8les actuels, les auteurs prouvent, par des consid\u00e9rations statistiques, que les erreurs ne peuvent \u00eatre r\u00e9sorb\u00e9es en augmentant la taille du corpus d\u2019entra\u00eenement. Le prochain front ne serait donc pas tant du c\u00f4t\u00e9 de la puissance de calcul que d\u2019une fa\u00e7on ad\u00e9quate de rendre les LLM capables de douter.<\/p>\n\n\n\n<p>Chez OpenAI, nous mettons tout en \u0153uvre pour rendre nos syst\u00e8mes d\u2019IA plus utiles et plus fiables. Mais les mod\u00e8les de langage ont beau gagner en comp\u00e9tence, ils pr\u00e9sentent un probl\u00e8me encore insoluble&#160;: les hallucinations. Les hallucinations sont des r\u00e9ponses fausses qu\u2019ils fournissent pourtant aux utilisateurs avec la plus grande assurance.<\/p>\n\n\n\n<p>Selon notre nouvelle \u00e9tude, les mod\u00e8les hallucinent, car les entra\u00eenements et \u00e9valuations classiques r\u00e9compensent davantage les r\u00e9ponses al\u00e9atoires que l\u2019admission d\u2019une incertitude.<\/p>\n\n\n\n<p class=\"comment\">Nous nous r\u00e9f\u00e9rons \u00e0 l\u2019article scientifique publi\u00e9 par les chercheurs d\u2019OpenAI&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-3-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-3-321318' title='Adam Tauman Kalai, Ofir Nachum, Santosh S. Vempala, Edwin Zhang, \u00ab&amp;#160;&lt;a href=&quot;https:\/\/cdn.openai.com\/pdf\/d04913be-3f6f-4d2b-b283-ff432ef4aaa5\/why-language-models-hallucinate.pdf&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Why Language Models Hallucinate&lt;\/a&gt;&amp;#160;\u00bb, 4 septembre 2025.'><sup>3<\/sup><\/a><\/span><\/span> lorsque nous mentionnons le papier dans la suite des commentaires.<\/p>\n\n\n\n<p>ChatGPT n\u2019est pas immunis\u00e9 contre les hallucinations. M\u00eame si GPT\u20115 marque un net progr\u00e8s sur ses pr\u00e9d\u00e9cesseurs en la mati\u00e8re, et en particulier pour les t\u00e2ches de raisonnement\u2060, il en est parfois victime. Les hallucinations restent un probl\u00e8me central des grands mod\u00e8les de langage, mais nous faisons tout notre possible pour les r\u00e9duire.<\/p>\n\n\n\n<p class=\"comment\">La progression des mod\u00e8les sur les <em>benchmarks<\/em> dominants ne pr\u00e9dit pas leur comportement vis-\u00e0-vis de faits rares&#160;: c&rsquo;est pr\u00e9cis\u00e9ment ce que la trajectoire de la s\u00e9rie GPT-5 illustre.<\/p>\n\n\n\n<p class=\"comment\">L\u2019architecture d\u2019usage de la s\u00e9rie GPT-5 repose sur l\u2019acc\u00e8s \u00e0 des outils externes, notamment des syst\u00e8mes de recherche en ligne, qui leur permettent d\u2019interroger des sources d\u2019information \u00e0 jour et d\u2019en extraire les \u00e9l\u00e9ments pertinents pour produire une r\u00e9ponse. Dans ce cadre, la m\u00e9morisation param\u00e9trique de faits individuels devient moins centrale que la capacit\u00e9 \u00e0 localiser, s\u00e9lectionner et exploiter des sources fiables&#160;: l\u2019encodage exhaustif des faits \u00e9tant pr\u00e9cis\u00e9ment ce que mesure des <em>benchmarks<\/em> dits \u00ab&#160;de factualit\u00e9&#160;\u00bb, il n\u2019est donc pas \u00e9tonnant que leur score sur ceux-ci soit plus faible.<\/p>\n\n\n\n<p class=\"comment\">Parmi les <em>benchmarks<\/em> de factualit\u00e9, SimpleQA Verified&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-4-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-4-321318' title='SimpleQA est un &lt;em&gt;benchmark&lt;\/em&gt; introduit par OpenAI. \u00c0 partir de celui-ci, Google a d\u00e9velopp\u00e9 SimpleQA Verified afin de corriger plusieurs limites importantes du dataset initial. Voir \u00ab&amp;#160;&lt;a href=&quot;https:\/\/arxiv.org\/pdf\/2509.07968&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;SimpleQA Verified&amp;#160;: A Reliable Factuality Benchmark to Measure Parametric Knowledge&lt;\/a&gt;&amp;#160;\u00bb, Google, 2025.'><sup>4<\/sup><\/a><\/span><\/span>, par exemple, contient 1000 questions factuelles portant sur des domaines comme la science, l\u2019art, la g\u00e9ographie, la politique etc. Pris isol\u00e9ment, il est une mesure limit\u00e9e de la performance globale d&rsquo;un mod\u00e8le, \u00e9valuant avant tout la capacit\u00e9 de m\u00e9morisation sur les donn\u00e9es de pr\u00e9-entra\u00eenement. Si SimpleQA Verified n\u2019est donc pas consid\u00e9r\u00e9 comme un <em>benchmark<\/em> central pour suivre l\u2019\u00e9volution des capacit\u00e9s des mod\u00e8les au cours du temps. Il est cependant pr\u00e9cieux pour une raison pr\u00e9cise&#160;: il cible exactement la classe de faits que la th\u00e9orie du papier scientifique produit par les \u00e9quipes de ChatGPT pr\u00e9dit \u00eatre irr\u00e9ductiblement sujette aux hallucinations.<\/p>\n\n\n\n<p class=\"comment\">Les scores des diff\u00e9rents mod\u00e8les d\u2019OpenAI \u00e0 partir de ChatGPT illustrent cette perte de m\u00e9moire, au profit de t\u00e2ches plus complexes. Sur SimpleQA Verified, GPT5 a un score de 51&#160;% contre 45&#160;% pour GPT5.4 ou 39&#160;% pour GPT5.2. En parall\u00e8le, sur des <em>benchmarks<\/em> de t\u00e2ches d&rsquo;ing\u00e9nierie logicielle comme SWE-Bench Pro GPT5.2 atteint 57.7&#160;% contre\u00a0 41.8&#160;% pour GPT5&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-5-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-5-321318' title='\u00ab&amp;#160;&lt;a href=&quot;https:\/\/openai.com\/index\/introducing-gpt-5-4\/&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Introducing GPT-5.4&lt;\/a&gt;&amp;#160;\u00bb, OpenAI, 5 mars 2026. Voir aussi &lt;a href=&quot;https:\/\/arxiv.org\/pdf\/2509.16941&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;SWE-Bench Pro&amp;#160;: Can AI Agents Solve Long-Horizon Software Engineering Tasks&amp;#160;?&lt;\/a&gt;, Scale AI, 2025.'><sup>5<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Que sont les hallucinations&#160;?<\/h2>\n\n\n\n<p>Les hallucinations sont des affirmations plausibles, mais fausses, des mod\u00e8les de langage.&nbsp;<\/p>\n\n\n\n<p>Elles peuvent appara\u00eetre dans des contextes inattendus, par exemple dans les r\u00e9ponses \u00e0 des questions pourtant tr\u00e8s simples. Par exemple, lorsque nous avons demand\u00e9 \u00e0 un <em>chatbot<\/em> tr\u00e8s populaire le titre de la th\u00e8se d\u2019Adam Tauman Kalai (un des auteurs de notre \u00e9tude), il a fourni avec assurance trois titres diff\u00e9rents, tous faux. Lorsque nous lui avons demand\u00e9 la date d\u2019anniversaire d\u2019Adam, il a l\u00e0 aussi donn\u00e9 trois dates diff\u00e9rentes, toutes plus fausses les unes que les autres.&nbsp;<\/p>\n\n\n\n<p class=\"comment\">Le papier distingue deux causes structurellement diff\u00e9rentes d&rsquo;hallucination, et cette distinction \u00e9claire directement pourquoi les mod\u00e8les de raisonnement \u2014 mod\u00e8les de langage d\u00e9velopp\u00e9s depuis 2025, con\u00e7us pour d\u00e9composer les probl\u00e8mes complexes en traces plus petites\u2014 ne constituent qu&rsquo;une solution partielle.<\/p>\n\n\n\n<p class=\"comment\">La premi\u00e8re cat\u00e9gorie, les erreurs de mod\u00e8le pauvre (<em>poor-model errors<\/em> dans le papier), survient quand l&rsquo;architecture ou le mod\u00e8le est structurellement incapable de repr\u00e9senter le concept demand\u00e9. L&rsquo;exemple canonique du papier est le comptage de lettres&#160;: DeepSeek-V3 \u00e9choue \u00e0 compter les \u00ab&#160;D&#160;\u00bb dans \u00ab&#160;DEEPSEEK&#160;\u00bb car le mod\u00e8le op\u00e8re sur des tokens&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-6-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-6-321318' title='Les tokens sont les unit\u00e9s de base du texte que les mod\u00e8les d&amp;rsquo;IA couramment utilis\u00e9s exploitent pour comprendre et apprendre le langage.'><sup>6<\/sup><\/a><\/span><\/span> (D\/EEP\/SEE\/K) et non sur des caract\u00e8res individuels&#160;: la limitation est alors repr\u00e9sentationnelle et non informationnelle, car le mod\u00e8le pourrait conna\u00eetre la r\u00e9ponse si sa repr\u00e9sentation interne \u00e9tait diff\u00e9rente. Ainsi DeepSeek-R1, le mod\u00e8le de raisonnement, r\u00e9sout ce probl\u00e8me en g\u00e9n\u00e9rant une cha\u00eene de pens\u00e9e qui \u00e9pelle explicitement \u00ab&#160;D-E-E-P-S-E-E-K&#160;\u00bb, convertissant une t\u00e2che implicite en une t\u00e2che proc\u00e9durale. Dans ce contexte, comme pour toute t\u00e2che dont la r\u00e9ponse peut \u00eatre d\u00e9riv\u00e9e de l&rsquo;\u00e9nonc\u00e9 par une suite d&rsquo;\u00e9tapes explicites, arithm\u00e9tiques, logiques, code ou d\u00e9monstrations math\u00e9matiques, le raisonnement et le <em>reinforced learning<\/em> avec r\u00e9compenses v\u00e9rifiables&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-7-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-7-321318' title='Dans un entra\u00eenement par renforcement (&lt;em&gt;reinforced learning)&lt;\/em&gt; le LLM apprend de ses exp\u00e9riences gr\u00e2ce \u00e0 un syst\u00e8me de r\u00e9compenses et de p\u00e9nalit\u00e9s. Lors d\u2019un &lt;em&gt;reinforced learning &lt;\/em&gt;avec r\u00e9compenses v\u00e9rifiables, le LLM n\u2019est r\u00e9compens\u00e9 que si sa r\u00e9ponse v\u00e9rifie un contr\u00f4le objectif, comme le respect de certaines r\u00e8gles ou un succ\u00e8s \u00e0 certains tests.'><sup>7<\/sup><\/a><\/span><\/span>, sont efficaces.<\/p>\n\n\n\n<p class=\"comment\">La seconde cat\u00e9gorie d\u2019hallucinations, celles qui rel\u00e8vent de faits arbitraires (<em>arbitrary-fact hallucination<\/em>), est d&rsquo;une nature fondamentalement diff\u00e9rente. Elle survient quand la r\u00e9ponse correcte ne peut pas \u00eatre inf\u00e9r\u00e9e par un raisonnement \u00e0 partir de l&rsquo;\u00e9nonc\u00e9. Cette r\u00e9ponse doit alors \u00eatre r\u00e9cup\u00e9r\u00e9e dans les \u00ab&#160;poids&#160;\u00bb du mod\u00e8le, o\u00f9 elle a \u00e9t\u00e9 ou non encod\u00e9e lors du pr\u00e9-entra\u00eenement.<\/p>\n\n\n\n<p class=\"comment\">Pour ces faits, la cha\u00eene de raisonnement ne produit pas de calcul&#160;: elle g\u00e9n\u00e8re une justification en langage naturel dont les pr\u00e9misses factuelles proviennent des poids du mod\u00e8le.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">L\u2019entra\u00eenement en cause<\/h2>\n\n\n\n<p>Si les hallucinations se montrent si coriaces, c\u2019est en partie parce que nos m\u00e9thodes d\u2019\u00e9valuation actuelles reposent sur des incitations inadapt\u00e9es. Certes, les \u00e9valuations ne g\u00e9n\u00e8rent pas directement des hallucinations, mais la plupart mesurent les performances des mod\u00e8les d\u2019une telle fa\u00e7on que ceux-ci sont encourag\u00e9s \u00e0 faire des hypoth\u00e8ses plut\u00f4t qu\u2019\u00e0 avouer qu\u2019ils ne sont pas s\u00fbrs de leurs r\u00e9ponses.<\/p>\n\n\n\n<p>Pour mieux comprendre, imaginons que vous deviez r\u00e9pondre \u00e0 un QCM. Si vous ignorez la r\u00e9ponse \u00e0 une question, vous pouvez tenter de r\u00e9pondre au hasard, et avec un peu de chance, obtenir le point. En revanche, si vous ne r\u00e9pondez pas, c\u2019est le z\u00e9ro assur\u00e9. Il en va de m\u00eame lorsque seule l\u2019exactitude des mod\u00e8les est \u00e9valu\u00e9e, \u00e0 savoir le pourcentage de questions auxquelles ils apportent exactement la bonne r\u00e9ponse. Ils sont par cons\u00e9quent encourag\u00e9s \u00e0 fournir une r\u00e9ponse au hasard plut\u00f4t qu\u2019\u00e0 avouer leur ignorance.<\/p>\n\n\n\n<p>Prenons un autre exemple. Imaginons qu\u2019un utilisateur demande \u00e0 un mod\u00e8le de langage la date d\u2019anniversaire d\u2019une autre personne et que le mod\u00e8le n\u2019ait aucune id\u00e9e de la r\u00e9ponse. En annon\u00e7ant \u00ab&#160;le 10 septembre&#160;\u00bb, il a 1 chance sur 365 de tomber juste. S\u2019il r\u00e9pond \u00ab&#160;Je ne sais pas&#160;\u00bb, il a l\u2019assurance de donner la mauvaise r\u00e9ponse. Sur un test comportant des milliers de questions, le mod\u00e8le qui fait des hypoth\u00e8ses finira par obtenir une performance sup\u00e9rieure \u00e0 un mod\u00e8le plus prudent qui avoue ignorer certaines r\u00e9ponses.<\/p>\n\n\n\n<p>Pour les questions n\u2019admettant qu\u2019une seule r\u00e9ponse correcte, les r\u00e9ponses possibles sont r\u00e9parties en trois cat\u00e9gories&#160;: les r\u00e9ponses correctes, les erreurs et les absences de r\u00e9ponse. Or s\u2019abstenir de r\u00e9pondre est une marque d\u2019humilit\u00e9 \u2014 l\u2019une des valeurs centrales d\u2019OpenAI\u2060. La plupart des classements donnent la priorit\u00e9 \u00e0 l\u2019exactitude, sans tenir compte du fait que les erreurs sont pires que les abstentions. La sp\u00e9cification des mod\u00e8les\u2060 indique qu\u2019il est pr\u00e9f\u00e9rable d\u2019admettre une incertitude ou de demander des clarifications plut\u00f4t que de donner avec assurance des informations potentiellement inexactes.&nbsp;<\/p>\n\n\n\n<p>Pour voir un exemple concret, prenez l\u2019\u00e9valuation SimpleQA tir\u00e9e de la fiche syst\u00e8me de GPT5\u2060.<\/p>\n\n\n\n<div class=\"iframe-container wp-block-image wp-block-image-medium  iframe-dw\">\n\t<div>\n\t\t<iframe class=\"absolute w-full h-full pin-t pin-l\" title=\"titolo\" aria-label=\"Interactive line chart\" src=\"\/\/datawrapper.dwcdn.net\/eU8kQ\" scrolling=\"no\" frameborder=\"0\"><\/iframe>\n\t<\/div>\n<\/div>\n\n\n\n<p>En termes d\u2019exactitude, le mod\u00e8le OpenAI o4-mini, plus ancien, est l\u00e9g\u00e8rement plus performant. En revanche, son taux d\u2019erreurs (et donc d\u2019hallucinations) est bien plus \u00e9lev\u00e9. Les hypoth\u00e8ses strat\u00e9giques am\u00e9liorent l\u2019exactitude en cas d\u2019incertitude, mais elles augmentent aussi les erreurs et hallucinations.&nbsp;<\/p>\n\n\n\n<p>La plupart des comparaisons \u00e9tablissent une moyenne reposant sur des dizaines d\u2019\u00e9valuations en se concentrant sur un indicateur&#160;: l\u2019exactitude. Ce faisant, elles passent \u00e0 c\u00f4t\u00e9 d\u2019\u00e9l\u00e9ments importants. Sur les \u00e9valuations les plus simples, comme SimpleQA, certains mod\u00e8les atteignent une exactitude proche de 100&#160;% et \u00e9liminent donc les hallucinations. En revanche, sur des \u00e9valuations plus complexes et en situation r\u00e9elle, l\u2019exactitude ne peut pas atteindre 100&#160;%, car la r\u00e9ponse \u00e0 certaines questions est impossible \u00e0 donner faute d\u2019informations ou de capacit\u00e9s de r\u00e9flexion suffisantes (petits mod\u00e8les) ou encore en raison d\u2019ambigu\u00eft\u00e9s devant \u00eatre lev\u00e9es.<\/p>\n\n\n\n<p>Pour autant, les \u00e9valuations portant seulement sur l\u2019exactitude restent majoritaires dans les classements et les fiches syst\u00e8me des mod\u00e8les, ce qui pousse les d\u00e9veloppeurs \u00e0 cr\u00e9er des mod\u00e8les pr\u00e9f\u00e9rant les hypoth\u00e8ses \u00e0 l\u2019abstention. C\u2019est l\u2019une des raisons pour lesquelles, m\u00eame si les mod\u00e8les gagnent en sophistication, ils hallucinent toujours au lieu d\u2019expliquer qu\u2019ils ne savent pas r\u00e9pondre.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Un meilleur syst\u00e8me d\u2019\u00e9valuation<\/h2>\n\n\n\n<p>Il existe une solution simple&#160;: p\u00e9naliser plus fortement les erreurs que l\u2019incertitude, et r\u00e9compenser partiellement les incertitudes annonc\u00e9es de mani\u00e8re appropri\u00e9e. Cette id\u00e9e n\u2019a en r\u00e9alit\u00e9 rien de nouveau. Depuis longtemps, certains tests normalis\u00e9s notent n\u00e9gativement les r\u00e9ponses incorrectes et accordent une note partiellement positive en l\u2019absence de r\u00e9ponse afin de d\u00e9courager les r\u00e9ponses al\u00e9atoires. Plusieurs groupes de recherche se sont par ailleurs pench\u00e9s sur des \u00e9valuations qui pourraient tenir compte de l\u2019incertitude et de la calibration.<\/p>\n\n\n\n<p class=\"comment\">La notion de \u00ab&#160;calibration&#160;\u00bb renvoie ici \u00e0 la capacit\u00e9 d\u2019un mod\u00e8le \u00e0 faire correspondre le niveau de confiance qu\u2019il attribue \u00e0 une r\u00e9ponse avec la probabilit\u00e9 r\u00e9elle que cette r\u00e9ponse soit correcte. Un mod\u00e8le bien calibr\u00e9 exprimera ainsi un niveau de confiance \u00e9lev\u00e9 uniquement lorsque ses r\u00e9ponses sont effectivement correctes, et un niveau de confiance plus faible dans les cas d\u2019incertitude. Le papier d&rsquo;OpenAI rappelle un fait connu&#160;: un mod\u00e8le de base apr\u00e8s le pr\u00e9-entra\u00eenement&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-8-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-8-321318' title='Phase de l\u2019apprentissage automatique o\u00f9 le LLM est entra\u00een\u00e9 sur un grand jeu de donn\u00e9es pour une t\u00e2che sp\u00e9cifique.'><sup>8<\/sup><\/a><\/span><\/span> \u2014 phase de l\u2019apprentissage automatique o\u00f9 le LLM est entra\u00een\u00e9 sur un grand jeu de donn\u00e9es pour une t\u00e2che sp\u00e9cifique \u2014 est mieux calibr\u00e9 qu&rsquo;apr\u00e8s le post-entrainement, phase o\u00f9 le mod\u00e8le apprend \u00e0 suivre des instructions, am\u00e9liore ses capacit\u00e9s agentiques, pour r\u00e9soudre des t\u00e2ches, pour raisonner sur des contextes longs, etc.<\/p>\n\n\n\n<p class=\"comment\">La calibration constitue donc un aspect d\u2019une motivation plus large visant \u00e0 comprendre ce qu\u2019Anthropic appelle l\u2019honn\u00eatet\u00e9 des mod\u00e8les d\u2019IA, notion qui regroupe plusieurs dimensions&#160;:<\/p>\n\n\n\n<p class=\"comment\">\u2014 V\u00e9racit\u00e9 (<em>truthfulness<\/em>)&#160;: le syst\u00e8me d\u2019IA fournit-il des informations factuellement exactes, notamment en identifiant, utilisant et \u00e9valuant correctement les sources&#160;?<br>\u2014 Calibration&#160;: les probabilit\u00e9s pr\u00e9dites par l\u2019IA correspondent-elles aux fr\u00e9quences r\u00e9elles d\u2019occurrence&#160;?<br>\u2014 Connaissance de soi (<em>self-knowledge<\/em>)&#160;: les syst\u00e8mes d\u2019IA savent-ils ce qu\u2019ils font et peuvent-ils faire des pr\u00e9dictions fiables sur leur propre comportement et leur propre raisonnement&#160;?<br>\u2014 Explicabilit\u00e9 (<em>explainability<\/em>)&#160;: les syst\u00e8mes d\u2019IA r\u00e9v\u00e8lent-ils leur processus de raisonnement de mani\u00e8re compl\u00e8te et fid\u00e8le&#160;?<br>\u2014 Absence de tromperie (<em>non-deceptiveness<\/em>)&#160;: peut-on s\u2019assurer que les syst\u00e8mes d\u2019IA n\u2019apprennent pas \u00e0 mentir \u2014 par exemple lorsque les donn\u00e9es de pr\u00e9f\u00e9rences humaines encouragent des erreurs syst\u00e9matiques ou accordent davantage de r\u00e9compense \u00e0 des id\u00e9es fausses mais agr\u00e9ables&#160;?<\/p>\n\n\n\n<p>Pour nous, la solution est ailleurs. Il ne suffit pas d\u2019ajouter quelques tests suppl\u00e9mentaires tenant compte de l\u2019incertitude. Il faut directement revoir les \u00e9valuations bas\u00e9es sur l\u2019exactitude les plus utilis\u00e9es pour d\u00e9courager les hypoth\u00e8ses. Si les grands classements continuent de r\u00e9compenser les hypoth\u00e8ses qui tombent juste, les mod\u00e8les continueront d\u2019apprendre \u00e0 deviner. <em>A contrario<\/em>, la correction des classements peut \u00e9largir l\u2019adoption de techniques de r\u00e9duction des hallucinations, qu\u2019elles soient nouvelles ou issues de recherches plus anciennes.<\/p>\n\n\n\n<p class=\"comment\">Le papier d&rsquo;OpenAI souligne que le rapport AI Index 2025&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-9-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-9-321318' title='&lt;a href=&quot;https:\/\/hai.stanford.edu\/assets\/files\/hai_ai_index_report_2025.pdf&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Artificial Intelligence Index Report 2025&lt;\/a&gt;, &lt;em&gt;op. cit.&lt;\/em&gt;'><sup>9<\/sup><\/a><\/span><\/span> indique que les <em>benchmarks<\/em> d\u00e9di\u00e9s \u00e0 l\u2019\u00e9valuation des hallucinations peinent \u00e0 s\u2019imposer comme des r\u00e9f\u00e9rences dans l&rsquo;industrie, pour les raisons structurelles ici d\u00e9crites.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Pourquoi la pr\u00e9diction du mot suivant g\u00e9n\u00e8re des hallucinations<\/h2>\n\n\n\n<p>Nous avons vu pourquoi les hallucinations sont si difficiles \u00e0 \u00e9liminer, mais pas d\u2019o\u00f9 proviennent ces erreurs factuelles si sp\u00e9cifiques. Quand on y pense, les grands mod\u00e8les pr\u00e9-entra\u00een\u00e9s commettent rarement d\u2019autres types d&rsquo;erreurs, comme des fautes d\u2019orthographe ou des coquilles. La diff\u00e9rence r\u00e9side dans les logiques qui se cachent dans les donn\u00e9es.<\/p>\n\n\n\n<p>Les mod\u00e8les de langage apprennent tout d\u2019abord <em>via<\/em> une phase de pr\u00e9-entra\u00eenement, un processus qui consiste \u00e0 pr\u00e9dire le mot suivant au sein d\u2019une \u00e9norme quantit\u00e9 de texte. Dans cette phase, \u00e0 la diff\u00e9rence de ce qui se passe dans les probl\u00e8mes de <em>machine learning<\/em> classiques, il n\u2019y a pas d\u2019\u00e9tiquette \u00ab&#160;vrai\/faux&#160;\u00bb associ\u00e9e \u00e0 chaque affirmation. Le mod\u00e8le ne voit que des exemples positifs de formulations naturelles et doit donc estimer la distribution globale du langage.&nbsp;<\/p>\n\n\n\n<p>Il est deux fois plus difficile de faire la distinction entre les affirmations valides et non valides sans exemples \u00e9tiquet\u00e9s d\u2019affirmations non valides. Mais m\u00eame avec les \u00e9tiquettes, certaines erreurs restent in\u00e9vitables. Pour bien en comprendre les raisons, basons-nous sur une nouvelle analogie. Dans le domaine de la reconnaissance d\u2019images, l\u2019\u00e9tiquetage de millions de photos de chats et de chiens permet aux algorithmes de les classer de mani\u00e8re fiable. Imaginons qu\u2019au lieu d\u2019\u00e9tiqueter chaque photo en fonction de son sujet (chien ou chat), nous indiquions la date d\u2019anniversaire de l\u2019animal. Ces dates \u00e9tant al\u00e9atoires, cette t\u00e2che g\u00e9n\u00e9rerait toujours des erreurs, quel que soit le degr\u00e9 de sophistication de l\u2019algorithme.<\/p>\n\n\n\n<p class=\"comment\">Du point de vue historique, la reconnaissance d\u2019images est l\u2019un des premiers domaines o\u00f9 l\u2019apprentissage automatique a \u00e9t\u00e9 d\u00e9velopp\u00e9. \u00c0 partir d\u2019un apprentissage sur un corpus d\u2019images, assorties d\u2019\u00e9tiquettes identifiant chacune d\u2019entre elles, il s\u2019agissait de classifier correctement d\u2019autres illustrations ne figurant pas dans les donn\u00e9es d\u2019entra\u00eenement. \u00c9tant donn\u00e9 par exemple une banque d\u2019images de chiens et de chats sur laquelle \u00e9tait entra\u00een\u00e9 le LLM, il s\u2019agissait pour ce dernier d\u2019identifier correctement \u2014 comme photo de chat ou de chien \u2014 d\u2019autres illustrations ne provenant pas du corpus d\u2019apprentissage. L\u2019image d\u2019un chat ou d\u2019un chien ne donnant aucune information sur sa date d\u2019anniversaire, un mod\u00e8le ayant \u00e9t\u00e9 entra\u00een\u00e9 sur un corpus d\u2019images o\u00f9 une telle date serait associ\u00e9e, comme \u00e9tiquette, \u00e0 chaque photo, ne pourrait l\u2019inf\u00e9rer de mani\u00e8re fiable pour des illustrations ne figurant pas dans le corpus d\u2019entra\u00eenement. \u00c0 rebours, la reconnaissance de l\u2019identit\u00e9 d\u2019un animal \u2014 chien, chat ou autre \u2014 s\u2019appuie sur celle de la morphologie, diff\u00e9rente pour chacune de ces esp\u00e8ces.<\/p>\n\n\n\n<p>Il en va de m\u00eame pour le pr\u00e9-entra\u00eenement. L\u2019orthographe et l\u2019organisation des parenth\u00e8ses suivent une logique. Les erreurs sont donc \u00e9limin\u00e9es \u00e0 mesure que les volumes de donn\u00e9es augmentent. <em>A contrario<\/em>, les faits al\u00e9atoires dont la fr\u00e9quence est faible, comme la date d\u2019anniversaire d\u2019un animal, ne peuvent pas \u00eatre pr\u00e9dits par une logique quelconque et g\u00e9n\u00e8rent donc des hallucinations.<\/p>\n\n\n\n<p class=\"comment\">Consid\u00e9rons un mod\u00e8le ne disposant pas d&rsquo;outil de moteur de recherche, c\u2019est-\u00e0-dire de capacit\u00e9 \u00e0 effectuer des recherches sur Internet ou dans des bases de donn\u00e9es <em>ad hoc<\/em>. Le papier d&rsquo;OpenAI explicite que le taux d&rsquo;hallucination de ce mod\u00e8le est minor\u00e9 asymptotiquement par la masse manquante (MM), la probabilit\u00e9 sous la distribution r\u00e9elle de tomber sur un fait absent du corpus d&rsquo;entra\u00eenement. Cette masse manquante est inobservable directement, mais la technique de <em>Good-Turing<\/em>&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-10-321318' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#easy-footnote-bottom-10-321318' title='Irving John Good \u00ab&amp;#160;The population frequencies of species and the estimation of population parameters&amp;#160;\u00bb. &lt;em&gt;Biometrika&lt;\/em&gt;, 40, 1953, pp. 237\u2013264.'><sup>10<\/sup><\/a><\/span><\/span> garantit qu&rsquo;elle est approxim\u00e9e avec grande probabilit\u00e9 par le taux de singletons, c&rsquo;est-\u00e0-dire la fraction des exemples d&rsquo;entra\u00eenement qui n&rsquo;apparaissent qu&rsquo;une seule fois. Ces singletons ne sont pas eux-m\u00eames les faits hallucin\u00e9s ou la cause des hallucinations&#160;: ils sont un estimateur de la masse des faits compl\u00e8tement absents de l&rsquo;entra\u00eenement, sur lesquels le mod\u00e8le sera n\u00e9cessairement en d\u00e9faut au moment de l&rsquo;inf\u00e9rence.<\/p>\n\n\n\n<p class=\"comment\">La loi de Zipf garantit que ce plancher ne convergera jamais vers z\u00e9ro avec la taille du corpus&#160;: dans tout grand corpus textuel \u2014 des mod\u00e8les de tailles moyennes sont actuellement pr\u00e9-entra\u00een\u00e9s sur 30 trillions de tokens \u2014, la fr\u00e9quence des entit\u00e9s suit une loi de puissance. En d\u2019autres termes, si l\u2019on consid\u00e8re le <em>n<\/em>-i\u00e8me mot le plus courant du texte, sa fr\u00e9quence d\u2019apparition (nombre d\u2019apparitions de mots \/ nombre de mots du texte) est de l\u2019ordre de 1\/n^s, avec s positif. En cons\u00e9quence, un petit nombre de faits du monde r\u00e9el, comme \u00ab&#160;Einstein est le p\u00e8re de la th\u00e9orie de la relativit\u00e9&#160;\u00bb ou \u00ab&#160;Paris est la capitale de la France&#160;\u00bb, apparaissent des millions de fois dans le corpus, la vaste majorit\u00e9 des faits n\u2019y apparaissant qu\u2019une seule fois, si ce n\u2019est pas du tout.<\/p>\n\n\n\n<p class=\"comment\">Cette distribution est dite <em>long tail <\/em>&#160;: si l\u2019on classe par ordre d\u00e9croissant les faits figurant dans le corpus, selon leur nombre d&rsquo;occurrences, pour ensuite dessiner la courbe du nombre d&rsquo;occurrences par num\u00e9ro de position, la tr\u00e8s grande partie de ces faits, n\u2019apparaissant que tr\u00e8s rarement, forme une longue queue amincie. Or c\u2019est bien sur ces faits trop peu pr\u00e9sents dans les donn\u00e9es \u2014 si ce n\u2019est pas du tout \u2014 que le mod\u00e8le va halluciner.<\/p>\n\n\n\n<p class=\"comment\">Multiplier la taille des donn\u00e9es d&rsquo;entra\u00eenement par <em>n<\/em> ne r\u00e9duit la masse manquante que d&rsquo;un facteur polynomial <em>n^<\/em>s (<em>s<\/em> positif) et non exponentiel (<em>a^n<\/em>, avec a positif). En cons\u00e9quence, l&rsquo;hallucination ne dispara\u00eet pas avec le passage \u00e0 l&rsquo;\u00e9chelle&#160;: la quantit\u00e9 de faits sur lesquels le mod\u00e8le ne fournit pas de mauvaise r\u00e9ponse est plus grande, mais celui-ci se met de nouveau \u00e0 halluciner un peu plus loin dans la queue de distribution susmentionn\u00e9e.<\/p>\n\n\n\n<p>Notre analyse explique les types d\u2019hallucinations qui r\u00e9sultent de la pr\u00e9diction du mot suivant. Dans l\u2019id\u00e9al, de nouvelles \u00e9tapes suivant le pr\u00e9-entra\u00eenement devraient pouvoir les \u00e9liminer, mais ce n\u2019est aujourd\u2019hui pas parfaitement le cas pour les raisons d\u00e9crites dans la section pr\u00e9c\u00e9dente.&nbsp;<\/p>\n\n\n\n<p class=\"comment\">Ce ph\u00e9nom\u00e8ne tient notamment au fait que les \u00e9tapes de post-entra\u00eenement, en particulier l\u2019apprentissage par renforcement, n\u2019optimisent plus directement la pr\u00e9diction du prochain token. Elles cherchent plut\u00f4t \u00e0 maximiser une fonction de r\u00e9compense approximant la qualit\u00e9 per\u00e7ue d\u2019une r\u00e9ponse \u2014 son utilit\u00e9, sa coh\u00e9rence, sa s\u00e9curit\u00e9 et sa conformit\u00e9 aux instructions. Ce changement d\u2019objectif peut am\u00e9liorer le comportement global du mod\u00e8le, mais il ne garantit pas n\u00e9cessairement une meilleure restitution de faits rares ou arbitraires, qui d\u00e9pend avant tout de la connaissance param\u00e9trique acquise lors du pr\u00e9-entra\u00eenement. Les mod\u00e8les de raisonnement avec r\u00e9compenses v\u00e9rifiables \u2014 tels o3 et DeepSeek-R1 \u2014 \u00e9chappent partiellement \u00e0 ce probl\u00e8me pour les domaines avec v\u00e9rification automatique, comme les math\u00e9matiques ou le codage.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusions<\/h2>\n\n\n\n<p>Nous esp\u00e9rons que l\u2019explication statistique de notre \u00e9tude clarifie la nature des hallucinations et bat en br\u00e8che diverses id\u00e9es fausses, par exemple&#160;:<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Affirmation <\/h4>\n\n\n\n<p>Les hallucinations dispara\u00eetront si nous am\u00e9liorons l\u2019exactitude des mod\u00e8les, car un mod\u00e8le obtenant un score d\u2019exactitude de 100&#160;% ne peut pas halluciner.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Constatation <\/h4>\n\n\n\n<p>L&rsquo;exactitude des mod\u00e8les n\u2019atteindra jamais 100&#160;%, car quelles que soient sa taille et ses capacit\u00e9s de recherche et de raisonnement, un mod\u00e8le ne pourra jamais r\u00e9pondre \u00e0 certaines des questions qui lui sont pos\u00e9es dans le monde r\u00e9el.\u00a0<\/p>\n\n\n\n<p class=\"has-text-align-center\">\u2014<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Affirmation <\/h4>\n\n\n\n<p>Les hallucinations sont in\u00e9vitables.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Constatation <\/h4>\n\n\n\n<p>Ce n\u2019est pas vrai, car les mod\u00e8les de langage peuvent choisir de ne pas r\u00e9pondre en cas d\u2019incertitude.<\/p>\n\n\n\n<p class=\"has-text-align-center\">\u2014<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Affirmation<\/h4>\n\n\n\n<p>\u00c9viter les hallucinations impose un niveau d\u2019intelligence qui n\u2019est atteignable qu\u2019avec les plus grands mod\u00e8les.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Constatation<\/h4>\n\n\n\n<p>Il peut au contraire \u00eatre plus facile pour un petit mod\u00e8le de d\u00e9terminer ses limites. Par exemple, en r\u00e9ponse \u00e0 une question portant sur le maori, un petit mod\u00e8le qui ne parle pas le maori pourrait simplement r\u00e9pondre \u00ab&#160;Je ne sais pas&#160;\u00bb, tandis qu\u2019un mod\u00e8le qui conna\u00eet un peu de maori doit d\u2019abord d\u00e9terminer son niveau de confiance. Comme l\u2019explique l\u2019\u00e9tude, la \u00ab&#160;calibration&#160;\u00bb demande bien moins de ressources de calcul que la fourniture d\u2019une r\u00e9ponse exacte.<\/p>\n\n\n\n<p class=\"has-text-align-center\">\u2014<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Affirmation<\/h4>\n\n\n\n<p>Les hallucinations constituent un bug myst\u00e9rieux des mod\u00e8les de langage modernes.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Constatation<\/h4>\n\n\n\n<p>Nous comprenons les m\u00e9canismes statistiques qui donnent naissance aux hallucinations et les r\u00e9compensent lors des \u00e9valuations.<\/p>\n\n\n\n<p class=\"has-text-align-center\">\u2014<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Affirmation<\/h4>\n\n\n\n<p>Pour mesurer les hallucinations, nous avons simplement besoin d\u2019une bonne \u00e9valuation sp\u00e9cialis\u00e9e.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Constatation<\/h4>\n\n\n\n<p>Des \u00e9valuations centr\u00e9es sur les hallucinations ont d\u00e9j\u00e0 \u00e9t\u00e9 publi\u00e9es. Pour autant, une bonne \u00e9valuation n\u2019a que peu d\u2019effet apr\u00e8s les centaines d\u2019\u00e9valuations classiques bas\u00e9es sur l\u2019exactitude qui p\u00e9nalisent l\u2019humilit\u00e9 et r\u00e9compensent les hypoth\u00e8ses.\u00a0<\/p>\n\n\n\n<p>Il convient plut\u00f4t de repenser tous les indicateurs des \u00e9valuations principales pour r\u00e9compenser l\u2019expression de l\u2019incertitude. Nos derniers mod\u00e8les de langage pr\u00e9sentent des taux d\u2019hallucination r\u00e9duits, et nous ne cessons de les am\u00e9liorer.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Afficher des choses fausses n\u2019est pas un d\u00e9faut de l\u2019IA&#160;&#160;: c\u2019est l\u2019une de ses caract\u00e9ristiques structurantes.<\/p>\n<p>Mais pour OpenAI, l\u2019entreprise qui a lanc\u00e9 ChatGPT, ce n\u2019est pas vraiment un probl\u00e8me. <\/p>\n<p>La promesse de l\u2019IA est en train de se transformer \u2014 et son mod\u00e8le \u00e9conomique se pr\u00e9cise.<\/p>\n","protected":false},"author":10,"featured_media":321319,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"templates\/post-speeches.php","format":"standard","meta":{"_acf_changed":false,"_trash_the_other_posts":false,"footnotes":""},"categories":[3412],"tags":[],"staff":[2457],"editorial_format":[],"serie":[],"audience":[],"geo":[525],"class_list":["post-321318","post","type-post","status-publish","format-standard","hentry","category-puissances-de-lia","staff-victor-storchan","geo-ameriques"],"acf":{"open_in_webview":false,"accent":false},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>IA : le mod\u00e8le \u00e9conomique de ChatGPT repose sur ses hallucinations<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"IA : le mod\u00e8le \u00e9conomique de ChatGPT repose sur ses hallucinations\" \/>\n<meta property=\"og:description\" content=\"Afficher des choses fausses n\u2019est pas un d\u00e9faut de l\u2019IA&#160;: c\u2019est l\u2019une de ses caract\u00e9ristiques structurantes.  Mais pour OpenAI, l\u2019entreprise qui a lanc\u00e9 ChatGPT, ce n\u2019est pas vraiment un probl\u00e8me.   La promesse de l\u2019IA est en train de se transformer \u2014 et son mod\u00e8le \u00e9conomique se pr\u00e9cise.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/\" \/>\n<meta property=\"og:site_name\" content=\"Le Grand Continent\" \/>\n<meta property=\"article:published_time\" content=\"2026-03-10T16:09:04+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2026-03-10T16:10:59+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/gc-altman-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1440\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Matheo Malik\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/gc-altman-scaled.jpg\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Matheo Malik\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"20 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/\",\"name\":\"IA : le mod\u00e8le \u00e9conomique de ChatGPT repose sur ses hallucinations\",\"isPartOf\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg\",\"datePublished\":\"2026-03-10T16:09:04+00:00\",\"dateModified\":\"2026-03-10T16:10:59+00:00\",\"author\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45\"},\"breadcrumb\":{\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#primaryimage\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg\",\"contentUrl\":\"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg\",\"width\":2560,\"height\":1706,\"caption\":\"Image \u00e0 partir d'une photographie de Sam Altman en 2026. \u00a9 SIPA\/AP\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/legrandcontinent.eu\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"IA&#160;: le mod\u00e8le \u00e9conomique de ChatGPT repose sur les hallucinations\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#website\",\"url\":\"https:\/\/legrandcontinent.eu\/fr\/\",\"name\":\"Le Grand Continent\",\"description\":\"L&#039;\u00e9chelle pertinente\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/legrandcontinent.eu\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45\",\"name\":\"Matheo Malik\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g\",\"caption\":\"Matheo Malik\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"IA : le mod\u00e8le \u00e9conomique de ChatGPT repose sur ses hallucinations","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/","og_locale":"fr_FR","og_type":"article","og_title":"IA : le mod\u00e8le \u00e9conomique de ChatGPT repose sur ses hallucinations","og_description":"Afficher des choses fausses n\u2019est pas un d\u00e9faut de l\u2019IA&#160;: c\u2019est l\u2019une de ses caract\u00e9ristiques structurantes.  Mais pour OpenAI, l\u2019entreprise qui a lanc\u00e9 ChatGPT, ce n\u2019est pas vraiment un probl\u00e8me.   La promesse de l\u2019IA est en train de se transformer \u2014 et son mod\u00e8le \u00e9conomique se pr\u00e9cise.","og_url":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/","og_site_name":"Le Grand Continent","article_published_time":"2026-03-10T16:09:04+00:00","article_modified_time":"2026-03-10T16:10:59+00:00","og_image":[{"width":2560,"height":1440,"url":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/gc-altman-scaled.jpg","type":"image\/jpeg"}],"author":"Matheo Malik","twitter_card":"summary_large_image","twitter_image":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/gc-altman-scaled.jpg","twitter_misc":{"\u00c9crit par":"Matheo Malik","Dur\u00e9e de lecture estim\u00e9e":"20 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/","url":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/","name":"IA : le mod\u00e8le \u00e9conomique de ChatGPT repose sur ses hallucinations","isPartOf":{"@id":"https:\/\/legrandcontinent.eu\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#primaryimage"},"image":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#primaryimage"},"thumbnailUrl":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg","datePublished":"2026-03-10T16:09:04+00:00","dateModified":"2026-03-10T16:10:59+00:00","author":{"@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45"},"breadcrumb":{"@id":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#primaryimage","url":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg","contentUrl":"https:\/\/legrandcontinent.eu\/fr\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg","width":2560,"height":1706,"caption":"Image \u00e0 partir d'une photographie de Sam Altman en 2026. \u00a9 SIPA\/AP"},{"@type":"BreadcrumbList","@id":"https:\/\/legrandcontinent.eu\/fr\/2026\/03\/10\/hallucination-ia-chatgpt\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/legrandcontinent.eu\/fr\/"},{"@type":"ListItem","position":2,"name":"IA&#160;: le mod\u00e8le \u00e9conomique de ChatGPT repose sur les hallucinations"}]},{"@type":"WebSite","@id":"https:\/\/legrandcontinent.eu\/fr\/#website","url":"https:\/\/legrandcontinent.eu\/fr\/","name":"Le Grand Continent","description":"L&#039;\u00e9chelle pertinente","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/legrandcontinent.eu\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Person","@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/a1c2123a1ef5abd663fcde8f63063d45","name":"Matheo Malik","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/legrandcontinent.eu\/fr\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/62cbadb9f7f0804282928747d8d2051d?s=96&d=mm&r=g","caption":"Matheo Malik"}}]}},"term_position_data":null,"_links":{"self":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts\/321318","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/users\/10"}],"replies":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/comments?post=321318"}],"version-history":[{"count":5,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts\/321318\/revisions"}],"predecessor-version":[{"id":321325,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/posts\/321318\/revisions\/321325"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/media\/321319"}],"wp:attachment":[{"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/media?parent=321318"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/categories?post=321318"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/tags?post=321318"},{"taxonomy":"staff","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/staff?post=321318"},{"taxonomy":"editorial_format","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/editorial_format?post=321318"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/serie?post=321318"},{"taxonomy":"audience","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/audience?post=321318"},{"taxonomy":"geo","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/fr\/wp-json\/wp\/v2\/geo?post=321318"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}