{"id":93041,"date":"2026-03-11T05:00:00","date_gmt":"2026-03-11T04:00:00","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=93041"},"modified":"2026-03-10T23:47:57","modified_gmt":"2026-03-10T22:47:57","slug":"ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/","title":{"rendered":"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones"},"content":{"rendered":"\n<p class=\"intro\">El a\u00f1o pasado, alrededor de<a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/12\/28\/la-ia-en-2025-cuatro-tendencias\/\"> 1.800 millones de personas utilizaron la IA<\/a> en todo el mundo, de las cuales entre 550 y 600 millones lo hicieron a diario.<\/p>\n\n\n\n<p class=\"intro\">Ahora que cientos de millones de personas recurren a los numerosos chatbots disponibles de forma gratuita (ChatGPT, Claude, Gemini, Le Chat) para formular sus consultas, la cuesti\u00f3n de las alucinaciones, es decir, las respuestas err\u00f3neas desde el punto de vista factual que producen los modelos, ha pasado a ocupar un lugar destacado en el debate p\u00fablico. Bien identificadas por el p\u00fablico en general, hoy en d\u00eda ocupan un lugar central en las cr\u00edticas dirigidas a los sistemas de IA y, m\u00e1s ampliamente, en los debates sobre su fiabilidad.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-1-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-1-93041' title='&lt;a href=&quot;https:\/\/hai.stanford.edu\/assets\/files\/hai_ai_index_report_2025.pdf&quot;&gt;Artificial Intelligence Index Report 2025&lt;\/a&gt;, Stanford Institute for Human-Centered Artificial Intelligence.'><sup>1<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p class=\"intro\">A medida que los sistemas de IA se utilizan para tareas m\u00e1s complejas y de mayor duraci\u00f3n, en contextos m\u00e1s amplios, aparece una limitaci\u00f3n estructural para verificar un n\u00famero creciente de afirmaciones f\u00e1cticas distintas, cada una de las cuales deber\u00eda examinarse por separado. En resumen, la verificaci\u00f3n humana no se adapta a la escala y los modelos incapaces de verificar por s\u00ed mismos sus respuestas y razonamientos no pueden ser totalmente fiables. Desde esta perspectiva, hacer que los sistemas de IA sean verificables se convierte en una condici\u00f3n para superar un nuevo umbral de capacidad.<\/p>\n\n\n\n<p class=\"intro\">En un art\u00edculo publicado el 5 de septiembre de 2025,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-2-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-2-93041' title='&lt;a href=&quot;https:\/\/openai.com\/fr-FR\/index\/why-language-models-hallucinate\/&quot;&gt;Mod\u00e8les de langage : aux origines des hallucinations&lt;\/a&gt;, OpenAI, 5 de septiembre de 2025.'><sup>2<\/sup><\/a><\/span><\/span> es decir, entre<a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/08\/07\/openai-acaba-de-lanzar-gpt-5-y-gpt-oss-en-la-carrera-por-la-supremacia-estadounidense-de-ia-geopolitica-del-codigo-abierto-segun-sam-altman-1\/\"> el lanzamiento de GPT-5<\/a> en agosto de 2025 y antes del de GPT-5.1 y GPT-5.2, OpenAI quiso acabar con el mito de un modelo infalible: las alucinaciones son inherentes a la arquitectura estad\u00edstica de los LLM.<\/p>\n\n\n\n<p class=\"intro\">Para una de las mayores empresas en el campo de los LLM, la declaraci\u00f3n solo socava aparentemente su propio trabajo. Present\u00e1ndose a la vez como una contribuci\u00f3n t\u00e9cnica y como una toma de posici\u00f3n institucional, el art\u00edculo de OpenAI no sabotea los LLM al reconocer en ellos un l\u00edmite insuperable: invita a reformular su uso.<\/p>\n\n\n\n<p class=\"intro\">En la era de los sistemas ag\u00e9nticos, al estar el LLM acoplado a medios externos como los sistemas de b\u00fasqueda en l\u00ednea, ya no se trata de crear una herramienta infalible en sus respuestas. La reorientaci\u00f3n de los LLM hacia una herramienta de trabajo, y no un sustituto de las enciclopedias, debe ir acompa\u00f1ada de una revisi\u00f3n de los <em>benchmarks<\/em> sobre los que se eval\u00faan, as\u00ed como de la arquitectura de estos mismos modelos.<\/p>\n\n\n\n<p class=\"intro\">Las instrucciones proporcionadas a los LLM, as\u00ed como los criterios seleccionados para los <em>benchmarks<\/em>, premian de hecho una forma de seguridad ficticia: se privilegia que brinden una respuesta, aunque sea falsa, frente a la admisi\u00f3n de la ignorancia. Modificar estas normas solo es posible revisando las promesas que han impulsado el crecimiento de la IA, que el art\u00edculo presenta como l\u00edneas de fuga.<\/p>\n\n\n\n<p class=\"intro\">Contra el sue\u00f1o de una escalada que resolver\u00eda todas las dificultades de los modelos actuales, los autores demuestran, mediante consideraciones estad\u00edsticas, que los errores no pueden eliminarse aumentando el tama\u00f1o del corpus de entrenamiento. Por lo tanto, el pr\u00f3ximo frente no estar\u00eda tanto en el lado de la potencia de c\u00e1lculo como en una forma adecuada de hacer que los LLM sean capaces de dudar.<\/p>\n\n\n\n<p>En OpenAI, hacemos todo lo posible para que nuestros sistemas de IA sean m\u00e1s \u00fatiles y fiables. Pero, por mucho que los modelos de lenguaje ganen en competencia, presentan un problema a\u00fan sin soluci\u00f3n: las alucinaciones. Las alucinaciones son respuestas falsas que, sin embargo, se proporcionan a los usuarios con total seguridad.<\/p>\n\n\n\n<p>Seg\u00fan nuestro nuevo estudio, los modelos alucinan porque los entrenamientos y evaluaciones cl\u00e1sicos premian m\u00e1s las respuestas aleatorias que el reconocimiento de la incertidumbre.<\/p>\n\n\n\n<p class=\"comment\">Nos referimos al art\u00edculo cient\u00edfico publicado por los investigadores de OpenAI&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-3-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-3-93041' title='Adam Tauman Kalai, Ofir Nachum, Santosh S. Vempala, Edwin Zhang, \u00ab&lt;a href=&quot;https:\/\/cdn.openai.com\/pdf\/d04913be-3f6f-4d2b-b283-ff432ef4aaa5\/why-language-models-hallucinate.pdf&quot;&gt;Why Language Models Hallucinate&lt;\/a&gt;\u00bb, 4 de septiembre de 2025.'><sup>3<\/sup><\/a><\/span><\/span> cuando mencionamos el documento en los comentarios siguientes.<\/p>\n\n\n\n<p>ChatGPT no es inmune a las alucinaciones. Aunque GPT-5 supone un claro avance con respecto a sus predecesores en este \u00e1mbito, y en particular en las tareas de razonamiento\u2060, a veces es v\u00edctima de ellas. Las alucinaciones siguen siendo un problema central de los grandes modelos de lenguaje, pero estamos haciendo todo lo posible para reducirlas.<\/p>\n\n\n\n<p class=\"comment\">El progreso de los modelos en los <em>benchmarks<\/em> dominantes no predice su comportamiento ante hechos poco frecuentes: esto es precisamente lo que ilustra la trayectoria de la serie GPT-5.<\/p>\n\n\n\n<p class=\"comment\">La arquitectura de uso de la serie GPT-5 se basa en el acceso a herramientas externas, en particular sistemas de b\u00fasqueda en l\u00ednea, que les permiten consultar fuentes de informaci\u00f3n actualizadas y extraer los elementos pertinentes para generar una respuesta. En este contexto, la memorizaci\u00f3n param\u00e9trica de hechos individuales pasa a ser menos importante que la capacidad de localizar, seleccionar y explotar fuentes fiables: dado que la codificaci\u00f3n exhaustiva de los hechos es precisamente lo que miden los <em>benchmarks<\/em> denominados \u00abde factualidad\u00bb, no es de extra\u00f1ar que su puntuaci\u00f3n en estos sea m\u00e1s baja.<\/p>\n\n\n\n<p class=\"comment\">Entre los <em>benchmarks<\/em> de factualidad, SimpleQA Verified,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-4-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-4-93041' title='SimpleQA es un &lt;em&gt;benchmark&lt;\/em&gt; introducido por OpenAI. A partir de \u00e9l, Google ha desarrollado SimpleQA Verified con el fin de corregir varias limitaciones importantes del conjunto de datos inicial. V\u00e9ase \u00ab&lt;a href=&quot;https:\/\/arxiv.org\/pdf\/2509.07968&quot;&gt;SimpleQA Verified: A Reliable Factuality Benchmark to Measure Parametric Knowledge&lt;\/a&gt;\u00bb, Google, 2025.'><sup>4<\/sup><\/a><\/span><\/span> por ejemplo, contiene 1.000 preguntas factuales sobre \u00e1mbitos como la ciencia, el arte, la geograf\u00eda, la pol\u00edtica, etc. Tomado de forma aislada, es una medida limitada del rendimiento global de un modelo, ya que eval\u00faa sobre todo la capacidad de memorizaci\u00f3n de los datos de preentrenamiento. Por lo tanto, SimpleQA Verified no se considera un <em>benchmark<\/em> central para seguir la evoluci\u00f3n de las capacidades de los modelos a lo largo del tiempo. Sin embargo, es valioso por una raz\u00f3n espec\u00edfica: se centra exactamente en la clase de hechos que la teor\u00eda del art\u00edculo cient\u00edfico producido por los equipos de ChatGPT predice que son irremediablemente propensos a las alucinaciones.<\/p>\n\n\n\n<p class=\"comment\">Las puntuaciones de los diferentes modelos de OpenAI a partir de ChatGPT ilustran esta p\u00e9rdida de memoria, en beneficio de tareas m\u00e1s complejas. En SimpleQA Verified, GPT5 tiene una puntuaci\u00f3n del 51 %, frente al 45 % de GPT5.4 o el 39 % de GPT5.2. Paralelamente, en las pruebas de rendimiento de tareas de ingenier\u00eda de software como SWE-Bench Pro, GPT5.2 alcanza un 57,7 % frente al 41,8 % de GPT5.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-5-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-5-93041' title='\u00ab&lt;a href=&quot;https:\/\/openai.com\/index\/introducing-gpt-5-4\/&quot;&gt;Introducing GPT-5.4&lt;\/a&gt;\u00bb, OpenAI, 5 de marzo de 2026. Ver tambi\u00e9n &lt;a href=&quot;https:\/\/arxiv.org\/pdf\/2509.16941&quot;&gt;SWE-Bench Pro : Can AI Agents Solve Long-Horizon Software Engineering Tasks ?&lt;\/a&gt;, Scale AI, 2025.'><sup>5<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>\u00bfQu\u00e9 son las alucinaciones?<\/strong><\/h2>\n\n\n\n<p>Las alucinaciones son afirmaciones plausibles, pero falsas, que hacen los modelos de lenguaje.<\/p>\n\n\n\n<p>Pueden aparecer en contextos inesperados, por ejemplo, en respuestas a preguntas muy sencillas. Por ejemplo, cuando le preguntamos a un <em>chatbot<\/em> muy popular el t\u00edtulo de la tesis de Adam Tauman Kalai (uno de los autores de nuestro estudio), nos proporcion\u00f3 con seguridad tres t\u00edtulos diferentes, todos ellos falsos. Cuando le preguntamos la fecha de cumplea\u00f1os de Adam, tambi\u00e9n nos dio tres fechas diferentes, todas ellas falsas.<\/p>\n\n\n\n<p class=\"comment\">El art\u00edculo distingue dos causas estructuralmente diferentes de alucinaci\u00f3n, y esta distinci\u00f3n aclara directamente por qu\u00e9 los modelos de razonamiento \u2014modelos de lenguaje desarrollados desde 2025, dise\u00f1ados para descomponer problemas complejos en trazas m\u00e1s peque\u00f1as\u2014 solo constituyen una soluci\u00f3n parcial.<\/p>\n\n\n\n<p class=\"comment\">La primera categor\u00eda, los errores de modelo deficiente (<em>poor-model errors<\/em> en el art\u00edculo), se produce cuando la arquitectura o el modelo es estructuralmente incapaz de representar el concepto solicitado. El ejemplo can\u00f3nico del art\u00edculo es el recuento de letras: DeepSeek-V3 no consigue contar las \u00abD\u00bb en \u00abDEEPSEEK\u00bb porque el modelo opera con tokens (D\/EEP\/SEE\/K)&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-6-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-6-93041' title='Los tokens son las unidades b\u00e1sicas del texto que los modelos de IA m\u00e1s utilizados explotan para comprender y aprender el lenguaje.'><sup>6<\/sup><\/a><\/span><\/span> y no con caracteres individuales: la limitaci\u00f3n es entonces representacional y no informativa, ya que el modelo podr\u00eda conocer la respuesta si su representaci\u00f3n interna fuera diferente. As\u00ed, DeepSeek-R1, el modelo de razonamiento, resuelve este problema generando una cadena de pensamiento que deletrea expl\u00edcitamente \u00abD-E-E-P-S-E-E-K\u00bb, convirtiendo una tarea impl\u00edcita en una tarea procedimental. En este contexto, como en cualquier tarea cuya respuesta pueda derivarse de la enunciada mediante una serie de pasos expl\u00edcitos, aritm\u00e9ticos, l\u00f3gicos, c\u00f3digos o demostraciones matem\u00e1ticas, el razonamiento y el aprendizaje reforzado con recompensas verificables&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-7-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-7-93041' title='En un aprendizaje reforzado (&lt;em&gt;reinforced learning)&lt;\/em&gt;, el LLM aprende de sus experiencias gracias a un sistema de recompensas y penalizaciones. En un &lt;em&gt;reinforced learning &lt;\/em&gt;con recompensas verificables, el LLM solo es recompensado si su respuesta supera un control objetivo, como el cumplimiento de determinadas reglas o la superaci\u00f3n de ciertas pruebas.'><sup>7<\/sup><\/a><\/span><\/span> son eficaces.<\/p>\n\n\n\n<p class=\"comment\">La segunda categor\u00eda de alucinaciones, las que se refieren a hechos arbitrarios (<em>arbitrary-fact hallucination<\/em>), es de naturaleza fundamentalmente diferente. Se produce cuando la respuesta correcta no puede inferirse mediante un razonamiento a partir de la afirmaci\u00f3n. Esta respuesta debe entonces recuperarse de los \u00abpesos\u00bb del modelo, donde se ha codificado o no durante el preentrenamiento.<\/p>\n\n\n\n<p class=\"comment\">Para estos hechos, la cadena de razonamiento no produce ning\u00fan c\u00e1lculo: genera una justificaci\u00f3n en lenguaje natural cuyas premisas f\u00e1cticas provienen de los pesos del modelo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>El entrenamiento en cuesti\u00f3n<\/strong><\/h2>\n\n\n\n<p>Si las alucinaciones son tan dif\u00edciles de eliminar, es en parte porque nuestros m\u00e9todos de evaluaci\u00f3n actuales se basan en incentivos inadecuados. Es cierto que las evaluaciones no generan directamente alucinaciones, pero la mayor\u00eda mide el rendimiento de los modelos de tal manera que estos se ven animados a hacer suposiciones en lugar de admitir que no est\u00e1n seguros de sus respuestas.<\/p>\n\n\n\n<p>Para entenderlo mejor, imaginemos que tienes que responder a un cuestionario de opci\u00f3n m\u00faltiple. Si no sabes la respuesta a una pregunta, puedes intentar responder al azar y, con un poco de suerte, obtener el punto. Sin embargo, si no respondes, es seguro que obtendr\u00e1s un cero. Lo mismo ocurre cuando solo se eval\u00faa la precisi\u00f3n de los modelos, es decir, el porcentaje de preguntas a las que dan la respuesta correcta. Por lo tanto, se les anima a dar una respuesta al azar en lugar de admitir su ignorancia.<\/p>\n\n\n\n<p>Pongamos otro ejemplo. Imaginemos que un usuario le pregunta a un modelo de lenguaje la fecha de cumplea\u00f1os de otra persona y que el modelo no tiene ni idea de la respuesta. Al anunciar \u00abel 10 de septiembre\u00bb, tiene 1 posibilidad entre 365 de acertar. Si responde \u00abNo lo s\u00e9\u00bb, tiene la seguridad de dar la respuesta incorrecta. En una prueba con miles de preguntas, el modelo que hace suposiciones acabar\u00e1 obteniendo un rendimiento superior al de un modelo m\u00e1s prudente que admite no saber algunas respuestas.<\/p>\n\n\n\n<p>En las preguntas que solo admiten una respuesta correcta, las posibles respuestas se dividen en tres categor\u00edas: respuestas correctas, errores y ausencias de respuesta. Sin embargo, abstenerse de responder es una muestra de humildad, uno de los valores fundamentales de OpenAI\u2060. La mayor\u00eda de las clasificaciones dan prioridad a la exactitud, sin tener en cuenta que los errores son peores que las abstenciones. La especificaci\u00f3n de los modelos\u2060 indica que es preferible admitir la incertidumbre o pedir aclaraciones antes que dar con seguridad informaci\u00f3n que puede ser inexacta.<\/p>\n\n\n\n<p>Para ver un ejemplo concreto, tomemos la evaluaci\u00f3n SimpleQA extra\u00edda de la ficha del sistema GPT5\u2060.<\/p>\n\n\n\n<div class=\"iframe-container wp-block-image wp-block-image-medium  iframe-dw\">\n\t<div>\n\t\t<iframe class=\"absolute w-full h-full pin-t pin-l\" title=\"titolo\" aria-label=\"Interactive line chart\" src=\"\/\/datawrapper.dwcdn.net\/TVxZF\/\" scrolling=\"no\" frameborder=\"0\"><\/iframe>\n\t<\/div>\n<\/div>\n\n\n\n<p>En t\u00e9rminos de exactitud, el modelo OpenAI o4-mini, m\u00e1s antiguo, es ligeramente m\u00e1s eficaz. Sin embargo, su tasa de errores (y, por lo tanto, de alucinaciones) es mucho m\u00e1s alta. Las hip\u00f3tesis estrat\u00e9gicas mejoran la exactitud en caso de incertidumbre, pero tambi\u00e9n aumentan los errores y las alucinaciones.<\/p>\n\n\n\n<p>La mayor\u00eda de las comparaciones establecen una media basada en decenas de evaluaciones centr\u00e1ndose en un indicador: la precisi\u00f3n. Al hacerlo, pasan por alto elementos importantes. En las evaluaciones m\u00e1s sencillas, como SimpleQA, algunos modelos alcanzan una precisi\u00f3n cercana al 100 % y, por lo tanto, eliminan las alucinaciones. Sin embargo, en evaluaciones m\u00e1s complejas y en situaciones reales, la precisi\u00f3n no puede alcanzar el 100 %, ya que es imposible responder a ciertas preguntas por falta de informaci\u00f3n o de capacidad de reflexi\u00f3n (modelos peque\u00f1os) o debido a ambig\u00fcedades que deben resolverse.<\/p>\n\n\n\n<p>Sin embargo, las evaluaciones que solo se centran en la precisi\u00f3n siguen siendo mayoritarias en las clasificaciones y fichas de sistema de los modelos, lo que empuja a los desarrolladores a crear modelos que prefieren las hip\u00f3tesis a la abstenci\u00f3n. Esta es una de las razones por las que, aunque los modelos ganan en sofisticaci\u00f3n, siguen alucinando en lugar de explicar que no saben responder.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Un mejor sistema de evaluaci\u00f3n<\/h2>\n\n\n\n<p>Existe una soluci\u00f3n sencilla: penalizar m\u00e1s los errores que la incertidumbre y recompensar parcialmente las incertidumbres anunciadas de forma adecuada. En realidad, esta idea no es nada nueva. Desde hace mucho tiempo, algunas pruebas estandarizadas punt\u00faan negativamente las respuestas incorrectas y otorgan una puntuaci\u00f3n parcialmente positiva en ausencia de respuesta para desalentar las respuestas aleatorias. Adem\u00e1s, varios grupos de investigaci\u00f3n han estudiado evaluaciones que podr\u00edan tener en cuenta la incertidumbre y la calibraci\u00f3n.<\/p>\n\n\n\n<p class=\"comment\">El concepto de \u00abcalibraci\u00f3n\u00bb se refiere aqu\u00ed a la capacidad de un modelo para hacer coincidir el nivel de confianza que atribuye a una respuesta con la probabilidad real de que dicha respuesta sea correcta. As\u00ed, un modelo bien calibrado expresar\u00e1 un alto nivel de confianza solo cuando sus respuestas sean efectivamente correctas, y un nivel de confianza m\u00e1s bajo en casos de incertidumbre. El documento de OpenAI recuerda un hecho conocido: un modelo b\u00e1sico despu\u00e9s del preentrenamiento&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-8-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-8-93041' title='Fase del aprendizaje autom\u00e1tico en la que el LLM se entrena con un gran conjunto de datos para una tarea espec\u00edfica.'><sup>8<\/sup><\/a><\/span><\/span> \u2014fase del aprendizaje autom\u00e1tico en la que el LLM se entrena con un gran conjunto de datos para una tarea espec\u00edfica\u2014 est\u00e1 mejor calibrado que despu\u00e9s del postentrenamiento, fase en la que el modelo aprende a seguir instrucciones, mejora sus capacidades agenciales, resuelve tareas, razona sobre contextos largos, etc.<\/p>\n\n\n\n<p class=\"comment\">Por lo tanto, la calibraci\u00f3n es un aspecto de una motivaci\u00f3n m\u00e1s amplia que tiene como objetivo comprender lo que Anthropic denomina la honestidad de los modelos de IA, un concepto que agrupa varias dimensiones:<\/p>\n\n\n\n<p class=\"comment\">-Veracidad (<em>truthfulness<\/em>): \u00bfproporciona el sistema de IA informaci\u00f3n objetivamente exacta, en particular identificando, utilizando y evaluando correctamente las fuentes?<\/p>\n\n\n\n<p class=\"comment\">-Calibraci\u00f3n: \u00bflas probabilidades predichas por la IA corresponden con las frecuencias reales de ocurrencia?<\/p>\n\n\n\n<p class=\"comment\">-Autoconocimiento (<em>self-knowledge<\/em>): \u00bfsaben los sistemas de IA lo que hacen y pueden hacer predicciones fiables sobre su propio comportamiento y razonamiento?<\/p>\n\n\n\n<p class=\"comment\">-Explicabilidad (<em>explainability<\/em>): \u00bfrevelan los sistemas de IA su proceso de razonamiento de forma completa y fiel?<\/p>\n\n\n\n<p class=\"comment\">-Ausencia de enga\u00f1o (<em>non-deceptiveness<\/em>): \u00bfse puede garantizar que los sistemas de IA no aprendan a mentir, por ejemplo, cuando los datos sobre las preferencias humanas fomentan errores sistem\u00e1ticos o recompensan m\u00e1s las ideas falsas pero agradables?<\/p>\n\n\n\n<p>Para nosotros, la soluci\u00f3n est\u00e1 en otra parte. No basta con a\u00f1adir algunas pruebas adicionales que tengan en cuenta la incertidumbre. Es necesario revisar directamente las evaluaciones basadas en la exactitud m\u00e1s utilizadas para desalentar las hip\u00f3tesis. Si las grandes clasificaciones siguen recompensando las hip\u00f3tesis acertadas, los modelos seguir\u00e1n aprendiendo a adivinar. Por el contrario, la correcci\u00f3n de las clasificaciones puede ampliar la adopci\u00f3n de t\u00e9cnicas de reducci\u00f3n de alucinaciones, ya sean nuevas o procedentes de investigaciones m\u00e1s antiguas.<\/p>\n\n\n\n<p class=\"comment\">El art\u00edculo de OpenAI destaca que el informe AI Index 2025&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-9-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-9-93041' title='&lt;a href=&quot;https:\/\/hai.stanford.edu\/assets\/files\/hai_ai_index_report_2025.pdf&quot;&gt;Artificial Intelligence Index Report 2025&lt;\/a&gt;, &lt;em&gt;op. cit.&lt;\/em&gt;'><sup>9<\/sup><\/a><\/span><\/span> indica que los <em>benchmarks<\/em> dedicados a la evaluaci\u00f3n de las alucinaciones tienen dificultades para imponerse como referencias en la industria, por las razones estructurales aqu\u00ed descritas.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Por qu\u00e9 la predicci\u00f3n de la siguiente palabra genera alucinaciones<\/strong><\/h2>\n\n\n\n<p>Hemos visto por qu\u00e9 las alucinaciones son tan dif\u00edciles de eliminar, pero no de d\u00f3nde provienen estos errores f\u00e1cticos tan espec\u00edficos. Si lo pensamos bien, los grandes modelos preentrenados rara vez cometen otros tipos de errores, como faltas de ortograf\u00eda o errores tipogr\u00e1ficos. La diferencia radica en la l\u00f3gica que se esconde detr\u00e1s de los datos.<\/p>\n\n\n\n<p>Los modelos de lenguaje aprenden primero a trav\u00e9s de una fase de preentrenamiento, un proceso que consiste en predecir la siguiente palabra dentro de una enorme cantidad de texto. En esta fase, a diferencia de lo que ocurre en los problemas cl\u00e1sicos de <em>machine learning<\/em>, no hay una etiqueta \u00abverdadero\/falso\u00bb asociada a cada afirmaci\u00f3n. El modelo solo ve ejemplos positivos de formulaciones naturales y, por lo tanto, debe estimar la distribuci\u00f3n global del lenguaje.<\/p>\n\n\n\n<p>Es dos veces m\u00e1s dif\u00edcil distinguir entre afirmaciones v\u00e1lidas y no v\u00e1lidas sin ejemplos etiquetados de afirmaciones no v\u00e1lidas. Pero incluso con las etiquetas, algunos errores siguen siendo inevitables. Para comprender bien las razones, bas\u00e9monos en una nueva analog\u00eda. En el campo del reconocimiento de im\u00e1genes, el etiquetado de millones de fotos de gatos y perros permite a los algoritmos clasificarlas de forma fiable. Imaginemos que, en lugar de etiquetar cada foto seg\u00fan su tema (perro o gato), indicamos la fecha de cumplea\u00f1os del animal. Dado que estas fechas son aleatorias, esta tarea siempre generar\u00eda errores, independientemente del grado de sofisticaci\u00f3n del algoritmo.<\/p>\n\n\n\n<p class=\"comment\">Desde un punto de vista hist\u00f3rico, el reconocimiento de im\u00e1genes es uno de los primeros campos en los que se desarroll\u00f3 el aprendizaje autom\u00e1tico. A partir del aprendizaje con un corpus de im\u00e1genes, acompa\u00f1adas de etiquetas que identificaban cada una de ellas, se trataba de clasificar correctamente otras ilustraciones que no figuraban en los datos de entrenamiento. Por ejemplo, dada una base de datos de im\u00e1genes de perros y gatos con la que se entren\u00f3 el LLM, este deb\u00eda identificar correctamente \u2014como foto de gato o de perro\u2014 otras ilustraciones que no proced\u00edan del corpus de aprendizaje. Dado que la imagen de un gato o un perro no proporciona ninguna informaci\u00f3n sobre su fecha de cumplea\u00f1os, un modelo entrenado con un corpus de im\u00e1genes en el que dicha fecha se asociara, como etiqueta, a cada foto, no podr\u00eda inferirla de forma fiable para ilustraciones que no figuran en el corpus de entrenamiento. Por el contrario, el reconocimiento de la identidad de un animal \u2014perro, gato u otro\u2014 se basa en la morfolog\u00eda, diferente para cada una de estas especies.<\/p>\n\n\n\n<p>Lo mismo ocurre con el preentrenamiento. La ortograf\u00eda y la organizaci\u00f3n de los par\u00e9ntesis siguen una l\u00f3gica. Por lo tanto, los errores se eliminan a medida que aumenta el volumen de datos. Por el contrario, los hechos aleatorios cuya frecuencia es baja, como la fecha de cumplea\u00f1os de un animal, no pueden predecirse mediante ninguna l\u00f3gica y, por lo tanto, generan alucinaciones.<\/p>\n\n\n\n<p class=\"comment\">Consideremos un modelo que no dispone de una herramienta de motor de b\u00fasqueda, es decir, de la capacidad de realizar b\u00fasquedas en internet o en bases de datos <em>ad hoc<\/em>. El documento de OpenAI explica que la tasa de alucinaci\u00f3n de este modelo se reduce asint\u00f3ticamente por la masa faltante, la probabilidad bajo la distribuci\u00f3n real de encontrar un hecho ausente en el corpus de entrenamiento. Esta masa faltante no se puede observar directamente, pero la t\u00e9cnica de <em>Good-Turing<\/em>&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-10-93041' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#easy-footnote-bottom-10-93041' title='Irving John Good \u00abThe population frequencies of species and the estimation of population parameters\u00bb. &lt;em&gt;Biometrika&lt;\/em&gt;, 40, 1953, pp. 237\u2013264.'><sup>10<\/sup><\/a><\/span><\/span> garantiza que se aproxima con gran probabilidad a la tasa de singletons, es decir, la fracci\u00f3n de ejemplos de entrenamiento que solo aparecen una vez. Estos singletons no son en s\u00ed mismos hechos alucinados ni la causa de las alucinaciones: son un estimador de la masa de hechos completamente ausentes del entrenamiento, en los que el modelo necesariamente fallar\u00e1 en el momento de la inferencia.<\/p>\n\n\n\n<p class=\"comment\">La ley de Zipf garantiza que este m\u00ednimo nunca converger\u00e1 hacia cero con el tama\u00f1o del corpus: en cualquier corpus textual grande \u2014los modelos de tama\u00f1o medio se entrenan actualmente con 30 billones de tokens\u2014, la frecuencia de las entidades sigue una ley de potencia. En otras palabras, si consideramos la <em>n<\/em>-\u00e9sima palabra m\u00e1s com\u00fan del texto, su frecuencia de aparici\u00f3n (n\u00famero de apariciones de palabras \/ n\u00famero de palabras del texto) es del orden de 1\/n^s, con s positivo. En consecuencia, un peque\u00f1o n\u00famero de hechos del mundo real, como \u00abEinstein es el padre de la teor\u00eda de la relatividad\u00bb o \u00abPar\u00eds es la capital de Francia\u00bb, aparecen millones de veces en el corpus, mientras que la gran mayor\u00eda de los hechos solo aparecen una vez, si es que aparecen.<\/p>\n\n\n\n<p class=\"comment\">Esta distribuci\u00f3n se denomina \u00abcola larga\u00bb: si clasificamos por orden decreciente los hechos que figuran en el corpus, seg\u00fan su n\u00famero de apariciones, para luego trazar la curva del n\u00famero de apariciones por n\u00famero de posici\u00f3n, la gran mayor\u00eda de estos hechos, que aparecen muy raramente, forman una larga cola delgada. Sin embargo, es precisamente sobre estos hechos poco presentes en los datos \u2014si es que aparecen\u2014 sobre los que el modelo va a alucinar.<\/p>\n\n\n\n<p class=\"comment\">Multiplicar el tama\u00f1o de los datos de entrenamiento por n solo reduce la masa faltante por un factor polin\u00f3mico n^s (s positivo) y no exponencial (a^n, con a positivo). En consecuencia, la alucinaci\u00f3n no desaparece con el cambio de escala: la cantidad de datos sobre los que el modelo no proporciona una respuesta err\u00f3nea es mayor, pero este vuelve a alucinar un poco m\u00e1s adelante en la cola de distribuci\u00f3n mencionada anteriormente.<\/p>\n\n\n\n<p>Nuestro an\u00e1lisis explica los tipos de alucinaciones que resultan de la predicci\u00f3n de la siguiente palabra. En teor\u00eda, las nuevas etapas posteriores al preentrenamiento deber\u00edan poder eliminarlas, pero hoy en d\u00eda no es as\u00ed por las razones descritas en la secci\u00f3n anterior.<\/p>\n\n\n\n<p class=\"comment\">Este fen\u00f3meno se debe, en particular, al hecho de que las etapas posteriores al entrenamiento, especialmente el aprendizaje por refuerzo, ya no optimizan directamente la predicci\u00f3n del siguiente token. M\u00e1s bien buscan maximizar una funci\u00f3n de recompensa que aproxima la calidad percibida de una respuesta: su utilidad, coherencia, seguridad y conformidad con las instrucciones. Este cambio de objetivo puede mejorar el comportamiento general del modelo, pero no garantiza necesariamente una mejor restituci\u00f3n de hechos raros o arbitrarios, que depende sobre todo del conocimiento param\u00e9trico adquirido durante el preentrenamiento. Los modelos de razonamiento con recompensas verificables, como o3 y DeepSeek-R1, eluden parcialmente este problema en los \u00e1mbitos con verificaci\u00f3n autom\u00e1tica, como las matem\u00e1ticas o la codificaci\u00f3n.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Conclusiones<\/strong><\/h2>\n\n\n\n<p>Esperamos que la explicaci\u00f3n estad\u00edstica de nuestro estudio aclare la naturaleza de las alucinaciones y desmonte varias ideas err\u00f3neas, por ejemplo:<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Afirmaci\u00f3n<\/h4>\n\n\n\n<p>Las alucinaciones desaparecer\u00e1n si mejoramos la precisi\u00f3n de los modelos, ya que un modelo que obtiene una puntuaci\u00f3n de precisi\u00f3n del 100 % no puede alucinar.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Observaci\u00f3n<\/h4>\n\n\n\n<p>La precisi\u00f3n de los modelos nunca alcanzar\u00e1 el 100 %, ya que, independientemente de su tama\u00f1o y de sus capacidades de investigaci\u00f3n y razonamiento, un modelo nunca podr\u00e1 responder a algunas de las preguntas que se le plantean en el mundo real.<\/p>\n\n\n\n<p class=\"has-text-align-center\">&#8211;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Afirmaci\u00f3n<\/h4>\n\n\n\n<p>Las alucinaciones son inevitables.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Observaci\u00f3n<\/h4>\n\n\n\n<p>Esto no es cierto, ya que los modelos de lenguaje pueden optar por no responder en caso de incertidumbre.<\/p>\n\n\n\n<p class=\"has-text-align-center\">&#8211;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Afirmaci\u00f3n<\/h4>\n\n\n\n<p>Evitar las alucinaciones requiere un nivel de inteligencia que solo se puede alcanzar con los modelos m\u00e1s grandes.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Observaci\u00f3n<\/h4>\n\n\n\n<p>Por el contrario, puede ser m\u00e1s f\u00e1cil para un modelo peque\u00f1o determinar sus l\u00edmites. Por ejemplo, en respuesta a una pregunta sobre el maor\u00ed, un modelo peque\u00f1o que no habla maor\u00ed podr\u00eda simplemente responder \u00abNo lo s\u00e9\u00bb, mientras que un modelo que sabe un poco de maor\u00ed debe determinar primero su nivel de confianza. Como explica el estudio, la \u00abcalibraci\u00f3n\u00bb requiere muchos menos recursos computacionales que proporcionar una respuesta exacta.<\/p>\n\n\n\n<p class=\"has-text-align-center\">&#8211;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Afirmaci\u00f3n<\/h4>\n\n\n\n<p>Las alucinaciones son un misterioso error de los modelos ling\u00fc\u00edsticos modernos.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Observaci\u00f3n<\/h4>\n\n\n\n<p>Comprendemos los mecanismos estad\u00edsticos que dan lugar a las alucinaciones y las recompensan en las evaluaciones.<\/p>\n\n\n\n<p class=\"has-text-align-center\">&#8211;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Afirmaci\u00f3n<\/h4>\n\n\n\n<p>Para medir las alucinaciones, solo necesitamos una buena evaluaci\u00f3n especializada.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Observaci\u00f3n<\/h4>\n\n\n\n<p>Ya se han publicado evaluaciones centradas en las alucinaciones. Sin embargo, una buena evaluaci\u00f3n tiene poco efecto despu\u00e9s de cientos de evaluaciones cl\u00e1sicas basadas en la exactitud que penalizan la humildad y premian las hip\u00f3tesis.<\/p>\n\n\n\n<p>En cambio, conviene replantearse todos los indicadores de las evaluaciones principales para recompensar la expresi\u00f3n de la incertidumbre. Nuestros \u00faltimos modelos de lenguaje presentan tasas de alucinaci\u00f3n reducidas y seguimos mejor\u00e1ndolos.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Mostrar cosas falsas no es un defecto de la IA: es una de sus caracter\u00edsticas estructurales.<\/p>\n<p>Pero para OpenAI, la empresa que lanz\u00f3 ChatGPT, esto no es realmente un problema.<\/p>\n<p>La promesa de la IA se est\u00e1 transformando \u2014y su modelo econ\u00f3mico se est\u00e1 precisando\u2014.<\/p>\n","protected":false},"author":17959,"featured_media":92982,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"templates\/post-speeches.php","format":"standard","meta":{"_acf_changed":true,"_trash_the_other_posts":false,"footnotes":""},"categories":[464],"tags":[],"staff":[154],"editorial_format":[],"serie":[],"audience":[],"geo":[198],"class_list":["post-93041","post","type-post","status-publish","format-standard","hentry","category-poderes-de-la-ia","staff-victor-storchan","geo-mundo"],"acf":{"open_in_webview":false,"accent":false},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones - El Grand Continent<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones - El Grand Continent\" \/>\n<meta property=\"og:description\" content=\"Mostrar cosas falsas no es un defecto de la IA: es una de sus caracter\u00edsticas estructurales.  Pero para OpenAI, la empresa que lanz\u00f3 ChatGPT, esto no es realmente un problema.  La promesa de la IA se est\u00e1 transformando \u2014y su modelo econ\u00f3mico se est\u00e1 precisando\u2014.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/\" \/>\n<meta property=\"og:site_name\" content=\"El Grand Continent\" \/>\n<meta property=\"article:published_time\" content=\"2026-03-11T04:00:00+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2026\/03\/gc-elaltman-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1440\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"anainesfernandez\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2026\/03\/gc-elaltman-scaled.jpg\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"anainesfernandez\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"19 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/\",\"name\":\"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones - El Grand Continent\",\"isPartOf\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg\",\"datePublished\":\"2026-03-11T04:00:00+00:00\",\"author\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c\"},\"breadcrumb\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#primaryimage\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg\",\"contentUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg\",\"width\":2560,\"height\":1706,\"caption\":\"Image \u00e0 partir d'une photographie de Sam Altman en 2026. \u00a9 SIPA\/AP\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/legrandcontinent.eu\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/\",\"name\":\"El Grand Continent\",\"description\":\"La escala pertinente\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c\",\"name\":\"anainesfernandez\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g\",\"caption\":\"anainesfernandez\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones - El Grand Continent","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/","og_locale":"es_ES","og_type":"article","og_title":"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones - El Grand Continent","og_description":"Mostrar cosas falsas no es un defecto de la IA: es una de sus caracter\u00edsticas estructurales.  Pero para OpenAI, la empresa que lanz\u00f3 ChatGPT, esto no es realmente un problema.  La promesa de la IA se est\u00e1 transformando \u2014y su modelo econ\u00f3mico se est\u00e1 precisando\u2014.","og_url":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/","og_site_name":"El Grand Continent","article_published_time":"2026-03-11T04:00:00+00:00","og_image":[{"width":2560,"height":1440,"url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2026\/03\/gc-elaltman-scaled.jpg","type":"image\/jpeg"}],"author":"anainesfernandez","twitter_card":"summary_large_image","twitter_image":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2026\/03\/gc-elaltman-scaled.jpg","twitter_misc":{"Escrito por":"anainesfernandez","Tiempo de lectura":"19 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/","url":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/","name":"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones - El Grand Continent","isPartOf":{"@id":"https:\/\/legrandcontinent.eu\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#primaryimage"},"image":{"@id":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#primaryimage"},"thumbnailUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg","datePublished":"2026-03-11T04:00:00+00:00","author":{"@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c"},"breadcrumb":{"@id":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#primaryimage","url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg","contentUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/03\/SIPA_ap22981126_000044-moshed-03-10-16-45-12-076-scaled.jpg","width":2560,"height":1706,"caption":"Image \u00e0 partir d'une photographie de Sam Altman en 2026. \u00a9 SIPA\/AP"},{"@type":"BreadcrumbList","@id":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/legrandcontinent.eu\/es\/"},{"@type":"ListItem","position":2,"name":"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones"}]},{"@type":"WebSite","@id":"https:\/\/legrandcontinent.eu\/es\/#website","url":"https:\/\/legrandcontinent.eu\/es\/","name":"El Grand Continent","description":"La escala pertinente","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c","name":"anainesfernandez","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g","caption":"anainesfernandez"}}]}},"term_position_data":null,"_links":{"self":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/93041","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/users\/17959"}],"replies":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/comments?post=93041"}],"version-history":[{"count":18,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/93041\/revisions"}],"predecessor-version":[{"id":93082,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/93041\/revisions\/93082"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media\/92982"}],"wp:attachment":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media?parent=93041"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/categories?post=93041"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/tags?post=93041"},{"taxonomy":"staff","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/staff?post=93041"},{"taxonomy":"editorial_format","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/editorial_format?post=93041"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/serie?post=93041"},{"taxonomy":"audience","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/audience?post=93041"},{"taxonomy":"geo","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/geo?post=93041"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}