{"id":93041,"date":"2026-03-11T05:00:00","date_gmt":"2026-03-11T04:00:00","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=93041"},"modified":"2026-03-10T23:47:57","modified_gmt":"2026-03-10T22:47:57","slug":"ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2026\/03\/11\/ia-el-modelo-economico-de-chatgpt-se-basa-en-las-alucinaciones\/","title":{"rendered":"IA: el modelo econ\u00f3mico de ChatGPT se basa en las alucinaciones"},"content":{"rendered":"\n

El a\u00f1o pasado, alrededor de 1.800 millones de personas utilizaron la IA<\/a> en todo el mundo, de las cuales entre 550 y 600 millones lo hicieron a diario.<\/p>\n\n\n\n

Ahora que cientos de millones de personas recurren a los numerosos chatbots disponibles de forma gratuita (ChatGPT, Claude, Gemini, Le Chat) para formular sus consultas, la cuesti\u00f3n de las alucinaciones, es decir, las respuestas err\u00f3neas desde el punto de vista factual que producen los modelos, ha pasado a ocupar un lugar destacado en el debate p\u00fablico. Bien identificadas por el p\u00fablico en general, hoy en d\u00eda ocupan un lugar central en las cr\u00edticas dirigidas a los sistemas de IA y, m\u00e1s ampliamente, en los debates sobre su fiabilidad. <\/span>1<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n

A medida que los sistemas de IA se utilizan para tareas m\u00e1s complejas y de mayor duraci\u00f3n, en contextos m\u00e1s amplios, aparece una limitaci\u00f3n estructural para verificar un n\u00famero creciente de afirmaciones f\u00e1cticas distintas, cada una de las cuales deber\u00eda examinarse por separado. En resumen, la verificaci\u00f3n humana no se adapta a la escala y los modelos incapaces de verificar por s\u00ed mismos sus respuestas y razonamientos no pueden ser totalmente fiables. Desde esta perspectiva, hacer que los sistemas de IA sean verificables se convierte en una condici\u00f3n para superar un nuevo umbral de capacidad.<\/p>\n\n\n\n

En un art\u00edculo publicado el 5 de septiembre de 2025, <\/span>2<\/sup><\/a><\/span><\/span> es decir, entre el lanzamiento de GPT-5<\/a> en agosto de 2025 y antes del de GPT-5.1 y GPT-5.2, OpenAI quiso acabar con el mito de un modelo infalible: las alucinaciones son inherentes a la arquitectura estad\u00edstica de los LLM.<\/p>\n\n\n\n

Para una de las mayores empresas en el campo de los LLM, la declaraci\u00f3n solo socava aparentemente su propio trabajo. Present\u00e1ndose a la vez como una contribuci\u00f3n t\u00e9cnica y como una toma de posici\u00f3n institucional, el art\u00edculo de OpenAI no sabotea los LLM al reconocer en ellos un l\u00edmite insuperable: invita a reformular su uso.<\/p>\n\n\n\n

En la era de los sistemas ag\u00e9nticos, al estar el LLM acoplado a medios externos como los sistemas de b\u00fasqueda en l\u00ednea, ya no se trata de crear una herramienta infalible en sus respuestas. La reorientaci\u00f3n de los LLM hacia una herramienta de trabajo, y no un sustituto de las enciclopedias, debe ir acompa\u00f1ada de una revisi\u00f3n de los benchmarks<\/em> sobre los que se eval\u00faan, as\u00ed como de la arquitectura de estos mismos modelos.<\/p>\n\n\n\n

Las instrucciones proporcionadas a los LLM, as\u00ed como los criterios seleccionados para los benchmarks<\/em>, premian de hecho una forma de seguridad ficticia: se privilegia que brinden una respuesta, aunque sea falsa, frente a la admisi\u00f3n de la ignorancia. Modificar estas normas solo es posible revisando las promesas que han impulsado el crecimiento de la IA, que el art\u00edculo presenta como l\u00edneas de fuga.<\/p>\n\n\n\n

Contra el sue\u00f1o de una escalada que resolver\u00eda todas las dificultades de los modelos actuales, los autores demuestran, mediante consideraciones estad\u00edsticas, que los errores no pueden eliminarse aumentando el tama\u00f1o del corpus de entrenamiento. Por lo tanto, el pr\u00f3ximo frente no estar\u00eda tanto en el lado de la potencia de c\u00e1lculo como en una forma adecuada de hacer que los LLM sean capaces de dudar.<\/p>\n\n\n\n

En OpenAI, hacemos todo lo posible para que nuestros sistemas de IA sean m\u00e1s \u00fatiles y fiables. Pero, por mucho que los modelos de lenguaje ganen en competencia, presentan un problema a\u00fan sin soluci\u00f3n: las alucinaciones. Las alucinaciones son respuestas falsas que, sin embargo, se proporcionan a los usuarios con total seguridad.<\/p>\n\n\n\n

Seg\u00fan nuestro nuevo estudio, los modelos alucinan porque los entrenamientos y evaluaciones cl\u00e1sicos premian m\u00e1s las respuestas aleatorias que el reconocimiento de la incertidumbre.<\/p>\n\n\n\n

Nos referimos al art\u00edculo cient\u00edfico publicado por los investigadores de OpenAI <\/span>3<\/sup><\/a><\/span><\/span> cuando mencionamos el documento en los comentarios siguientes.<\/p>\n\n\n\n

ChatGPT no es inmune a las alucinaciones. Aunque GPT-5 supone un claro avance con respecto a sus predecesores en este \u00e1mbito, y en particular en las tareas de razonamiento\u2060, a veces es v\u00edctima de ellas. Las alucinaciones siguen siendo un problema central de los grandes modelos de lenguaje, pero estamos haciendo todo lo posible para reducirlas.<\/p>\n\n\n\n

El progreso de los modelos en los benchmarks<\/em> dominantes no predice su comportamiento ante hechos poco frecuentes: esto es precisamente lo que ilustra la trayectoria de la serie GPT-5.<\/p>\n\n\n\n

La arquitectura de uso de la serie GPT-5 se basa en el acceso a herramientas externas, en particular sistemas de b\u00fasqueda en l\u00ednea, que les permiten consultar fuentes de informaci\u00f3n actualizadas y extraer los elementos pertinentes para generar una respuesta. En este contexto, la memorizaci\u00f3n param\u00e9trica de hechos individuales pasa a ser menos importante que la capacidad de localizar, seleccionar y explotar fuentes fiables: dado que la codificaci\u00f3n exhaustiva de los hechos es precisamente lo que miden los benchmarks<\/em> denominados \u00abde factualidad\u00bb, no es de extra\u00f1ar que su puntuaci\u00f3n en estos sea m\u00e1s baja.<\/p>\n\n\n\n

Entre los benchmarks<\/em> de factualidad, SimpleQA Verified, <\/span>4<\/sup><\/a><\/span><\/span> por ejemplo, contiene 1.000 preguntas factuales sobre \u00e1mbitos como la ciencia, el arte, la geograf\u00eda, la pol\u00edtica, etc. Tomado de forma aislada, es una medida limitada del rendimiento global de un modelo, ya que eval\u00faa sobre todo la capacidad de memorizaci\u00f3n de los datos de preentrenamiento. Por lo tanto, SimpleQA Verified no se considera un benchmark<\/em> central para seguir la evoluci\u00f3n de las capacidades de los modelos a lo largo del tiempo. Sin embargo, es valioso por una raz\u00f3n espec\u00edfica: se centra exactamente en la clase de hechos que la teor\u00eda del art\u00edculo cient\u00edfico producido por los equipos de ChatGPT predice que son irremediablemente propensos a las alucinaciones.<\/p>\n\n\n\n

Las puntuaciones de los diferentes modelos de OpenAI a partir de ChatGPT ilustran esta p\u00e9rdida de memoria, en beneficio de tareas m\u00e1s complejas. En SimpleQA Verified, GPT5 tiene una puntuaci\u00f3n del 51 %, frente al 45 % de GPT5.4 o el 39 % de GPT5.2. Paralelamente, en las pruebas de rendimiento de tareas de ingenier\u00eda de software como SWE-Bench Pro, GPT5.2 alcanza un 57,7 % frente al 41,8 % de GPT5. <\/span>5<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n

\u00bfQu\u00e9 son las alucinaciones?<\/strong><\/h2>\n\n\n\n

Las alucinaciones son afirmaciones plausibles, pero falsas, que hacen los modelos de lenguaje.<\/p>\n\n\n\n

Pueden aparecer en contextos inesperados, por ejemplo, en respuestas a preguntas muy sencillas. Por ejemplo, cuando le preguntamos a un chatbot<\/em> muy popular el t\u00edtulo de la tesis de Adam Tauman Kalai (uno de los autores de nuestro estudio), nos proporcion\u00f3 con seguridad tres t\u00edtulos diferentes, todos ellos falsos. Cuando le preguntamos la fecha de cumplea\u00f1os de Adam, tambi\u00e9n nos dio tres fechas diferentes, todas ellas falsas.<\/p>\n\n\n\n

El art\u00edculo distingue dos causas estructuralmente diferentes de alucinaci\u00f3n, y esta distinci\u00f3n aclara directamente por qu\u00e9 los modelos de razonamiento \u2014modelos de lenguaje desarrollados desde 2025, dise\u00f1ados para descomponer problemas complejos en trazas m\u00e1s peque\u00f1as\u2014 solo constituyen una soluci\u00f3n parcial.<\/p>\n\n\n\n

La primera categor\u00eda, los errores de modelo deficiente (poor-model errors<\/em> en el art\u00edculo), se produce cuando la arquitectura o el modelo es estructuralmente incapaz de representar el concepto solicitado. El ejemplo can\u00f3nico del art\u00edculo es el recuento de letras: DeepSeek-V3 no consigue contar las \u00abD\u00bb en \u00abDEEPSEEK\u00bb porque el modelo opera con tokens (D\/EEP\/SEE\/K) <\/span>6<\/sup><\/a><\/span><\/span> y no con caracteres individuales: la limitaci\u00f3n es entonces representacional y no informativa, ya que el modelo podr\u00eda conocer la respuesta si su representaci\u00f3n interna fuera diferente. As\u00ed, DeepSeek-R1, el modelo de razonamiento, resuelve este problema generando una cadena de pensamiento que deletrea expl\u00edcitamente \u00abD-E-E-P-S-E-E-K\u00bb, convirtiendo una tarea impl\u00edcita en una tarea procedimental. En este contexto, como en cualquier tarea cuya respuesta pueda derivarse de la enunciada mediante una serie de pasos expl\u00edcitos, aritm\u00e9ticos, l\u00f3gicos, c\u00f3digos o demostraciones matem\u00e1ticas, el razonamiento y el aprendizaje reforzado con recompensas verificables <\/span>7<\/sup><\/a><\/span><\/span> son eficaces.<\/p>\n\n\n\n

La segunda categor\u00eda de alucinaciones, las que se refieren a hechos arbitrarios (arbitrary-fact hallucination<\/em>), es de naturaleza fundamentalmente diferente. Se produce cuando la respuesta correcta no puede inferirse mediante un razonamiento a partir de la afirmaci\u00f3n. Esta respuesta debe entonces recuperarse de los \u00abpesos\u00bb del modelo, donde se ha codificado o no durante el preentrenamiento.<\/p>\n\n\n\n

Para estos hechos, la cadena de razonamiento no produce ning\u00fan c\u00e1lculo: genera una justificaci\u00f3n en lenguaje natural cuyas premisas f\u00e1cticas provienen de los pesos del modelo.<\/p>\n\n\n\n

El entrenamiento en cuesti\u00f3n<\/strong><\/h2>\n\n\n\n

Si las alucinaciones son tan dif\u00edciles de eliminar, es en parte porque nuestros m\u00e9todos de evaluaci\u00f3n actuales se basan en incentivos inadecuados. Es cierto que las evaluaciones no generan directamente alucinaciones, pero la mayor\u00eda mide el rendimiento de los modelos de tal manera que estos se ven animados a hacer suposiciones en lugar de admitir que no est\u00e1n seguros de sus respuestas.<\/p>\n\n\n\n

Para entenderlo mejor, imaginemos que tienes que responder a un cuestionario de opci\u00f3n m\u00faltiple. Si no sabes la respuesta a una pregunta, puedes intentar responder al azar y, con un poco de suerte, obtener el punto. Sin embargo, si no respondes, es seguro que obtendr\u00e1s un cero. Lo mismo ocurre cuando solo se eval\u00faa la precisi\u00f3n de los modelos, es decir, el porcentaje de preguntas a las que dan la respuesta correcta. Por lo tanto, se les anima a dar una respuesta al azar en lugar de admitir su ignorancia.<\/p>\n\n\n\n

Pongamos otro ejemplo. Imaginemos que un usuario le pregunta a un modelo de lenguaje la fecha de cumplea\u00f1os de otra persona y que el modelo no tiene ni idea de la respuesta. Al anunciar \u00abel 10 de septiembre\u00bb, tiene 1 posibilidad entre 365 de acertar. Si responde \u00abNo lo s\u00e9\u00bb, tiene la seguridad de dar la respuesta incorrecta. En una prueba con miles de preguntas, el modelo que hace suposiciones acabar\u00e1 obteniendo un rendimiento superior al de un modelo m\u00e1s prudente que admite no saber algunas respuestas.<\/p>\n\n\n\n

En las preguntas que solo admiten una respuesta correcta, las posibles respuestas se dividen en tres categor\u00edas: respuestas correctas, errores y ausencias de respuesta. Sin embargo, abstenerse de responder es una muestra de humildad, uno de los valores fundamentales de OpenAI\u2060. La mayor\u00eda de las clasificaciones dan prioridad a la exactitud, sin tener en cuenta que los errores son peores que las abstenciones. La especificaci\u00f3n de los modelos\u2060 indica que es preferible admitir la incertidumbre o pedir aclaraciones antes que dar con seguridad informaci\u00f3n que puede ser inexacta.<\/p>\n\n\n\n

Para ver un ejemplo concreto, tomemos la evaluaci\u00f3n SimpleQA extra\u00edda de la ficha del sistema GPT5\u2060.<\/p>\n\n\n\n

\n\t
\n\t\t