{"id":82577,"date":"2025-11-13T10:03:55","date_gmt":"2025-11-13T09:03:55","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=82577"},"modified":"2025-11-13T10:03:58","modified_gmt":"2025-11-13T09:03:58","slug":"que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/","title":{"rendered":"\u00bfQu\u00e9 son los TRM? Despu\u00e9s de los LLM, comprender la futura revoluci\u00f3n de la IA"},"content":{"rendered":"\n<p><em>El art\u00edculo \u00abLess is More: Recursive Reasoning with Tiny Networks\u00bb<\/em>&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-1-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-1-82577' title='Alexia Jolicoeur-Martineau, \u00ab&lt;a href=&quot;https:\/\/arxiv.org\/pdf\/2510.04871&quot;&gt;Less is More: Recursive Reasoning with Tiny Networks&lt;\/a&gt;\u00bb, &lt;em&gt;arXiv, &lt;\/em&gt;6 de octubre de 2025.'><sup>1<\/sup><\/a><\/span><\/span><em> apareci\u00f3 en octubre en medio de un tumulto de anuncios y desat\u00f3 una revoluci\u00f3n en el ecosistema de la IA.<\/em><\/p>\n\n\n\n<p><em>Mientras que las infraestructuras de la IA (chips, centros de datos) se han convertido en el centro de los debates industriales y estrat\u00e9gicos, objeto de inversiones colosales, este art\u00edculo firmado por Alexia Jolic\u0153ur-Martineau viene a trastocar las certezas.<\/em><\/p>\n\n\n\n<p><em>Investigadora en inteligencia artificial en el Samsung SAIT AI Lab, se especializa en modelos generativos profundos y lleva una d\u00e9cada trabajando en estos enfoques. Es conocida, en particular, por haber introducido las Relativistic GAN, una mejora de las GAN cl\u00e1sicas, modelos capaces de crear nuevos datos realistas a partir de un conjunto de entrenamiento, como im\u00e1genes, m\u00fasica o texto.<\/em><\/p>\n\n\n\n<p><em>En un contexto de escasez de potencia de c\u00e1lculo, todo el ecosistema observa con atenci\u00f3n las innovaciones arquitect\u00f3nicas que podr\u00edan cambiar las reglas del juego.<\/em><\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/06\/10\/la-ia-no-se-estrella-contra-un-muro-pero-los-llm-si-gary-marcus-sobre-la-ultima-investigacion-de-apple\/\"><strong>A diferencia de los grandes modelos de lenguaje (LLM)<\/strong><\/a><strong> preentrenados que se basan en enormes corpus de datos (web, c\u00f3digo, libros, documentos cient\u00edficos), los modelos recursivos peque\u00f1os (TRM) utilizan una ingenier\u00eda m\u00e1s espec\u00edfica: supervisi\u00f3n profunda, recursi\u00f3n profunda, aumento de datos. \u00bfC\u00f3mo describir\u00eda las principales innovaciones de su art\u00edculo, sus funciones y los principales resultados que se derivan de ellas?<\/strong><\/h3>\n\n\n\n<p>La idea de los TRM es que un modelo peque\u00f1o puede razonar de forma recursiva para actualizar su respuesta.<\/p>\n\n\n\n<p>Un LLM, que es lo que todo el mundo utiliza hoy en d\u00eda, debe generar sus respuestas <em>un token a la vez<\/em>,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-2-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-2-82577' title='En los LLM, los datos en los que se basa el modelo para generar una respuesta se dividen en unidades fundamentales de datos, los &lt;em&gt;tokens. &lt;\/em&gt;Si se trata de un texto, por ejemplo, la divisi\u00f3n puede dividir una misma palabra en varias unidades (no necesariamente sil\u00e1bicas): esto es la tokenizaci\u00f3n. Seg\u00fan este proceso, \u00absol\u00bb podr\u00eda dividirse, por ejemplo, en \u00abso\/l\u00bb. En la generaci\u00f3n de una respuesta, el modelo procede token tras token; dada una finalizaci\u00f3n a\u00fan incompleta, como una frase truncada, le a\u00f1ade el token m\u00e1s probable, cuya probabilidad se calcula a partir de los datos de entrenamiento; esto es la inferencia.&lt;\/p&gt;\n\n\n\n&lt;p&gt;Por ejemplo, si se pregunta \u00ab\u00bfQu\u00e9 clima prefieres, ChatGPT?\u00bb y se da un comienzo de completado \u00ab\u00bfQu\u00e9 clima prefieres, ChatGPT? Prefiero el\u00bb, si el token \u00abso\u00bb se asocia con la mayor probabilidad, se a\u00f1ade a la respuesta: \u00ab\u00bfQu\u00e9 clima prefieres, ChatGPT? Prefiero el so\u00bb. Esta frase un poco m\u00e1s larga se vuelve a proporcionar al LLM, que busca el siguiente token de la misma manera.'><sup>2<\/sup><\/a><\/span><\/span> lo que equivale a media palabra cada vez; si comete un solo error, el resto del razonamiento se ve falseado porque el error se propaga. Por ejemplo, si hace 1+1 = 3, todo el razonamiento posterior se invalida debido al 3, que propagar\u00e1 el error.<\/p>\n\n\n\n<p>Al actualizar su respuesta y reflexionar recursivamente sobre ella, es posible eliminar los errores.<\/p>\n\n\n\n<p>Si el TRM comete errores, puede volver sobre sus pasos \u2014lo que se denomina \u00abbacktrack\u00bb\u2014 y cambiar su respuesta. Esto le permite esperar a tener una respuesta correcta y perfeccionarla antes de generarla; a diferencia de los LLM, el TRM genera su respuesta de una sola vez, y no un token a la vez.<\/p>\n\n\n\n<p>El TRM es un modelo muy peque\u00f1o: la idea es que su car\u00e1cter recursivo le permite razonar m\u00e1s, pero con muy pocos par\u00e1metros. As\u00ed, tiene 10.000 veces menos par\u00e1metros que un LLM cl\u00e1sico y es 1.000 veces m\u00e1s r\u00e1pido, aunque las cifras son dif\u00edciles de estimar. Esto permite entrenarlo con muchos menos recursos, por lo que, indirectamente, es m\u00e1s ecol\u00f3gico.&nbsp;<\/p>\n\n\n\n<p>Al ser peque\u00f1o, el modelo puede funcionar directamente en un tel\u00e9fono, lo que no es posible con los LLM actuales. Hoy en d\u00eda, los datos transitan por internet y se procesan en servidores externos antes de volver al usuario, por lo que la confidencialidad no est\u00e1 garantizada. Con un modelo peque\u00f1o que funciona en el tel\u00e9fono, esta se preserva mejor y el modelo funciona incluso sin conexi\u00f3n.<\/p>\n\n\n\n<p>La promesa de este cambio de paradigma tambi\u00e9n ha beneficiado a Samsung. Mi art\u00edculo se public\u00f3 durante las vacaciones en Corea del Sur; al regresar de las vacaciones, tras su publicaci\u00f3n, la capitalizaci\u00f3n burs\u00e1til de Samsung se dispar\u00f3 un 10 %, lo que equivale a unos 60.000 millones de d\u00f3lares.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>El TRM tiene 10.000 veces menos par\u00e1metros que un LLM cl\u00e1sico y es 1.000 veces m\u00e1s r\u00e1pido.<\/p><cite>Alexia Jolicoeur-Martineau<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Su art\u00edculo sugiere que, para ciertas tareas que requieren un razonamiento exigente, se puede cambiar dr\u00e1sticamente el tama\u00f1o del modelo \u2014el n\u00famero de capas\u2014&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-3-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-3-82577' title='Los LLM funcionan con una arquitectura de \u00abredes neuronales\u00bb. Las neuronas en cuesti\u00f3n son unidades l\u00f3gicas para el \u00abrazonamiento\u00bb del modelo; est\u00e1n organizadas en varias capas, o &lt;em&gt;layers. &lt;\/em&gt;Para el reconocimiento de im\u00e1genes, por ejemplo, las capas de entrada del razonamiento reconocer\u00e1n detalles elementales de la imagen (por ejemplo: \u00abes curvo\u00bb, \u00abes anguloso\u00bb); las capas de salida permitir\u00e1n identificar lo que se representa (\u00abes una garra\u00bb, \u00abes un diente\u00bb, luego \u00abes un perro\u00bb, \u00abes un p\u00e1jaro\u00bb).'><sup>3<\/sup><\/a><\/span><\/span> por una din\u00e1mica de aprendizaje alternativa \u2014supervisi\u00f3n profunda, recursividad profunda\u2014 y una mejor estructuraci\u00f3n de la cantidad de c\u00e1lculo utilizada para la inferencia. \u00bfCu\u00e1l es la idea subyacente para que esto funcione?<\/h3>\n\n\n\n<p>Los LLM ya deben utilizar tiempo de c\u00e1lculo para la inferencia.<\/p>\n\n\n\n<p>Para evitar que un error en un token penalice toda la respuesta, varias t\u00e9cnicas de generaci\u00f3n exploran la posibilidad de realizar varios intentos de respuesta antes de elegir la mejor, o la que aparece con m\u00e1s frecuencia. En consecuencia, estos m\u00e9todos utilizan m\u00e1s c\u00e1lculo para la inferencia.<\/p>\n\n\n\n<p>Desde este punto de vista, no cambia lo que hacen los TRM, pero estos son m\u00e1s peque\u00f1os, por lo que la inferencia se puede realizar en tel\u00e9fonos m\u00f3viles; su entrenamiento es mucho m\u00e1s eficiente y cuesta menos de 500 d\u00f3lares.<\/p>\n\n\n\n<p>Aunque siempre se necesitan datos de muy buena calidad, se pueden procesar muchos m\u00e1s datos mucho m\u00e1s r\u00e1pidamente, ya que los modelos son mucho m\u00e1s peque\u00f1os y la respuesta se genera de una sola vez.<\/p>\n\n\n\n\n\n<figure class=\"wp-block-image wp-block-image-large\"\n    data-shadow=\"false\"\n    data-use-original-file=\"false\">\n    <a\n        data-pswp-src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model1.png\"\n        class=\"inline-block gallery-item no-underline \"\n        data-pswp-width=\"1536\"\n        data-pswp-height=\"1024\">\n                                        <picture>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model1-330x220.png\"\r\n                media=\"(max-width: 374px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model1-690x460.png\"\r\n                media=\"(max-width: 989px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model1-1340x893.png\"\r\n                media=\"(min-width: 990px)\" \/>\r\n                <img decoding=\"async\" src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model1-125x83.png\" \/>\r\n        <\/picture>\r\n                            \n            <\/a>\n<\/figure>\n\n\n<h3 class=\"wp-block-heading\">\u00bfSe observan leyes de escala en estos modelos,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-4-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-4-82577' title='En el \u00e1mbito de los LLM, se ha observado que el rendimiento del modelo \u2014cuantificado de cierta manera\u2014 era una funci\u00f3n determinada del volumen de datos utilizados y del n\u00famero de par\u00e1metros empleados. Esta relaci\u00f3n emp\u00edrica entre variables motiva la carrera por desarrollar modelos m\u00e1s potentes.'><sup>4<\/sup><\/a><\/span><\/span> como es el caso de los LLM? Si es as\u00ed, \u00bfcu\u00e1les son las variables con las que se puede jugar para obtener herramientas m\u00e1s eficaces? \u00bfHay que proporcionar m\u00e1s datos al modelo o hacer que reelabore sus respuestas un mayor n\u00famero de veces?<\/h3>\n\n\n\n<p>El n\u00famero de recursiones necesarias&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-5-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-5-82577' title='Un TRM mejora su respuesta por etapas sucesivas; cada etapa es una \u00abrecursividad\u00bb.'><sup>5<\/sup><\/a><\/span><\/span> depende de la dificultad de las tareas: las tareas m\u00e1s f\u00e1ciles requerir\u00e1n menos recursiones, pero las m\u00e1s dif\u00edciles requerir\u00e1n m\u00e1s.<\/p>\n\n\n\n<p>La idea ser\u00eda, por tanto, alcanzar un cierto equilibrio entre ambas.<\/p>\n\n\n\n<p>Los datos, tanto en cantidad como en calidad, siguen siendo fundamentales en la ecuaci\u00f3n, ya que cuanto m\u00e1s mejora el modelo, menos recursividad se necesita. Sin embargo, cuando el problema se vuelve realmente dif\u00edcil, puede ser \u00fatil reflexionar m\u00e1s tiempo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Usted prueba su modelo con problemas como completar cuadros de sudoku o benchmarks de razonamiento y puede optimizar la arquitectura del modelo en funci\u00f3n de la tarea. Con los LLM, cre\u00edamos que podr\u00edamos acabar con un mundo en el que un modelo se especializaba en una tarea espec\u00edfica. \u00bfEstamos volviendo a ese mundo de modelos especializados por tarea o de arquitecturas especializadas para diferentes tipos de tareas?<\/strong><\/h3>\n\n\n\n<p>Hay que encontrar un equilibrio entre ambos.<\/p>\n\n\n\n<p>Con los LLM, nos hemos inclinado demasiado hacia una sola direcci\u00f3n porque el paradigma anterior era el de la especializaci\u00f3n. Tomamos uno de estos modelos y nos dimos cuenta de que pod\u00eda funcionar mejor en todas las tareas; sin embargo, este paradigma requiere tantos recursos que estamos hablando de miles de millones de d\u00f3lares para mejoras marginales cada vez m\u00e1s peque\u00f1as. Me parece excesivo.<\/p>\n\n\n\n<p>Lo que intento destacar son modelos m\u00e1s peque\u00f1os y sencillos, que ser\u00e1n tan eficaces como los LLM en tareas especializadas. A continuaci\u00f3n, se podr\u00eda pensar en conceptualizar un modelo m\u00e1s general que eligiera el modelo especializado que se ejecutar\u00eda para una tarea.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>Mi art\u00edculo se public\u00f3 durante las vacaciones en Corea del Sur; al regresar de las vacaciones, tras su publicaci\u00f3n, la capitalizaci\u00f3n burs\u00e1til de Samsung se dispar\u00f3 un 10 %, lo que equivale a unos 60.000 millones de d\u00f3lares.<\/p><cite>Alexia Jolicoeur-Martineau<\/cite><\/blockquote><\/figure>\n\n\n\n<p>Podemos pensar, por ejemplo, en Windows: este incluye subprogramas; incluso sin conocerlos en detalle, el programa m\u00e1s general que los gestiona tiene la capacidad de utilizarlos y explotar sus resultados para razonar.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Los avances en su campo de investigaci\u00f3n son r\u00e1pidos. De hecho, est\u00e1 mejorando significativamente los resultados de un art\u00edculo publicado en junio de 2025.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-6-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-6-82577' title='Guan Wang, Jin Li, Yuhao Sun, Xing Chen &lt;em&gt;et al.&lt;\/em&gt;,\u00ab&lt;a href=&quot;https:\/\/arxiv.org\/abs\/2506.21734&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Hierarchical Reasoning Model&lt;\/a&gt;\u00bb, &lt;em&gt;arXiv, &lt;\/em&gt;26 de junio de 2025.'><sup>6<\/sup><\/a><\/span><\/span> \u00bfQu\u00e9 futuro ve para los Tiny Recursive Models? En dos o tres art\u00edculos sobre el tema, \u00bfqu\u00e9 resultados se podr\u00edan esperar?<\/h3>\n\n\n\n<p>Las cosas deber\u00edan ir r\u00e1pido: creo que actualmente hay mucho inter\u00e9s en los TRM y sigo trabajando en ellos para nuevas aplicaciones.<\/p>\n\n\n\n<p>Cabe esperar que se utilicen en todo tipo de \u00e1mbitos, por ejemplo, en materiales o mol\u00e9culas.<\/p>\n\n\n\n<p>Esto es muy importante, especialmente para Samsung, ya que las pantallas de los tel\u00e9fonos utilizan mucha investigaci\u00f3n en biolog\u00eda molecular para obtener una mejor luminosidad, por ejemplo.<\/p>\n\n\n\n\n\n<figure class=\"wp-block-image wp-block-image-large\"\n    data-shadow=\"false\"\n    data-use-original-file=\"false\">\n    <a\n        data-pswp-src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model5.png\"\n        class=\"inline-block gallery-item no-underline \"\n        data-pswp-width=\"1536\"\n        data-pswp-height=\"1024\">\n                                        <picture>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model5-330x220.png\"\r\n                media=\"(max-width: 374px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model5-690x460.png\"\r\n                media=\"(max-width: 989px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model5-1340x893.png\"\r\n                media=\"(min-width: 990px)\" \/>\r\n                <img decoding=\"async\" src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model5-125x83.png\" \/>\r\n        <\/picture>\r\n                            \n            <\/a>\n<\/figure>\n\n\n<p>En t\u00e9rminos m\u00e1s generales, la rob\u00f3tica m\u00f3vil se beneficiar\u00e1 de ello: con los LLM, los modelos son demasiado grandes y el tiempo de latencia es demasiado importante: al utilizarlos, el robot tendr\u00eda movimientos entrecortados.<\/p>\n\n\n\n<p>Es necesario disponer de modelos m\u00e1s r\u00e1pidos y peque\u00f1os para poder crear robots que se muevan de forma continua sin dificultades.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Su trabajo invita a matizar la analog\u00eda biol\u00f3gica que a menudo se utiliza para justificar ciertas decisiones de dise\u00f1o en IA, en particular las del art\u00edculo en el que se bas\u00f3 para su propio trabajo. \u00bfC\u00f3mo percibe el uso de estas met\u00e1foras y, en general, del vocabulario antropom\u00f3rfico como \u00abthinking tokens\u00bb, \u00abreasoning\u00bb o \u00abhallucinating\u00bb cuando se trata de describir el comportamiento de los modelos?<\/strong><\/h3>\n\n\n\n<p>Creo que las met\u00e1foras son atajos, imperfectos, sin duda, pero a menudo \u00fatiles para comprender ideas complejas. Por ejemplo, cuando hablamos de \u00abthinking token\u00bb, no es que un modelo \u00abpiense\u00bb realmente: simplemente escribe, palabra por palabra, un razonamiento que un humano podr\u00eda formular. Es una forma de describir el proceso, no una realidad.<\/p>\n\n\n\n<p>Por supuesto, este tipo de t\u00e9rminos se utilizan a veces para hacer que las tecnolog\u00edas resulten m\u00e1s atractivas; es lo que hacen algunas startups o empresas.<\/p>\n\n\n\n<p>A pesar de todo, estas met\u00e1foras tienen su inter\u00e9s. Los conceptos complejos son m\u00e1s f\u00e1ciles de entender cuando se explican de forma sencilla, y las met\u00e1foras pueden ayudar a esta simplificaci\u00f3n. Para m\u00ed, hablar de razonamiento, por ejemplo, hace que el concepto subyacente sea m\u00e1s accesible e intuitivo.<\/p>\n\n\n\n<p>Los problemas surgen cuando se abusa de estas met\u00e1foras. El art\u00edculo del que part\u00ed era, en mi opini\u00f3n, innecesariamente complicado: en este sentido, es bastante caracter\u00edstico del mundo acad\u00e9mico, donde se utilizan t\u00e9rminos t\u00e9cnicos o biol\u00f3gicos que ni siquiera los investigadores en neurociencia siempre comprenden. No podemos pretender saber c\u00f3mo funciona el cerebro, ni afirmar que nuestros modelos deben reproducir necesariamente ese funcionamiento. Eso era ir demasiado lejos.<\/p>\n\n\n\n<p>En general, las met\u00e1foras y los atajos siguen siendo muy pr\u00e1cticos, siempre y cuando se tengan en cuenta sus limitaciones.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>\u00bfCu\u00e1l es su punto de vista en el debate entre quienes piensan que el escalado ha alcanzado sus l\u00edmites y quienes, por el contrario, consideran que seguir\u00e1 cumpliendo sus promesas?<\/strong><\/h3>\n\n\n\n<p>Hay una desaceleraci\u00f3n muy clara.<\/p>\n\n\n\n<p>La curva de progresi\u00f3n de los modelos solo crece logar\u00edtmicamente en funci\u00f3n del tiempo y los avances tecnol\u00f3gicos; los rendimientos son decrecientes. Se ha observado que alimentarlos con cada vez m\u00e1s datos procedentes de internet no mejora los modelos en tareas espec\u00edficas. Por otra parte, tambi\u00e9n se observa un problema relacionado con la calidad de los datos: muchos datos generales no son muy \u00fatiles.<\/p>\n\n\n\n<p>Con los LLM, cuando se a\u00f1aden tareas a la base de datos de entrenamiento para diversificar las situaciones y las respuestas t\u00edpicas, el modelo mejora en el procesamiento de esas tareas, pero eso no significa que sea realmente capaz de generalizar.<\/p>\n\n\n\n<p>En otras palabras:<a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/06\/10\/la-ia-no-se-estrella-contra-un-muro-pero-los-llm-si-gary-marcus-sobre-la-ultima-investigacion-de-apple\/\"> no hay que esperar que los LLM proporcionen una IA perfecta<\/a>.<\/p>\n\n\n\n\n\n<figure class=\"wp-block-image wp-block-image-large\"\n    data-shadow=\"false\"\n    data-use-original-file=\"false\">\n    <a\n        data-pswp-src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model2.png\"\n        class=\"inline-block gallery-item no-underline \"\n        data-pswp-width=\"1536\"\n        data-pswp-height=\"1024\">\n                                        <picture>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model2-330x220.png\"\r\n                media=\"(max-width: 374px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model2-690x460.png\"\r\n                media=\"(max-width: 989px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model2-1340x893.png\"\r\n                media=\"(min-width: 990px)\" \/>\r\n                <img decoding=\"async\" src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model2-125x83.png\" \/>\r\n        <\/picture>\r\n                            \n            <\/a>\n<\/figure>\n\n\n<p>Con los modelos especializados, sabemos mejor qu\u00e9 esperar.<\/p>\n\n\n\n<p>Por lo tanto, hay que mirar a otra parte para considerar nuevos paradigmas. En este momento, se gasta demasiado dinero y tiempo en explotar el sistema existente en lugar de descubrir nuevas formas de hacer las cosas.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>Los problemas surgen cuando se abusa de las met\u00e1foras.<\/p><cite>Alexia Jolicoeur-Martineau<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>El pasado mes de mayo, Yann Le Cun aconsej\u00f3 a los investigadores acad\u00e9micos y a los estudiantes que desean construir los modelos del futuro que \u00abdejen de trabajar en los LLM\u00bb. \u00bfQu\u00e9 opina al respecto? En la actualidad, \u00bfcu\u00e1les son los diferentes retos \u2014barreras de entrada, costos\u2014 de la investigaci\u00f3n sobre las nuevas arquitecturas?<\/strong><\/h3>\n\n\n\n<p>Estoy de acuerdo con lo que dice Yann Le Cun: en este momento, se presta mucha atenci\u00f3n a los LLM; sin embargo, con ellos, un solo error en la generaci\u00f3n de tokens conduce al fracaso.<\/p>\n\n\n\n<p>La industria est\u00e1 construyendo actualmente sistemas gigantescos para intentar resolver este problema de forma superficial sin cuestionar el paradigma. Por ejemplo, una de las soluciones ha sido introducir artificialmente \u00abesperas\u00bb&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-7-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-7-82577' title='Alexia Jolicoeur-Martineau, \u00ab&lt;a href=&quot;https:\/\/arxiv.org\/pdf\/2510.04871&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;Less is More: Recursive Reasoning with Tiny Networks&lt;\/a&gt;\u00bb, &lt;em&gt;op. cit.&lt;\/em&gt;'><sup>7<\/sup><\/a><\/span><\/span> durante la generaci\u00f3n para incitar al LLM a hacer una pausa y reflexionar. \u00ab1+1 = espera&#8230;2\u00bb.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-8-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-8-82577' title='M\u00e1s concretamente, los investigadores est\u00e1n explorando t\u00e9cnicas para controlar la cantidad de c\u00e1lculo utilizado durante la inferencia (el&lt;em&gt; test-time compute&lt;\/em&gt;). El m\u00e9todo \u00abwait\u00bb consiste en obligar al modelo a detenerse cuando ha \u00abreflexionado\u00bb lo suficiente o, por el contrario, prolongar su reflexi\u00f3n a\u00f1adiendo varias veces la palabra \u00abespera\u00bb a su generaci\u00f3n cuando intenta llegar a una conclusi\u00f3n demasiado pronto.'><sup>8<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Muchos han llegado a pensar que ya no hay nada m\u00e1s que explorar y que la explotaci\u00f3n exclusiva del paradigma actual de los LLM nos llevar\u00e1 a la inteligencia artificial general.<\/p>\n\n\n\n<p>No ser\u00e1 as\u00ed.<\/p>\n\n\n\n<p>Por eso hay que seguir intentando descubrir nuevas formas de hacer las cosas. Sin embargo, explorar estas nuevas v\u00edas es dif\u00edcil, ya que los incentivos son escasos.<\/p>\n\n\n\n<p>La idea de que se necesita necesariamente el modelo m\u00e1s grande para alcanzar el objetivo es derrotista. Tener menos recursos puede ser una ventaja en la investigaci\u00f3n para descubrir nuevas formas de hacer las cosas, medios m\u00e1s eficaces. No hay una \u00fanica manera de hacerlo.<\/p>\n\n\n\n<p>Durante un a\u00f1o, yo tambi\u00e9n me entusiasm\u00e9 con los LLM, pero cada vez que los utilizaba, ya fuera en mol\u00e9culas \u2014para descubrir si pod\u00edan tener propiedades interesantes para las pantallas de los tel\u00e9fonos\u2014 o en videojuegos, obten\u00eda resultados menos satisfactorios.<\/p>\n\n\n\n<p>Mi experiencia es que, en muchas situaciones, es m\u00e1s pertinente entrenar tus propios modelos peque\u00f1os.<\/p>\n\n\n\n\n\n<figure class=\"wp-block-image wp-block-image-large\"\n    data-shadow=\"false\"\n    data-use-original-file=\"false\">\n    <a\n        data-pswp-src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model3.png\"\n        class=\"inline-block gallery-item no-underline \"\n        data-pswp-width=\"1536\"\n        data-pswp-height=\"1024\">\n                                        <picture>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model3-330x220.png\"\r\n                media=\"(max-width: 374px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model3-690x460.png\"\r\n                media=\"(max-width: 989px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model3-1340x893.png\"\r\n                media=\"(min-width: 990px)\" \/>\r\n                <img decoding=\"async\" src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model3-125x83.png\" \/>\r\n        <\/picture>\r\n                            \n            <\/a>\n<\/figure>\n\n\n<h3 class=\"wp-block-heading\">Es la \u00fanica autora de tu art\u00edculo. Esto es bastante notable, ya que es raro en IA en este momento; pensemos, por ejemplo, en el art\u00edculo Gemini de Google,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-9-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-9-82577' title='Gheorghe Comanici, Eric Bieber, Mike Schaekermann &lt;em&gt;et al., &lt;\/em&gt;\u00ab&lt;a href=&quot;https:\/\/arxiv.org\/abs\/2507.06261&quot;&gt;Gemini 2.5 : Pushing the Frontier with Advanced Reasoning, Multimodality, Long Context, and Next Generation Agentic Capabilities&lt;\/a&gt;\u00bb, &lt;em&gt;arXiv, &lt;\/em&gt;7 de julio de 2025.'><sup>9<\/sup><\/a><\/span><\/span> en el que aparecen m\u00e1s de 3.000 autores. \u00bfHay alguna raz\u00f3n en particular por la que lo haya escrito usted sola?<\/h3>\n\n\n\n<p>Fue mi esposa quien realmente me anim\u00f3 a escribir este art\u00edculo, cuando vio que mi curva de citas estaba bajando. Sin embargo, cuando las estrellas se alinean y tienes una idea clara en mente, puedes desarrollar el hilo para escribir solo. Tambi\u00e9n he producido otro art\u00edculo importante de esta manera, \u00ab<em>Relativistic GAN<\/em>\u00bb.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-10-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-10-82577' title='Alexia Jolicoeur-Martineau, \u00ab&lt;a href=&quot;https:\/\/arxiv.org\/abs\/1807.00734&quot; target=&quot;_blank&quot; rel=&quot;noreferrer noopener&quot;&gt;The relativistic discriminator\u00a0: a key element missing from standard GAN&lt;\/a&gt;\u00bb, &lt;em&gt;arXiv, &lt;\/em&gt;10 de septiembre de 2018.'><sup>10<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Geoffrey Hinton y Yoshua Bengio&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-11-82577' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#easy-footnote-bottom-11-82577' title='Geoffrey Hinton y Yoshua Bengio recibieron el Premio Turing en 2018 junto con Yann Le Cun. Este premio, el m\u00e1s importante en el campo de la inform\u00e1tica, reconoci\u00f3 su trabajo en el campo del aprendizaje profundo, que proporciona la arquitectura te\u00f3rica a los LLM contempor\u00e1neos.'><sup>11<\/sup><\/a><\/span><\/span> tambi\u00e9n han escrito en solitario algunos de sus mejores art\u00edculos.<\/p>\n\n\n\n<p>Son ideas que les surgieron de forma intensa.<\/p>\n\n\n\n<p>Cuando todo va bien, escribir es muy sencillo.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La IA entr\u00f3 en nuestras vidas con los LLM como ChatGPT.<\/p>\n<p>Pero estos modelos est\u00e1n mostrando hoy sus l\u00edmites: la nueva frontera sustituye el lenguaje por el razonamiento.<\/p>\n<p>En un art\u00edculo cient\u00edfico cuya publicaci\u00f3n hizo explotar la capitalizaci\u00f3n de Samsung en m\u00e1s de 60.000 millones de d\u00f3lares, Alexia Jolicoeur-Martineau propone otro futuro para la IA: los \u00abTRM\u00bb.<\/p>\n<p>Explicaciones.<\/p>\n","protected":false},"author":17959,"featured_media":82570,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"templates\/post-interviews.php","format":"standard","meta":{"_acf_changed":true,"_trash_the_other_posts":false,"footnotes":""},"categories":[464],"tags":[],"staff":[154],"editorial_format":[],"serie":[],"audience":[],"geo":[172],"class_list":["post-82577","post","type-post","status-publish","format-standard","hentry","category-poderes-de-la-ia","staff-victor-storchan","geo-americas"],"acf":{"open_in_webview":false,"accent":false},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>IA: tras los LLM, \u00bfson los TRM la futura revoluci\u00f3n de la IA?<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"IA: tras los LLM, \u00bfson los TRM la futura revoluci\u00f3n de la IA?\" \/>\n<meta property=\"og:description\" content=\"La IA entr\u00f3 en nuestras vidas con los LLM como ChatGPT.  Pero estos modelos est\u00e1n mostrando hoy sus l\u00edmites: la nueva frontera sustituye el lenguaje por el razonamiento.  En un art\u00edculo cient\u00edfico cuya publicaci\u00f3n hizo explotar la capitalizaci\u00f3n de Samsung en m\u00e1s de 60.000 millones de d\u00f3lares, Alexia Jolicoeur-Martineau propone otro futuro para la IA: los \u00abTRM\u00bb.  Explicaciones.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/\" \/>\n<meta property=\"og:site_name\" content=\"El Grand Continent\" \/>\n<meta property=\"article:published_time\" content=\"2025-11-13T09:03:55+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-11-13T09:03:58+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2025\/11\/gc-elglitchia-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1440\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"anainesfernandez\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2025\/11\/gc-elglitchia-scaled.jpg\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"anainesfernandez\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"13 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/\",\"name\":\"IA: tras los LLM, \u00bfson los TRM la futura revoluci\u00f3n de la IA?\",\"isPartOf\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png\",\"datePublished\":\"2025-11-13T09:03:55+00:00\",\"dateModified\":\"2025-11-13T09:03:58+00:00\",\"author\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c\"},\"breadcrumb\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#primaryimage\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png\",\"contentUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png\",\"width\":1024,\"height\":1536},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/legrandcontinent.eu\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"\u00bfQu\u00e9 son los TRM? Despu\u00e9s de los LLM, comprender la futura revoluci\u00f3n de la IA\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/\",\"name\":\"El Grand Continent\",\"description\":\"La escala pertinente\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c\",\"name\":\"anainesfernandez\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g\",\"caption\":\"anainesfernandez\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"IA: tras los LLM, \u00bfson los TRM la futura revoluci\u00f3n de la IA?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/","og_locale":"es_ES","og_type":"article","og_title":"IA: tras los LLM, \u00bfson los TRM la futura revoluci\u00f3n de la IA?","og_description":"La IA entr\u00f3 en nuestras vidas con los LLM como ChatGPT.  Pero estos modelos est\u00e1n mostrando hoy sus l\u00edmites: la nueva frontera sustituye el lenguaje por el razonamiento.  En un art\u00edculo cient\u00edfico cuya publicaci\u00f3n hizo explotar la capitalizaci\u00f3n de Samsung en m\u00e1s de 60.000 millones de d\u00f3lares, Alexia Jolicoeur-Martineau propone otro futuro para la IA: los \u00abTRM\u00bb.  Explicaciones.","og_url":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/","og_site_name":"El Grand Continent","article_published_time":"2025-11-13T09:03:55+00:00","article_modified_time":"2025-11-13T09:03:58+00:00","og_image":[{"width":2560,"height":1440,"url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2025\/11\/gc-elglitchia-scaled.jpg","type":"image\/jpeg"}],"author":"anainesfernandez","twitter_card":"summary_large_image","twitter_image":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2025\/11\/gc-elglitchia-scaled.jpg","twitter_misc":{"Escrito por":"anainesfernandez","Tiempo de lectura":"13 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/","url":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/","name":"IA: tras los LLM, \u00bfson los TRM la futura revoluci\u00f3n de la IA?","isPartOf":{"@id":"https:\/\/legrandcontinent.eu\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#primaryimage"},"image":{"@id":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#primaryimage"},"thumbnailUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png","datePublished":"2025-11-13T09:03:55+00:00","dateModified":"2025-11-13T09:03:58+00:00","author":{"@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c"},"breadcrumb":{"@id":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#primaryimage","url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png","contentUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2025\/11\/Tiny-Recursive-Model.png","width":1024,"height":1536},{"@type":"BreadcrumbList","@id":"https:\/\/legrandcontinent.eu\/es\/2025\/11\/13\/que-son-los-trm-despues-de-los-llm-comprender-la-futura-revolucion-de-la-ia\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/legrandcontinent.eu\/es\/"},{"@type":"ListItem","position":2,"name":"\u00bfQu\u00e9 son los TRM? Despu\u00e9s de los LLM, comprender la futura revoluci\u00f3n de la IA"}]},{"@type":"WebSite","@id":"https:\/\/legrandcontinent.eu\/es\/#website","url":"https:\/\/legrandcontinent.eu\/es\/","name":"El Grand Continent","description":"La escala pertinente","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c","name":"anainesfernandez","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g","caption":"anainesfernandez"}}]}},"_links":{"self":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/82577","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/users\/17959"}],"replies":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/comments?post=82577"}],"version-history":[{"count":13,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/82577\/revisions"}],"predecessor-version":[{"id":83268,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/82577\/revisions\/83268"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media\/82570"}],"wp:attachment":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media?parent=82577"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/categories?post=82577"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/tags?post=82577"},{"taxonomy":"staff","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/staff?post=82577"},{"taxonomy":"editorial_format","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/editorial_format?post=82577"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/serie?post=82577"},{"taxonomy":"audience","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/audience?post=82577"},{"taxonomy":"geo","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/geo?post=82577"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}