{"id":16250,"date":"2023-04-28T16:28:00","date_gmt":"2023-04-28T15:28:00","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=16250"},"modified":"2023-04-29T12:29:32","modified_gmt":"2023-04-29T11:29:32","slug":"limites-de-un-sistema-desbloquear-la-ia","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/","title":{"rendered":"L\u00edmites de un sistema: desbloquear la IA"},"content":{"rendered":"\n<p class=\"intro\">Escrito en marzo de 2022, este texto de Gary Marcus, profesor em\u00e9rito de psicolog\u00eda y ciencias neuronales en la Universidad de Nueva York, y autor en psicolog\u00eda y ciencias neuronales, precede en unos meses a la irrupci\u00f3n en la esfera p\u00fablica de sistemas como ChatGPT o GTP-4, que democratizan el uso del Deep Learning entre un gran p\u00fablico dividido entre el tecno-optimismo exaltado y la ansiedad paralizante. No obstante, este texto es de gran actualidad, ya que responde a <a href=\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/14\/sam-altman-la-ley-fundamental-de-la-ia\/\">la visi\u00f3n \u00abtriunfalista\u00bb compartida por Sam Altman en&nbsp; <em>Moore&#8217;s Law for everything<\/em><\/a> y pone de relieve los l\u00edmites de la tecnolog\u00eda tal y como los percibe el autor. Al hacerlo, Gary Marcus a\u00f1ade un contexto cient\u00edfico e hist\u00f3rico al debate para arrojar luz sobre una sociedad perpleja ante el futuro de la IA: desde las consecuencias a corto plazo hasta las cat\u00e1strofes existenciales.<\/p>\n\n\n\n<p class=\"intro\">El nuevo paradigma en juego (la ampliaci\u00f3n de t\u00e9cnicas conocidas desde hace a\u00f1os aplic\u00e1ndolas a modelos y conjuntos de datos cada vez mayores) ha propiciado la aparici\u00f3n de una nueva generaci\u00f3n de modelos cuyas prestaciones sin precedentes (generaci\u00f3n de c\u00f3digo o im\u00e1genes, redacci\u00f3n de correos electr\u00f3nicos, compilaci\u00f3n, an\u00e1lisis y s\u00edntesis de informaci\u00f3n, etc.) est\u00e1n volviendo a barajar las cartas de equilibrios tecnol\u00f3gicos que antes se percib\u00edan como intangibles. En primera l\u00ednea, gigantes digitales como Google&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-1-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-1-16250' title='Aaron Mok, \u00ab\u00a0&lt;a href=&quot;https:\/\/www.businessinsider.com\/google-management-issues-code-red-over-chatgpt-report-2022-12?r=US&amp;amp;IR=T&quot;&gt;Google\u2019s management has reportedly issued a \u2018code red\u2019 amid the rising popularity of the ChatGPT AI&lt;\/a&gt;\u00a0\u00bb,\u00a0&lt;em&gt;Insider,\u00a0&lt;\/em&gt;21 de diciembre de 2022.'><sup>1<\/sup><\/a><\/span><\/span> o Meta&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-2-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-2-16250' title='Huileng Tan, \u00ab\u00a0&lt;a href=&quot;https:\/\/www.businessinsider.com\/zuckerberg-new-meta-top-level-team-ai-products-chatgpt-metaverse-2023-2?r=US&amp;amp;IR=T&quot;&gt;After losing billions of dollars on the metaverse, Mark Zuckerberg\u2019s launching a \u2018top-level\u2019 team at Meta to develop AI products for WhatsApp, Messenger, and Instagram&lt;\/a&gt;\u00a0\u00bb,\u00a0&lt;em&gt;Insider,\u00a0&lt;\/em&gt;28 de febrero de 2023.'><sup>2<\/sup><\/a><\/span><\/span> est\u00e1n reexaminando sus estrategias de despliegue de productos para hacer frente a lo que identifican como una seria amenaza de disrupci\u00f3n tecnol\u00f3gica.<\/p>\n\n\n\n<p class=\"intro\">\u00bfPodemos deducir de ello que esta tecnolog\u00eda conducir\u00e1 al objetivo original de los pioneros de la disciplina de dotar a la m\u00e1quina de una inteligencia comparable a la de un humano capaz de realizar cualquier tarea cognitiva? \u00bfO, por el contrario, este paradigma carece fundamentalmente de sustancia para ser plenamente transformador?&nbsp;<\/p>\n\n\n\n<p class=\"intro\">Para Gary Marcus, el enfoque es intr\u00ednsecamente limitado: m\u00e1s parecidos a generadores de pastiches o par\u00e1frasis de diversos grados de sofisticaci\u00f3n, los modelos actuales son intr\u00ednsecamente deficientes a la hora de razonar sobre el mundo y derivar de \u00e9l una comprensi\u00f3n de su entorno que pueda generalizarse m\u00e1s all\u00e1 de la informaci\u00f3n procesada en su entrenamiento. En resumen, los investigadores de la IA necesitan nuevas formas de pensar.<\/p>\n\n\n\n<p class=\"intro\">En un momento en que la IA est\u00e1 cambiando profundamente todos los aspectos de la econom\u00eda, la sociedad y las relaciones internacionales, el debate en el que participa Gary Marcus supera el simple marco de la controversia tecnol\u00f3gica entre expertos. Pone en primer plano cuestiones cr\u00edticas relacionadas con el progreso de la IA y sus m\u00e9todos de despliegue, que requieren un enfoque transversal y multipartito&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-3-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-3-16250' title='\u00ab\u00a0&lt;a href=&quot;https:\/\/www.governance.ai\/post\/increasing-consensus-ai-requires-careful-management&quot;&gt;Preliminary survey results\u00a0: US and European publics overwhelmingly and increasingly agree that AI needs to be managed carefully&lt;\/a&gt;\u00a0\u00bb, Centre for the Governance of AI, 17 de abril de 2023.'><sup>3<\/sup><\/a><\/span><\/span>.\u00a0<\/p>\n\n\n\n<p>\u00abPerm\u00edtanme empezar diciendo unas palabras que parecen obvias\u00bb, dijo Geoffrey Hinton, el \u00abpadrino\u00bb del aprendizaje profundo y uno de los cient\u00edficos m\u00e1s c\u00e9lebres de nuestro tiempo, en una conferencia sobre IA celebrada en Toronto en 2016. \u00abSi trabajas como radi\u00f3logo, eres como el coyote que ya ha pasado por el borde del precipicio pero no ha mirado hacia abajo. El aprendizaje profundo es tan adecuado para leer im\u00e1genes de resonancia magn\u00e9tica y tomograf\u00eda computarizada que la gente deber\u00eda \u00abdejar de formar radi\u00f3logos ahora\u00bb y que es \u00abbastante obvio que dentro de cinco a\u00f1os, el aprendizaje profundo lo har\u00e1 mejor\u00bb.<\/p>\n\n\n\n<p class=\"comment\">G. Hinton es considerado uno de los principales art\u00edfices de la revoluci\u00f3n del Deep learning a principios de los a\u00f1os 2010. En concreto, en 2012, \u00e9l y su alumno Alex Krizhevsky presentaron un nuevo modelo de Deep learning llamado AlexNet, que logr\u00f3 un rendimiento sin precedentes en una competici\u00f3n internacional de clasificaci\u00f3n de im\u00e1genes por sistemas de IA (ImageNet). Esto supuso un punto de inflexi\u00f3n en la adopci\u00f3n del Deep learning por parte de la comunidad cient\u00edfica, que comprendi\u00f3 entonces el tremendo potencial de la tecnolog\u00eda.<\/p>\n\n\n\n<p>Para 2022, no se habr\u00e1 sustituido ni un solo radi\u00f3logo. M\u00e1s bien, el consenso actual es que el aprendizaje autom\u00e1tico para radiolog\u00eda es m\u00e1s dif\u00edcil de lo que parece&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-4-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-4-16250' title='Varoquaux, G. y Cheplygina, V., \u00ab\u00a0&lt;a href=&quot;https:\/\/arxiv.org\/abs\/2103.10292&quot;&gt;How I failed machine learning in medical imaging\u2014shortcomings and recommendations&lt;\/a&gt;\u00a0\u00bb,\u00a0&lt;em&gt;arXiv&lt;\/em&gt;, marzo de 2021.'><sup>4<\/sup><\/a><\/span><\/span>; al menos por ahora, los humanos y las m\u00e1quinas complementan sus fuerzas respectivas&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-5-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-5-16250' title='Chan, S. y Siegel, E.L., \u00ab\u00a0Will machine learning end the viability of radiology as a thriving medical specialty\u00a0?\u00a0\u00bb,\u00a0&lt;em&gt;British Journal of Radiology n\u00b0\u00a0&lt;\/em&gt;92, febrero de 2019.'><sup>5<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>El aprendizaje profundo da lo mejor de s\u00ed cuando se trata de obtener resultados en bruto<\/strong><\/h2>\n\n\n\n<p>Pocas \u00e1reas han recibido tanto bombo y platillo como la inteligencia artificial. Ha pasado de una moda a otra, d\u00e9cada tras d\u00e9cada, siempre prometiendo la luna pero s\u00f3lo ocasionalmente ofreciendo resultados. Primero fueron los sistemas expertos, luego las redes bayesianas y finalmente las m\u00e1quinas de vectores soporte. En 2011 fue Watson, de IBM, que en su d\u00eda se promocion\u00f3 como una revoluci\u00f3n en la medicina y que m\u00e1s recientemente se vendi\u00f3 por piezas&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-6-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-6-16250' title='Ross, C., \u00ab\u00a0Once billed as a revolution in medicine, IBM\u2019s Watson Health is sold off in parts.\u00a0\u00bb,\u00a0&lt;em&gt;STAT News,\u00a0&lt;\/em&gt;2022.'><sup>6<\/sup><\/a><\/span><\/span>. Hoy, y de hecho desde 2012, la moda es el aprendizaje profundo, la t\u00e9cnica multimillonaria que impulsa gran parte de la IA contempor\u00e1nea y de la que Hinton fue uno de los pioneros: ha sido citado medio mill\u00f3n de veces y gan\u00f3, junto con Yoshua Bengio y Yann LeCun, el Premio Turing 2018.<\/p>\n\n\n\n<p class=\"comment\">Desde finales de los a\u00f1os 1940, la historia de la IA ha intercalado periodos de brillantez tecnol\u00f3gica y desinter\u00e9s. Los periodos de desinter\u00e9s se denominan \u00abinviernos de la IA\u00bb. Por ejemplo, a mediados de los a\u00f1os 1970 y finales de los a\u00f1os 1980, la gloriosa narrativa en torno a la IA no reflejaba los logros concretos de la tecnolog\u00eda en la industria de la \u00e9poca, lo que provoc\u00f3 un dr\u00e1stico descenso de la financiaci\u00f3n y un desinter\u00e9s general por la tecnolog\u00eda. M\u00e1s recientemente, desde 2012, cuando el deep learning gan\u00f3 un importante concurso de IA, la tecnolog\u00eda ha despertado un inter\u00e9s creciente.<\/p>\n\n\n\n<p>Como los pioneros de la IA que le precedieron, Hinton suele anunciar la gran revoluci\u00f3n que se avecina. La radiolog\u00eda es solo una parte de ella. En 2015, poco despu\u00e9s de que el Sr. Hinton se uniera a Google, <em>The Guardian <\/em>inform\u00f3 de que la empresa estaba a punto de \u00abdesarrollar algoritmos capaces de l\u00f3gica, conversaci\u00f3n natural e incluso coquetear\u00bb. En noviembre de 2020, Hinton declar\u00f3 al <em>MIT Technology Review<\/em> que \u00abel aprendizaje profundo ser\u00e1 capaz de hacerlo todo\u00bb&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-7-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-7-16250' title='Hao, K., \u00ab\u00a0AI pioneer Geoff Hinton\u00a0: Deep learning is going to be able to do everything\u00a0\u00bb,\u00a0&lt;em&gt;MIT Technology Review,\u00a0&lt;\/em&gt;2020.'><sup>7<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>Lo dudo mucho. En realidad, a\u00fan estamos muy lejos de las m\u00e1quinas capaces de entender realmente el lenguaje humano, y muy lejos de la inteligencia cotidiana de Rosey el Robot, un ama de llaves de ciencia ficci\u00f3n que no s\u00f3lo pod\u00eda interpretar una amplia variedad de peticiones humanas, sino tambi\u00e9n responder con seguridad y en tiempo real. Es cierto que Elon Musk dijo recientemente que el nuevo robot humanoide que esperaba construir, Optimus, ser\u00eda alg\u00fan d\u00eda m\u00e1s grande que la industria automovil\u00edstica, pero en el Demo Day 2021 de Tesla, en el que se anunci\u00f3 el robot, Optimus no era m\u00e1s que un humano con traje. La \u00faltima contribuci\u00f3n de Google al lenguaje es un sistema (LaMDA) tan inestable que uno de sus propios autores admiti\u00f3 recientemente que era propenso a producir \u00abgilipolleces\u00bb&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-8-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-8-16250' title='Aguera y Arcas, B. \u00ab\u00a0&lt;a href=&quot;https:\/\/medium.com\/@blaisea\/do-large-language-models-understand-us-6f881d6d8e75&quot;&gt;Do large language models understand us\u00a0?&lt;\/a&gt;\u00a0\u00bb,\u00a0&lt;em&gt;Medium&lt;\/em&gt;, 2021.'><sup>8<\/sup><\/a><\/span><\/span>. No ser\u00e1 f\u00e1cil invertir esta tendencia y conseguir una IA en la que realmente podamos confiar.<\/p>\n\n\n\n<p>Con el tiempo, veremos que el aprendizaje profundo era s\u00f3lo una peque\u00f1a parte de lo que necesitamos construir si queremos conseguir alguna vez una IA digna de confianza.<\/p>\n\n\n\n<p>El aprendizaje profundo, que es fundamentalmente una t\u00e9cnica de reconocimiento de patrones, est\u00e1 en su mejor momento cuando solo necesitamos resultados aproximados, cuando lo que est\u00e1 en juego es poco y los resultados perfectos son opcionales. Tomemos el ejemplo del etiquetado de fotos. El otro d\u00eda le ped\u00ed a mi iPhone que buscara una foto de un conejo que hab\u00eda hecho hace unos a\u00f1os; el tel\u00e9fono respondi\u00f3 al instante, aunque yo nunca hab\u00eda etiquetado la foto. Esto funcion\u00f3 porque mi foto del conejo era lo bastante parecida a otras fotos de una gran base de datos de im\u00e1genes etiquetadas como conejos. Pero el etiquetado autom\u00e1tico de fotos mediante aprendizaje profundo tambi\u00e9n es propenso a errores; puede pasar por alto algunas fotos de conejos (especialmente las que est\u00e1n desordenadas, o las tomadas con luz extra\u00f1a o en un \u00e1ngulo inusual, o con el conejo parcialmente oculto; a veces confunde fotos de mis dos hijos, de cuando eran beb\u00e9s); pero lo que est\u00e1 en juego es poco: si la aplicaci\u00f3n comete un error ocasional, no voy a tirar mi tel\u00e9fono.<\/p>\n\n\n\n<p class=\"comment\">En el contexto del deep learning y el aprendizaje supervisado, \u00abetiquetado\u00bb se utiliza aqu\u00ed como sin\u00f3nimo de \u00abcategorizado\u00bb: Gary Marcus no necesit\u00f3 indicar el contenido de la foto para que el sistema dedujera por s\u00ed solo que se trataba de la foto de un conejo<\/p>\n\n\n\n<p>Pero cuando lo que est\u00e1 en juego es m\u00e1s importante, como en el caso de la radiolog\u00eda o los coches sin conductor, tenemos que ser mucho m\u00e1s cuidadosos a la hora de adoptar el aprendizaje profundo. Cuando un solo error puede costarle la vida a alguien, el aprendizaje profundo no est\u00e1 a la altura de las circunstancias. Los sistemas de aprendizaje profundo son particularmente problem\u00e1ticos cuando se trata de \u00abvalores at\u00edpicos\u00bb que difieren significativamente de aquello para lo que fueron entrenados. No hace mucho, por ejemplo, un Tesla en modo Full Self Driving se encontr\u00f3 con una persona que bloqueaba una se\u00f1al de stop en medio de una carretera. El coche no reconoci\u00f3 a la persona (parcialmente oculta por la se\u00f1al de stop) ni la se\u00f1al de stop (fuera de su contexto habitual al borde de la carretera); el conductor humano tuvo que hacerse cargo. La escena estaba lo suficientemente lejos de la base de datos de entrenamiento como para que el sistema no supiera qu\u00e9 hacer.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Pocas \u00e1reas han recibido tanto bombo como la inteligencia artificial<\/h2>\n\n\n\n<p>Los actuales sistemas de aprendizaje profundo sucumben con frecuencia a errores tontos como este. A veces malinterpretan la suciedad en una imagen, que un radi\u00f3logo humano reconocer\u00eda como una anomal\u00eda. (Otro problema para los sistemas de radiolog\u00eda, y una motivaci\u00f3n clave para mantener a los humanos en el bucle, es que la IA actual se basa principalmente o totalmente en im\u00e1genes, con poca o ninguna comprensi\u00f3n de todo el texto que podr\u00eda describir la historia de un paciente, a veces pasando por alto informaci\u00f3n crucial). Un sistema de aprendizaje profundo confundi\u00f3 una manzana con un iPod porque la manzana iba precedida de un trozo de papel que dec\u00eda \u00abiPod\u00bb. Otro sistema identific\u00f3 err\u00f3neamente un autob\u00fas volcado en una carretera nevada y lo confundi\u00f3 con un quitanieves; todo un subcampo del aprendizaje autom\u00e1tico investiga ahora errores de este tipo, pero a\u00fan no se han encontrado respuestas claras.<\/p>\n\n\n\n<p>Los sistemas basados en el lenguaje, aparentemente impresionantes, suelen caer en la misma trampa. Por ejemplo, GPT-3, quiz\u00e1 el sistema de inteligencia artificial m\u00e1s conocido hasta la fecha, famoso por su capacidad para tomar texto como entrada y producir continuaciones gramaticales fluidas para cualquier texto. <em>The Guardian<\/em> lo ha utilizado para escribir un art\u00edculo de opini\u00f3n; el <em>New York Times<\/em> lo ha presentado como la rese\u00f1a de un libro. Todo esto est\u00e1 muy bien, pero siempre requiere una revisi\u00f3n humana. Cuando Ernie Davis, inform\u00e1tico de la Universidad de Nueva York, y yo lo examinamos m\u00e1s de cerca, encontramos los mismos indicios de falta de fiabilidad&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-9-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-9-16250' title='Davis, E. y Marcus, G., \u00ab\u00a0GPT-3, Bloviator\u00a0: OpenAI\u2019s language generator has no idea what it\u2019s talking about.\u00a0\u00bb,\u00a0&lt;em&gt;MIT Technology Review\u00a0&lt;\/em&gt;(2020).'><sup>9<\/sup><\/a><\/span><\/span>. Por ejemplo, cuando tecleamos esto: \u00abTe has servido un vaso de zumo de ar\u00e1ndanos, pero luego te has echado una cucharadita de zumo de uva. Suena bien. Intentas olerlo, pero est\u00e1s muy resfriado y no hueles nada. Tienes mucha sed. As\u00ed que&#8230;\u00bb. GPT contin\u00faa con \u00abte lo bebes. Ahora est\u00e1s muerto\u00bb.<\/p>\n\n\n\n<p>En realidad, el zumo de ar\u00e1ndanos no te mata. A pesar de su fluidez, GPT-3 no es capaz de integrar informaci\u00f3n procedente de b\u00fasquedas b\u00e1sicas en Internet, ni de razonar sobre los fen\u00f3menos cotidianos m\u00e1s elementales. Otro equipo estudi\u00f3 brevemente la posibilidad de convertir GPT-3 en un chatbot automatizado de asesoramiento sobre el suicidio, pero descubri\u00f3 que el sistema era propenso a intercambios como este:<\/p>\n\n\n\n<p class=\"has-text-align-center\">Humano: Oye, me siento fatal. Tengo ganas de suicidarme.<\/p>\n\n\n\n<p class=\"has-text-align-center\">GPT-3: Lo siento. Puedo ayudarte.<\/p>\n\n\n\n<p class=\"has-text-align-center\">Humano: \u00bfDeber\u00eda suicidarme?<\/p>\n\n\n\n<p class=\"has-text-align-center\">GPT-3: Creo que deber\u00edas.<\/p>\n\n\n\n<p>Otros han descubierto que el GPT-3 es propenso a producir un lenguaje t\u00f3xico y a promulgar informaci\u00f3n err\u00f3nea. El chatbot Replika, impulsado por GPT-3, afirm\u00f3 que Bill Gates invent\u00f3 COVID-19 y que las vacunas COVID-19 \u00abno eran muy eficaces\u00bb. Un nuevo esfuerzo de OpenAI para abordar estos problemas dio como resultado un sistema que fabricaba tonter\u00edas autorizadas, como \u00abAlgunos expertos creen que comerse un calcet\u00edn ayuda al cerebro a salir del estado alterado en el que se encuentra como resultado de la meditaci\u00f3n.\u00bb <\/p>\n\n\n\n<p class=\"comment\">Sam Altman reconoce que los modelos de OpenAI son limitados y presentan vulnerabilidades a la hora de alinear sus resultados con los valores que al dise\u00f1ador le gustar\u00eda transmitir (por ejemplo, \u00abser \u00fatil, inofensivo y honesto \u00ab&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-10-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-10-16250' title='Sam Ringer, \u00ab\u00a0&lt;a href=&quot;https:\/\/www.lesswrong.com\/posts\/oBpebs5j5ngs3EXr5\/a-summary-of-anthropic-s-first-paper-3&quot;&gt;A Summary Of Anthropic\u2019s First Paper&lt;\/a&gt;\u00a0\u00bb,\u00a0&lt;em&gt;LessWrong,&lt;\/em&gt; 30 de diciembre de 2021'><sup>10<\/sup><\/a><\/span><\/span>). Sin embargo, cree que es bueno confrontar estas versiones protot\u00edpicas de los sistemas con la realidad, aunque sigan siendo imperfectas. Prefiere ponerlos en manos de los usuarios \u00abmientras haya poco en juego\u00bb antes que confinarlos al laboratorio.<\/p>\n\n\n\n<p class=\"comment\">Esta diligencia del Director General de OpenAI tambi\u00e9n pareci\u00f3 ser un dispositivo de comunicaci\u00f3n para anticiparse a las cr\u00edticas sobre la gesti\u00f3n de riesgos de estos sistemas de IA.<\/p>\n\n\n\n<p>Los investigadores de DeepMind y de otros lugares han intentado desesperadamente resolver los problemas del lenguaje t\u00f3xico y la desinformaci\u00f3n, pero hasta ahora no han conseguido nada&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-11-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-11-16250' title='Greene, T., \u00ab\u00a0DeepMind tells Google it has no idea how to make AI less toxic.\u00a0\u00bb,\u00a0&lt;em&gt;The Next Web&lt;\/em&gt;, 2021.'><sup>11<\/sup><\/a><\/span><\/span>. En su informe de diciembre de 2021 sobre el tema, DeepMind describi\u00f3 21 problemas, pero ninguna soluci\u00f3n convincente&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-12-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-12-16250' title='Weidinger, L. et al., \u00ab\u00a0Ethical and social risks of harm from Language Models.\u00a0\u00bb,\u00a0&lt;em&gt;arXiv,\u00a0&lt;\/em&gt;2021.'><sup>12<\/sup><\/a><\/span><\/span>. Como dicen los investigadores de IA Emily Bender, Timnit Gebru y sus colegas, los grandes modelos ling\u00fc\u00edsticos impulsados por el aprendizaje profundo son como \u00abloros estoc\u00e1sticos\u00bb, que repiten mucho pero entienden poco&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-13-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-13-16250' title='Bender, E.M., Gebru, T., McMillan-Major, A. y Schmitchel, S., \u00ab\u00a0On the dangers of stochastic parrots\u00a0: Can language models be too big\u00a0?\u00a0\u00bb,\u00a0&lt;em&gt;Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency&lt;\/em&gt;, 2021, pp.610\u2013623.'><sup>13<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p class=\"comment\">Gary Marcus utiliza esta ic\u00f3nica analog\u00eda del loro estoc\u00e1stico para subrayar que el aprendizaje profundo es una tecnolog\u00eda que funciona con informaci\u00f3n estable y constante en el tiempo (distinguir un gato de un perro en im\u00e1genes, por ejemplo); pero si queremos ense\u00f1ar al modelo la diferencia entre \u00abcreer algo\u00bb y \u00absospechar algo\u00bb, ser inofensivo u honesto, \u00bfqu\u00e9 tipo de datos y anotaciones se necesitan para ello? No est\u00e1 claro lo bien que pueden comunicarse estas restricciones o valores a la m\u00e1quina mediante el aprendizaje profundo.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 hacer al respecto? Una opci\u00f3n, actualmente en boga, podr\u00eda ser recopilar m\u00e1s datos. Nadie ha abogado por ello m\u00e1s directamente que OpenAI, la empresa con sede en San Francisco (originalmente sin \u00e1nimo de lucro) que produjo la GPT-3.<\/p>\n\n\n\n<p>En 2020, Jared Kaplan y sus colaboradores de OpenAI sugirieron que exist\u00eda un conjunto de \u00ableyes de escala\u00bb para los modelos ling\u00fc\u00edsticos de redes neuronales; descubrieron que cuantos m\u00e1s datos introduc\u00edan en sus redes neuronales, mejor funcionaban&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-14-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-14-16250' title='Kaplan, J. et al., \u00ab\u00a0Scaling Laws for Neural Language Models.\u00a0\u00bb,\u00a0&lt;em&gt;arXiv,\u00a0&lt;\/em&gt;2020.'><sup>14<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p class=\"comment\">Las leyes de puesta a escala descritas aqu\u00ed por Gary Marcus son patrones emp\u00edricos que los investigadores han observado, no leyes cient\u00edficas en el sentido que se podr\u00eda entender en f\u00edsica.<\/p>\n\n\n\n<p>La implicaci\u00f3n era que pod\u00edamos crear una IA mejor y m\u00e1s potente si recopil\u00e1bamos m\u00e1s datos y aplic\u00e1bamos el aprendizaje profundo a escalas cada vez mayores. El carism\u00e1tico CEO de la empresa, Sam Altman, escribi\u00f3 un triunfal art\u00edculo en su blog en el que pregonaba la \u00abLey de Moore para todo\u00bb y afirmaba que s\u00f3lo faltaban unos pocos a\u00f1os para que \u00ablos ordenadores pudieran pensar\u00bb, \u00ableer documentos legales\u00bb y (haci\u00e9ndose eco de IBM Watson) \u00abdar consejos m\u00e9dicos\u00bb.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Por primera vez en 40 a\u00f1os, por fin soy optimista respecto a la IA<\/strong><\/h2>\n\n\n\n<p>Puede que s\u00ed, pero puede que no. El argumento de la puesta a escala tiene graves defectos. En primer lugar, las m\u00e9tricas estudiadas no han tenido en cuenta lo que necesitamos mejorar desesperadamente: la verdadera capacidad de comprensi\u00f3n de estos modelos. Los entendidos saben desde hace tiempo que uno de los mayores problemas de la investigaci\u00f3n en IA son los tests (\u00abbenchmarks\u00bb) que utilizamos para evaluar los sistemas de IA. El famoso test de Turing, que pretende medir la inteligencia real, es f\u00e1cilmente secuestrado por chatbots que act\u00faan de forma paranoica o poco cooperativa. La puesta a escala de las m\u00e9tricas examinadas por Kaplan y sus colegas de OpenAI -a saber, la predicci\u00f3n de palabras en una frase- no equivale al tipo de comprensi\u00f3n profunda que requerir\u00eda la IA real.<\/p>\n\n\n\n<p class=\"comment\">A medida que avanza la IA, los criterios de referencia se saturan cada vez m\u00e1s deprisa; es decir, ya no queda margen de mejora en los sistemas para lograr un mejor rendimiento en estos criterios. El \u00cdndice de IA de la Universidad de Stanford pone as\u00ed de manifiesto que los investigadores necesitan criterios nuevos y m\u00e1s exigentes&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-15-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-15-16250' title='Shana Lynch, \u00ab\u00a0&lt;a href=&quot;https:\/\/hai.stanford.edu\/news\/ai-benchmarks-hit-saturation&quot;&gt;AI Benchmarks Hit Saturation&lt;\/a&gt;\u00a0\u00bb, Stanford University, 3 de abril de 2023'><sup>15<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>Adem\u00e1s, las llamadas leyes de puesta a escala no son leyes universales como la gravedad, sino meras observaciones que pueden no durar para siempre, como la Ley de Moore, una tendencia en la producci\u00f3n de chips inform\u00e1ticos que lleva d\u00e9cadas produci\u00e9ndose pero que empez\u00f3 a ralentizarse hace aproximadamente una d\u00e9cada&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-16-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-16-16250' title='Markoff, J. Smaller, \u00ab\u00a0&lt;a href=&quot;https:\/\/www.nytimes.com\/2015\/09\/27\/technology\/smaller-faster-cheaper-over-the-future-of-computer-chips.html&quot;&gt;Faster, Cheaper, Over\u00a0: The Future of Computer Chips&lt;\/a&gt;\u00a0\u00bb\u00a0&lt;em&gt;The New York Times,\u00a0&lt;\/em&gt;2015.'><sup>16<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>De hecho, es posible que ya nos estemos enfrentando a l\u00edmites de escala en el aprendizaje profundo, o incluso que nos estemos acercando a un punto de rendimientos decrecientes. En los \u00faltimos meses, las investigaciones de DeepMind y otras empresas sobre modelos incluso mayores que GPT-3 han demostrado que la puesta a escala est\u00e1 empezando a flaquear en algunas medidas, como la toxicidad, la veracidad, el razonamiento y el sentido com\u00fan&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-17-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-17-16250' title='Rae, J.W., et al., \u00ab\u00a0Scaling language models\u00a0: Methods, analysis &amp;amp; insights from training Gopher\u00a0\u00bb,\u00a0&lt;em&gt;arXiv&lt;\/em&gt;, 2022.'><sup>17<\/sup><\/a><\/span><\/span>. Un art\u00edculo de 2022 de Google concluye que aumentar el tama\u00f1o de los modelos GPT-3 los hace m\u00e1s fluidos, pero no m\u00e1s fiables&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-18-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-18-16250' title='Thoppilan, R. et al., \u00ab\u00a0LaMDA\u00a0: Language models for dialog applications\u00a0\u00bb,\u00a0&lt;em&gt;arXiv&lt;\/em&gt;, 2022.'><sup>18<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p class=\"comment\">La comunidad cient\u00edfica ha detectado un fen\u00f3meno inverso al de puesta a escala. El rendimiento en una tarea o m\u00e9trica puede degradarse monot\u00f3nica y previsiblemente a medida que aumenta el tama\u00f1o del modelo o de los datos (por ejemplo, la comprensi\u00f3n de la negaci\u00f3n en los MCQ). Ya hay competiciones para encontrar tales leyes inversas de puesta a escala&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-19-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-19-16250' title='Ethan Perez, Ian McKenzie, \u00ab\u00a0&lt;a href=&quot;https:\/\/www.lesswrong.com\/posts\/iznohbCPFkeB9kAJL\/inverse-scaling-prize-round-1-winners&quot;&gt;Inverse Scaling Prize\u00a0: Round 1 Winners&lt;\/a&gt;\u00a0\u00bb,\u00a0&lt;em&gt;LessWrong,\u00a0&lt;\/em&gt;26 de septiembre de 2022.'><sup>19<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>Estos indicios deber\u00edan alarmar a la industria de la conducci\u00f3n aut\u00f3noma, que ha confiado mucho en el escalado en lugar de desarrollar un razonamiento m\u00e1s sofisticado. Si la ampliaci\u00f3n no nos lleva a una conducci\u00f3n aut\u00f3noma segura, las decenas de miles de millones de d\u00f3lares invertidos en ella pueden ser en vano.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 m\u00e1s podr\u00edamos necesitar?<\/p>\n\n\n\n<p class=\"comment\">Recientemente, Sam Altman tambi\u00e9n plante\u00f3 la hip\u00f3tesis de que el aprendizaje profundo no bastar\u00eda por s\u00ed solo para lograr una inteligencia artificial general. En una conferencia en el MIT, ofreci\u00f3 un nuevo an\u00e1lisis: \u00abEstamos al final de la era de los modelos gigantes. Los mejoraremos de otras formas\u00bb&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-20-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-20-16250' title='Will Knight, \u00ab\u00a0&lt;a href=&quot;https:\/\/www.wired.com\/story\/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over\/&quot;&gt;OpenAI\u2019s CEO Says the Age of Giant AI Models Is Already Over&lt;\/a&gt;\u00a0\u00bb, Wired, 17 de abril de 2023'><sup>20<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>Entre otras cosas, lo m\u00e1s probable es que tengamos que retomar una idea anta\u00f1o popular que Hinton parece empe\u00f1ado en aplastar: la idea de manipular s\u00edmbolos, codificaciones internas del ordenador, como cadenas binarias de bits, que representan ideas complejas. La manipulaci\u00f3n de s\u00edmbolos ha sido esencial para la inform\u00e1tica desde el principio, al menos desde los trabajos pioneros de Alan Turing y John von Neumann, y sigue siendo el elemento fundamental de pr\u00e1cticamente toda la ingenier\u00eda de software.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Pensar que podemos abandonar sin m\u00e1s la manipulaci\u00f3n de s\u00edmbolos es de incr\u00e9dulos<\/strong><\/h2>\n\n\n\n<p>Y, sin embargo, as\u00ed es como procede en gran medida la IA actual. Hinton y muchos otros han intentado desterrar los s\u00edmbolos por completo. La esperanza del aprendizaje profundo -que parece basarse no tanto en la ciencia como en una especie de rencor hist\u00f3rico- es que el comportamiento inteligente surja puramente de la confluencia de datos masivos y aprendizaje profundo. <\/p>\n\n\n\n<p class=\"comment\">Hist\u00f3ricamente, la IA siempre ha sido un campo de confrontaci\u00f3n entre diferentes escuelas de pensamiento. Desde la d\u00e9cada de 1950, los partidarios de las redes neuronales y del deep learning (los conexionistas) se han opuesto a los partidarios de la IA simb\u00f3lica (manipulaci\u00f3n de s\u00edmbolos, \u00e1rboles o reglas de abstracci\u00f3n). El inter\u00e9s y el entusiasmo se han alternado entre ambos enfoques.<\/p>\n\n\n\n<p>Mientras que los ordenadores y programas convencionales resuelven tareas definiendo conjuntos de reglas de manipulaci\u00f3n de s\u00edmbolos dedicados a tareas concretas, como editar una l\u00ednea en un procesador de textos o realizar un c\u00e1lculo en una hoja de c\u00e1lculo, las redes neuronales suelen intentar resolver tareas mediante aproximaci\u00f3n estad\u00edstica y aprendizaje a partir de ejemplos. Como las redes neuronales han logrado tanto y tan r\u00e1pido, en reconocimiento de voz, etiquetado de fotos, etc., muchos defensores del aprendizaje profundo han descartado los s\u00edmbolos.<\/p>\n\n\n\n<p>No deber\u00edan haberlo hecho.<\/p>\n\n\n\n<p>Una llamada de atenci\u00f3n lleg\u00f3 a finales de 2021, en un gran concurso, iniciado en parte por un equipo de Facebook (ahora Meta), llamado NetHack Challenge. NetHack, una expansi\u00f3n de un juego anterior conocido como <em>Rogue<\/em>, y precursor de <em>Zelda<\/em>, es un juego de exploraci\u00f3n de torre\u00f3n para un solo usuario que sali\u00f3 a la venta en 1987. Los gr\u00e1ficos son primitivos (puros caracteres ASCII en la versi\u00f3n original); no requiere percepci\u00f3n 3D. A diferencia de <em>Zelda: The Breath of the Wild<\/em>, no hay f\u00edsicas complejas que entender. El jugador elige un personaje con un g\u00e9nero y un rol (caballero, mago o arque\u00f3logo), y luego se lanza a explorar un torre\u00f3n, recoger objetos y matar monstruos en busca del Amuleto de Yendor. El reto en 2020 era conseguir que la IA jugara bien&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-21-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-21-16250' title='Wiggers, K., \u00ab\u00a0Facebook releases AI development tool based on NetHack\u00a0\u00bb,\u00a0&lt;em&gt;Venturebeat.com&lt;\/em&gt;, 2020.'><sup>21<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>NetHack probablemente a muchos les pareci\u00f3 pan comido para el aprendizaje profundo, que lo ha dominado todo, desde Pong a Breakout pasando por Go o el ajedrez (con la ayuda de algoritmos simb\u00f3licos para la b\u00fasqueda de \u00e1rboles). Pero en diciembre, un sistema basado exclusivamente en la manipulaci\u00f3n de s\u00edmbolos aplast\u00f3 a los principales candidatos del aprendizaje profundo por una puntuaci\u00f3n de 3 a 1: una sorpresa asombrosa.<\/p>\n\n\n\n<p>\u00bfC\u00f3mo ha podido salir victorioso el menos favorecido? Creo que la respuesta empieza por el hecho de que el torre\u00f3n se genera de nuevo en cada partida, lo que significa que no basta con memorizar (o aproximarse) al tablero de juego. Para ganar, hay que tener un conocimiento bastante profundo de las entidades del juego y sus relaciones abstractas entre s\u00ed. En \u00faltima instancia, los jugadores deben razonar sobre lo que pueden y no pueden hacer en un mundo complejo. Las secuencias espec\u00edficas de movimientos (\u00abve a la izquierda, luego adelante, luego a la derecha\u00bb) son demasiado superficiales para ser \u00fatiles, ya que cada acci\u00f3n depende intr\u00ednsecamente de un contexto reci\u00e9n generado. Los sistemas de aprendizaje profundo son excelentes interpolando entre ejemplos espec\u00edficos que han visto antes, pero a menudo tropiezan cuando se enfrentan a la novedad.<\/p>\n\n\n\n<p>Cada vez que David vence a Goliat, es se\u00f1al de que hay que reconsiderar la situaci\u00f3n.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 significa realmente \u00abmanipular s\u00edmbolos\u00bb? En \u00faltima instancia, significa dos cosas: tener conjuntos de s\u00edmbolos (esencialmente patrones que representan cosas) para representar informaci\u00f3n, y procesar (manipular) esos s\u00edmbolos de una manera espec\u00edfica, utilizando algo como el \u00e1lgebra (o la l\u00f3gica, o programas inform\u00e1ticos) para operar con esos s\u00edmbolos. Gran parte de la confusi\u00f3n en este campo proviene de no ver la diferencia entre ambas cosas: tener s\u00edmbolos y procesarlos algebraicamente. Para entender c\u00f3mo se ha empantanado la IA, es esencial ver la diferencia entre ambas cosas.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 es un s\u00edmbolo? Son esencialmente c\u00f3digos. Los s\u00edmbolos proporcionan un mecanismo de extrapolaci\u00f3n basado en principios: procedimientos legales y algebraicos que pueden aplicarse universalmente, independientemente de cualquier similitud con ejemplos conocidos. Siguen siendo (al menos por el momento) la mejor manera de construir conocimientos a mano y de tratar con solidez las abstracciones en situaciones nuevas. Un oct\u00f3gono rojo con la palabra \u00abSTOP\u00bb es un s\u00edmbolo que indica a un conductor que se detenga. En el c\u00f3digo ASCII, ahora universalmente utilizado, el n\u00famero binario 01000001 representa (es un s\u00edmbolo para) la letra A, el n\u00famero binario 01000010 representa la letra B, y as\u00ed sucesivamente.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Estos signos deber\u00edan alarmar a la industria de la conducci\u00f3n aut\u00f3noma<\/strong><\/h2>\n\n\n\n<p>La idea b\u00e1sica de que estas cadenas de d\u00edgitos binarios, llamados \u00abbits\u00bb, podr\u00edan utilizarse para codificar todo tipo de cosas, como las instrucciones de los ordenadores, y no s\u00f3lo los propios n\u00fameros, se remonta al menos a 1945, cuando el legendario matem\u00e1tico von Neumann defini\u00f3 la arquitectura que siguen pr\u00e1cticamente todos los ordenadores modernos. De hecho, el reconocimiento de von Neumann de c\u00f3mo los bits binarios pueden manipularse simb\u00f3licamente fue posiblemente el n\u00facleo de uno de los inventos m\u00e1s importantes del siglo XX: literalmente, todos los programas inform\u00e1ticos que se han utilizado alguna vez se basan en \u00e9l. (Los \u00abembeddings\u00bb, tan populares en las redes neuronales, tambi\u00e9n se parecen mucho a los s\u00edmbolos, aunque nadie parece reconocerlo. A menudo, por ejemplo, a una palabra se le asigna un vector \u00fanico, de forma an\u00e1loga al c\u00f3digo ASCII. Llamar a algo incrustaci\u00f3n no significa que no sea un s\u00edmbolo).<\/p>\n\n\n\n<p class=\"comment\">En lugar de utilizar la informaci\u00f3n en bruto, una red neuronal aprender\u00e1 representaciones de esta informaci\u00f3n, llamadas \u00ab\u00a0embeddings\u00a0\u00bb, en forma de vectores que ser\u00e1n \u00fatiles para la tarea en cuesti\u00f3n (clasificaci\u00f3n, generaci\u00f3n de textos, regresi\u00f3n). Estas representaciones se aprenden mediante capas sucesivas de neuronas y codifican las caracter\u00edsticas sem\u00e1nticas o visuales de la informaci\u00f3n (texto o imagen, por ejemplo).<\/p>\n\n\n\n<p>La inform\u00e1tica cl\u00e1sica, tal y como la practicaron Turing, von Neumann y todos los que le siguieron, manipula s\u00edmbolos de una forma que consideramos algebraica, y eso es lo que realmente est\u00e1 en juego. En \u00e1lgebra simple tenemos tres tipos de entidades, variables (como x e y), operaciones (como + o -) y ligaduras (que nos dicen, por ejemplo, que x = 12 a efectos de un c\u00e1lculo). Si te digo que x = y + 2, e y = 12, puedes resolver el valor de x vinculando y a 12 y sumando a ese valor, lo que te da 14. Pr\u00e1cticamente todo el software del mundo funciona encadenando operaciones algebraicas, ensambl\u00e1ndolas en algoritmos cada vez m\u00e1s complejos. Tu procesador de textos, por ejemplo, tiene una cadena de s\u00edmbolos, ensamblados en un archivo, para representar tu documento. Diversas operaciones abstractas le permiten copiar partes de s\u00edmbolos de un lugar a otro. Cada operaci\u00f3n est\u00e1 definida de forma que pueda funcionar en cualquier documento, en cualquier lugar.&nbsp; Un procesador de textos es la aplicaci\u00f3n de un conjunto de operaciones algebraicas (\u00abfunciones\u00bb o \u00absubrutinas\u00bb) a variables (como el \u00abtexto seleccionado actualmente\u00bb).<\/p>\n\n\n\n<p>Las operaciones simb\u00f3licas son tambi\u00e9n la base de estructuras de datos como los diccionarios o las bases de datos, que pueden contener registros de personas concretas y sus propiedades (como sus direcciones, o la \u00faltima vez que un vendedor estuvo en contacto con ellas), y permiten a los programadores construir bibliotecas de c\u00f3digo reutilizable, y m\u00f3dulos cada vez m\u00e1s grandes, que facilitan el desarrollo de sistemas complejos. Estas t\u00e9cnicas son omnipresentes y constituyen la base del mundo del software.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Si los s\u00edmbolos son tan importantes para la ingenier\u00eda de software, \u00bfpor qu\u00e9 no utilizarlos tambi\u00e9n en inteligencia artificial?<\/strong><\/h2>\n\n\n\n<p>De hecho, pioneros como John McCarthy y Marvin Minsky pensaron que los programas de inteligencia artificial podr\u00edan construirse precisamente ampliando estas t\u00e9cnicas, representando entidades individuales e ideas abstractas con s\u00edmbolos que pudieran combinarse en estructuras complejas y ricos almacenes de conocimiento, tal y como se utilizan hoy en d\u00eda en cosas como navegadores web, programas de correo electr\u00f3nico y procesadores de texto. <\/p>\n\n\n\n<p class=\"comment\">McCarthy y Minsky, considerados los pioneros de la IA, ya se ve\u00edan a s\u00ed mismos rompiendo con los preceptos de la cibern\u00e9tica de Wiener de finales de los a\u00f1os 1940, que sent\u00f3 las bases conceptuales del aprendizaje profundo. Wiener estudiaba la m\u00e1quina adaptativa aplicada entonces a los misiles antia\u00e9reos: utilizaba la teor\u00eda del control y los sistemas din\u00e1micos para medir los errores en las predicciones sobre la trayectoria del objetivo y guiar el misil en tiempo real.<\/p>\n\n\n\n<p>No se equivocaban: las extensiones de estas t\u00e9cnicas son omnipresentes (en motores de b\u00fasqueda, sistemas de navegaci\u00f3n por carretera e inteligencia artificial en juegos). Los sistemas puramente simb\u00f3licos pueden ser a veces dif\u00edciles de usar y han hecho un mal trabajo en tareas como el reconocimiento de im\u00e1genes y del habla; el r\u00e9gimen de Big Data nunca ha sido su punto fuerte. Por tanto, hace tiempo que se necesita algo m\u00e1s.<\/p>\n\n\n\n<p>Aqu\u00ed es donde entran en juego las redes neuronales.<\/p>\n\n\n\n<p>Tal vez el ejemplo m\u00e1s claro que he visto que aboga por el uso de big data y aprendizaje profundo sobre (o adem\u00e1s de) el enfoque tradicional de manipulaci\u00f3n de s\u00edmbolos est\u00e1 en la correcci\u00f3n ortogr\u00e1fica. La antigua forma de sugerir la ortograf\u00eda de palabras no reconocidas consist\u00eda en desarrollar un conjunto de reglas que esencialmente especificaban una psicolog\u00eda de c\u00f3mo la gente podr\u00eda cometer errores. (Pensemos en la posibilidad de duplicar letras inadvertidamente, o en la posibilidad de transponer letras adyacentes, en \u00abthe\u00bb). Como se\u00f1al\u00f3 el famoso inform\u00e1tico Peter Norvig de forma c\u00e9lebre e ingeniosa, cuando se dispone de datos del tama\u00f1o de Google, se tiene una nueva opci\u00f3n: basta con mirar los registros de c\u00f3mo se corrigen los usuarios. Si buscan \u00abthe book\u00bb despu\u00e9s de haber buscado \u00abteh book\u00bb, tienes pruebas de cu\u00e1l podr\u00eda ser una mejor ortograf\u00eda para \u00abteh\u00bb. No se necesitan reglas ortogr\u00e1ficas&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-22-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-22-16250' title='Brownlee, J., \u00ab\u00a0&lt;a href=&quot;https:\/\/machinelearningmastery.com\/hands-on-big-data-by-peter-norvig\/&quot;&gt;Hands on big data by Peter Norvig&lt;\/a&gt;\u00a0\u00bb,\u00a0&lt;em&gt;Machine Learning Mastery&lt;\/em&gt;, 2014.'><sup>22<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>Me parece bastante obvio que deber\u00edan tener ambos enfoques en su arsenal. En el mundo real, los correctores ortogr\u00e1ficos tienden a utilizar ambos; como observa Ernie Davis, \u00absi escribes \u00abcleopxjqco\u00bb en Google, lo corrige a \u00abCleopatra\u00bb, aunque probablemente ning\u00fan usuario lo escribir\u00eda. La b\u00fasqueda de Google en su conjunto utiliza una mezcla pragm\u00e1tica de IA manipuladora de s\u00edmbolos y aprendizaje profundo, y probablemente seguir\u00e1 haci\u00e9ndolo en un futuro previsible. Pero personas como Hinton han argumentado en contra de cualquier papel de los s\u00edmbolos, una y otra vez.<\/p>\n\n\n\n<p class=\"comment\">Tras mostrar el potencial y los l\u00edmites de los enfoques simb\u00f3lico y conexionista, Gary Marcus aboga por la exploraci\u00f3n de una v\u00eda intermedia, la de los modelos h\u00edbridos que combinan ambos paradigmas.<\/p>\n\n\n\n<p class=\"comment\">En resumen, se trata de beneficiarse de lo mejor de los dos mundos entre los procedimientos de abstracci\u00f3n simb\u00f3lica, por una parte, que ofrecen garant\u00edas te\u00f3ricas en cuanto al correcto funcionamiento del sistema sea cual sea la situaci\u00f3n (por ejemplo, el operador de multiplicaci\u00f3n en la calculadora), pero requieren una comprensi\u00f3n detallada de la cadena causal o de la l\u00f3gica subyacente a la ejecuci\u00f3n de una tarea; por otra parte, el aprendizaje profundo, que permite descubrir a partir de los datos \u00fanicamente una funci\u00f3n de similitud muy compleja que funcionar\u00e1 para los ejemplos pr\u00f3ximos al conjunto de entrenamiento, sin garant\u00edas s\u00f3lidas de generalizaci\u00f3n a situaciones alejadas de los casos tratados durante el entrenamiento.<\/p>\n\n\n\n<p>Mientras que personas como yo hemos defendido \u00abmodelos h\u00edbridos\u00bb que incorporan elementos de aprendizaje profundo y manipulaci\u00f3n de s\u00edmbolos, Hinton y sus seguidores han empujado repetidamente a los s\u00edmbolos de vuelta al armario. \u00bfPor qu\u00e9? Nadie ha dado nunca una explicaci\u00f3n cient\u00edfica convincente. Quiz\u00e1 la respuesta est\u00e9 en la historia, en la mala sangre que ha frenado el desarrollo del campo.<\/p>\n\n\n\n<p>No siempre fue as\u00ed. Todav\u00eda lloro cuando leo un art\u00edculo que Warren McCulloch y Walter Pitts escribieron en 1943, \u00abA Logical Calculus of the Ideas Immanent in Nervous Activity\u00bb, el \u00fanico art\u00edculo que von Neumann consider\u00f3 lo suficientemente digno como para ser citado en su propio art\u00edculo seminal sobre los ordenadores&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-23-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-23-16250' title='McCulloch, W.S. y Pitts, W., \u00ab\u00a0A logical calculus of the ideas immanent in nervous activity\u00a0\u00bb,\u00a0&lt;em&gt;Bulletin of Mathematical Biology&lt;\/em&gt;\u00a0n\u00b0 52, 1990, pp. 99-115.'><sup>23<\/sup><\/a><\/span><\/span>. Su objetivo expl\u00edcito, que sigo considerando valioso, era crear \u00abuna herramienta para el procesamiento simb\u00f3lico riguroso de las redes [neuronales]\u00bb. Von Neumann pas\u00f3 gran parte de sus \u00faltimos d\u00edas contemplando la misma cuesti\u00f3n. Nunca podr\u00edan haber previsto la enemistad que pronto surgi\u00f3.<\/p>\n\n\n\n<p>A finales de los a\u00f1os 1950 se produjo una escisi\u00f3n que nunca se cerr\u00f3. Muchos fundadores de la IA, como McCarthy, Allen Newell y Herb Simon, parecen apenas haber reparado en los pioneros de las redes neuronales, y la comunidad de las redes neuronales parece haberse dividido, disfrutando a veces de una fant\u00e1stica publicidad: un art\u00edculo de 1957 en el New Yorker promet\u00eda que el primer sistema de redes neuronales de Frank Rosenblatt para evitar s\u00edmbolos era una \u00abm\u00e1quina extraordinaria&#8230; [capaz] de pensar\u00bb.<\/p>\n\n\n\n<p>Las cosas se pusieron tan tensas y amargas que la revista <em>Advances in Computers<\/em> public\u00f3 un art\u00edculo titulado \u00abA Sociological History of the Neural Network Controversy\u00bb (Historia sociol\u00f3gica de la controversia sobre las redes neuronales), en el que se esbozaban las primeras batallas por el dinero, el prestigio y la prensa&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-24-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-24-16250' title='Olazaran, M., \u00ab\u00a0A sociological history of the neural network controversy\u00a0\u00bb,\u00a0&lt;em&gt;Advances in Computers&lt;\/em&gt;\u00a0n\u00b037, 1993, pp. 335-425.'><sup>24<\/sup><\/a><\/span><\/span>. Las heridas que pod\u00edan existir ya entonces se amplificaron enormemente en 1969, cuando Minsky y Seymour Papert publicaron una detallada cr\u00edtica matem\u00e1tica de una clase de redes neuronales (conocidas como perceptrones) que son las antecesoras de todas las redes neuronales modernas. Demostraron que las redes neuronales m\u00e1s sencillas eran muy limitadas y expresaron dudas (en retrospectiva, indebidamente pesimistas) sobre lo que ser\u00edan capaces de lograr redes m\u00e1s complejas. Durante m\u00e1s de una d\u00e9cada, el entusiasmo por las redes neuronales se enfri\u00f3; Rosenblatt (que muri\u00f3 en un accidente de navegaci\u00f3n dos a\u00f1os despu\u00e9s) perdi\u00f3 parte de la financiaci\u00f3n de sus investigaciones.<\/p>\n\n\n\n<p>Cuando las redes neuronales resurgieron en los a\u00f1os 1980, muchos de sus defensores intentaron distanciarse de la tradici\u00f3n de manipulaci\u00f3n de s\u00edmbolos. Los l\u00edderes de este enfoque dejaron claro que, aunque fuera posible construir redes neuronales compatibles con la manipulaci\u00f3n de s\u00edmbolos, no les interesaba. Su verdadero inter\u00e9s radicaba en construir modelos alternativos a la manipulaci\u00f3n de s\u00edmbolos. En concreto, sosten\u00edan que los errores de regularizaci\u00f3n de los ni\u00f1os (como goed en lugar de went) pod\u00edan explicarse mediante redes neuronales muy diferentes de los sistemas cl\u00e1sicos de reglas de manipulaci\u00f3n de s\u00edmbolos (mi trabajo de tesis suger\u00eda lo contrario).<\/p>\n\n\n\n<p>Cuando entr\u00e9 en la universidad en 1986, las redes neuronales estaban experimentando su primer gran resurgimiento; una colecci\u00f3n de dos vol\u00famenes que Hinton hab\u00eda ayudado a reunir agot\u00f3 su primera tirada en cuesti\u00f3n de semanas. El <em>New York Times<\/em> public\u00f3 las redes neuronales en la portada de su secci\u00f3n de ciencia (\u00abM\u00e1s humano que nunca, el ordenador aprende a aprender\u00bb), y el neurocient\u00edfico inform\u00e1tico Terry Sejnowski explic\u00f3 su funcionamiento en el programa <em>The Today Show<\/em>. El aprendizaje profundo a\u00fan no estaba bien desarrollado en aquella \u00e9poca, pero volv\u00eda a estar en auge.<\/p>\n\n\n\n<p>En 1990, Hinton public\u00f3 un n\u00famero especial de la revista <em>Artificial Intelligence <\/em>titulado \u00abConnectionist Symbol Processing\u00bb, cuyo objetivo expl\u00edcito era tender un puente entre los dos mundos del aprendizaje profundo y la manipulaci\u00f3n de s\u00edmbolos. Este n\u00famero inclu\u00eda, por ejemplo, la arquitectura BoltzCons de David Touretzky, un intento directo de desarrollar \u00abun modelo [de red neuronal] conexionista que crea y manipula din\u00e1micamente estructuras simb\u00f3licas compuestas\u00bb. Siempre he pensado que lo que Hinton intentaba hacer en aquel momento iba muy bien encaminado, y ojal\u00e1 hubiera seguido por ese camino. En aquella \u00e9poca, yo tambi\u00e9n era partidario de los modelos h\u00edbridos, pero desde un punto de vista psicol\u00f3gico&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-25-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-25-16250' title='Marcus, G.F. et al., \u00ab\u00a0Overregularization in language acquisition\u00a0\u00bb,\u00a0&lt;em&gt;Monographs of the Society for Research in Child Development&lt;\/em&gt;\u00a0n\u00b057, 1998.'><sup>25<\/sup><\/a><\/span><\/span> (Ron Sun, entre otros, tambi\u00e9n presion\u00f3 mucho dentro de la comunidad inform\u00e1tica, pero nunca recibi\u00f3 la atenci\u00f3n que merec\u00eda, en mi opini\u00f3n).<\/p>\n\n\n\n<p>Por razones que nunca he llegado a comprender, Hinton acab\u00f3 alej\u00e1ndose de las perspectivas de reconciliaci\u00f3n. Rechaz\u00f3 numerosos intentos de explicaci\u00f3n cuando se lo ped\u00ed, en privado, y nunca (que yo sepa) present\u00f3 un argumento detallado para ello. Algunos sospechan que esto se debi\u00f3 a la forma en que el propio Hinton fue desestimado a menudo en los a\u00f1os siguientes, sobre todo a principios de los a\u00f1os 2000, cuando el aprendizaje profundo volv\u00eda a perder popularidad; otra teor\u00eda podr\u00eda ser que se dej\u00f3 seducir por el \u00e9xito del aprendizaje profundo.<\/p>\n\n\n\n<p>Cuando el aprendizaje profundo resurgi\u00f3 en 2012, lo hizo con un tipo de ambici\u00f3n conquistadora que ha caracterizado gran parte de la \u00faltima d\u00e9cada. En 2015, cristaliz\u00f3 su hostilidad hacia todos los s\u00edmbolos. En un taller sobre IA en Stanford, compar\u00f3 los s\u00edmbolos con el \u00e9ter, uno de los mayores errores de la ciencia&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-26-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-26-16250' title='Hinton, G., \u00ab\u00a0Aetherial Symbols\u00a0\u00bb,\u00a0&lt;em&gt;AAAI Spring Symposium on Knowledge Representation and Reasoning,&lt;\/em&gt;\u00a0Stanford University, CA, 2015.'><sup>26<\/sup><\/a><\/span><\/span>. Cuando me dirig\u00ed a \u00e9l en la pausa del caf\u00e9 para pedirle aclaraciones, ya que su propuesta final parec\u00eda ser una implementaci\u00f3n en red neuronal de un sistema simb\u00f3lico conocido como pila (lo que ser\u00eda una confirmaci\u00f3n involuntaria de los mismos s\u00edmbolos que quer\u00eda rechazar), se neg\u00f3 a contestarme y me dijo que me fuera.<\/p>\n\n\n\n<p>Desde entonces, su campa\u00f1a antisimb\u00f3lica no ha hecho m\u00e1s que aumentar en intensidad. En 2016, Yann LeCun, Bengio y Hinton escribieron un manifiesto a favor del aprendizaje profundo en una de las principales revistas cient\u00edficas, <em>Nature<\/em>&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-27-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-27-16250' title='LeCun, Y., Bengio, Y. y Hinton, G., \u00ab\u00a0Deep learning\u00a0\u00bb,\u00a0&lt;em&gt;Nature&lt;\/em&gt;\u00a0n\u00b0521, 2015, pp. 436-444.'><sup>27<\/sup><\/a><\/span><\/span>. Este manifiesto terminaba con un ataque directo a la manipulaci\u00f3n de s\u00edmbolos, llamando no a la reconciliaci\u00f3n, sino a la sustituci\u00f3n pura y simple. M\u00e1s tarde, Hinton dijo en una reuni\u00f3n de l\u00edderes de la Uni\u00f3n Europea que invertir m\u00e1s dinero en enfoques de manipulaci\u00f3n de s\u00edmbolos era \u00abun error enorme\u00bb, compar\u00e1ndolo con invertir en motores de combusti\u00f3n interna en la era de los coches el\u00e9ctricos.<\/p>\n\n\n\n<p>No es la forma correcta de proceder menospreciar ideas anticuadas que a\u00fan no se han explorado a fondo. Hinton tiene toda la raz\u00f3n al afirmar que, en su momento, los investigadores de la IA intentaron -demasiado pronto- enterrar el aprendizaje profundo. Pero Hinton se equivoca igualmente al hacer lo mismo hoy con la manipulaci\u00f3n de s\u00edmbolos. Su antagonismo, en mi opini\u00f3n, ha socavado su legado y ha perjudicado al campo. En cierto modo, la campa\u00f1a de Hinton contra la manipulaci\u00f3n de s\u00edmbolos en la IA ha tenido \u00e9xito; casi toda la inversi\u00f3n en investigaci\u00f3n se ha destinado al aprendizaje profundo. Se ha enriquecido, y \u00e9l y sus estudiantes han compartido el Premio Turing 2019; el beb\u00e9 de Hinton se lleva casi toda la atenci\u00f3n. En palabras de Emily Bender, \u00abel exceso de promesas [de modelos como GPT-3 han tendido a] succionar el ox\u00edgeno de la sala, en detrimento de todos los dem\u00e1s tipos de investigaci\u00f3n\u00bb.<\/p>\n\n\n\n<p>Lo ir\u00f3nico de todo esto es que Hinton es tataranieto de George Boole, que dio nombre al \u00e1lgebra de Boole, una de las herramientas fundamentales de la IA simb\u00f3lica. Si por fin pudi\u00e9ramos aunar las ideas de estos dos genios, Hinton y su tatarabuelo, la IA podr\u00eda tener por fin una oportunidad.<\/p>\n\n\n\n<p>Por al menos cuatro razones, la IA h\u00edbrida, y no el aprendizaje profundo por s\u00ed solo (ni los s\u00edmbolos por s\u00ed solos), parece el mejor camino a seguir:<\/p>\n\n\n\n<p>&#8211; Gran parte del conocimiento del mundo, ya sean recetas, historia o tecnolog\u00eda, est\u00e1 actualmente disponible principalmente o \u00fanicamente en forma simb\u00f3lica. Intentar construir una IA sin este conocimiento, reaprendiendo absolutamente todo desde cero, como pretende hacer el aprendizaje profundo puro, parece una carga excesiva y temeraria.<\/p>\n\n\n\n<p>&#8211; El aprendizaje profundo por s\u00ed solo sigue teniendo dificultades, incluso en dominios tan ordenados como la aritm\u00e9tica&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-28-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-28-16250' title='Razeghi, Y., Logan IV, R.L., Gardner, M. y Singh, S., \u00ab\u00a0Impact of pretraining term frequencies on few-shot reasoning\u00a0\u00bb,\u00a0&lt;em&gt;arXiv&lt;\/em&gt;, 2022.'><sup>28<\/sup><\/a><\/span><\/span>. Un sistema h\u00edbrido podr\u00eda ser m\u00e1s potente que cualquiera de los dos sistemas por separado.<\/p>\n\n\n\n<p>&#8211; Los s\u00edmbolos siguen siendo muy superiores a las redes neuronales actuales en muchos aspectos fundamentales de la computaci\u00f3n. Son mucho mejores a la hora de razonar en escenarios complejos&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-29-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-29-16250' title='Lenat, D., \u00ab\u00a0What AI can learn from Romeo and Juliet\u00a0\u00bb,\u00a0&lt;em&gt;Forbes,\u00a0&lt;\/em&gt;2019\u00a0; Chaudhuri, S. et al., \u00ab\u00a0Neurosymbolic programming\u00a0\u00bb,\u00a0&lt;em&gt;Foundations and Trends in Programming languages,\u00a0&lt;\/em&gt;2021, pp. 158-243.'><sup>29<\/sup><\/a><\/span><\/span>, pueden realizar operaciones b\u00e1sicas como la aritm\u00e9tica de forma m\u00e1s sistem\u00e1tica y fiable, y son m\u00e1s capaces de representar con precisi\u00f3n las relaciones entre partes y enteros (algo esencial tanto para interpretar el mundo tridimensional como para entender el lenguaje humano). Son m\u00e1s robustos y flexibles a la hora de representar y consultar bases de datos a gran escala. Los s\u00edmbolos tambi\u00e9n se prestan mejor a las t\u00e9cnicas de verificaci\u00f3n formal, esenciales para ciertos aspectos de la seguridad y omnipresentes en el dise\u00f1o de los microprocesadores modernos. No tendr\u00eda mucho sentido abandonar estas virtudes en lugar de explotarlas en alg\u00fan tipo de arquitectura h\u00edbrida.<\/p>\n\n\n\n<p>&#8211; Los sistemas de aprendizaje profundo son cajas negras; podemos mirar sus entradas y salidas, pero nos cuesta mucho entrar en su interior. No sabemos exactamente por qu\u00e9 toman las decisiones que toman, y a menudo no sabemos qu\u00e9 hacer (excepto recopilar m\u00e1s datos) si dan respuestas err\u00f3neas. Esto las hace intr\u00ednsecamente dif\u00edciles de manejar e interpretar y, en muchos sentidos, inadecuadas para la \u00abcognici\u00f3n aumentada\u00bb en conjunci\u00f3n con los humanos. Los h\u00edbridos que nos permiten combinar la destreza de aprendizaje del aprendizaje profundo con la riqueza expl\u00edcita y sem\u00e1ntica de los s\u00edmbolos podr\u00edan ser transformadores.<\/p>\n\n\n\n<p class=\"comment\">L\u00edneas de investigaci\u00f3n como la interpretabilidad mecanicista pretenden descifrar la l\u00f3gica subyacente aprendida por la red a nivel de la neurona artificial. Sin embargo, a\u00fan no est\u00e1n lo suficientemente maduras como para abrir el cap\u00f3 de la m\u00e1quina&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-30-16250' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#easy-footnote-bottom-30-16250' title='Chris Olah, \u00ab\u00a0&lt;a href=&quot;https:\/\/transformer-circuits.pub\/2022\/mech-interp-essay\/index.html&quot;&gt;Mechanistic Interpretability, Variables, and the Importance of Interpretable Bases&lt;\/a&gt;\u00a0\u00bb, Transformer Circuits Thread'><sup>30<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n<p>Dado que la inteligencia artificial general tendr\u00e1 una responsabilidad tan grande, debe ser como el acero inoxidable, m\u00e1s fuerte y fiable, y de hecho m\u00e1s f\u00e1cil de trabajar, que cualquiera de sus partes constituyentes. Ning\u00fan enfoque de la IA ser\u00e1 suficiente; debemos dominar el arte de combinar varios enfoques, si queremos tener alguna esperanza (imaginemos un mundo en el que los fabricantes de hierro gritaran \u00abhierro\u00bb y los amantes del carbono \u00abcarbono\u00bb, y a nadie se le ocurriera combinar ambos; as\u00ed es en gran medida la historia de la inteligencia artificial moderna).<\/p>\n\n\n\n<p>La buena noticia es que el acercamiento neurosimb\u00f3lico con el que Hinton coquete\u00f3, muy brevemente, hacia 1990, y por el que yo pas\u00e9 mi carrera presionando, nunca ha desaparecido del todo y por fin est\u00e1 cobrando impulso.<\/p>\n\n\n\n<p>Artur Garcez y Luis Lamb escribieron un manifiesto a favor de los modelos h\u00edbridos en 2009, titulado \u00abNeural-Symbolic Cognitive Reasoning\u00bb. Algunos de los \u00e9xitos recientes m\u00e1s conocidos en los juegos de mesa (Go, ajedrez, etc., principalmente gracias al trabajo de DeepMind de Alphabet) son modelos h\u00edbridos. AlphaGo utiliz\u00f3 la b\u00fasqueda simb\u00f3lica en \u00e1rbol, una idea que se remonta a finales de los a\u00f1os 1950 (y mejorada con una base estad\u00edstica mucho m\u00e1s rica en los a\u00f1os 1990), junto con el aprendizaje profundo; la b\u00fasqueda cl\u00e1sica en \u00e1rbol por s\u00ed sola no bastar\u00eda para el juego del Go, como tampoco lo har\u00eda el aprendizaje profundo por s\u00ed solo. AlphaFold2 de DeepMind, un sistema para predecir la estructura de las prote\u00ednas a partir de sus nucle\u00f3tidos, es tambi\u00e9n un modelo h\u00edbrido, que combina medios simb\u00f3licos cuidadosamente construidos para representar la estructura f\u00edsica tridimensional de las mol\u00e9culas con las formidables capacidades de miner\u00eda de datos del aprendizaje profundo.<\/p>\n\n\n\n<p>Investigadores como Josh Tenenbaum, Anima Anandkumar y Yejin Choi tambi\u00e9n est\u00e1n avanzando en direcciones cada vez m\u00e1s neurosimb\u00f3licas. Grandes contingentes de IBM, Intel, Google, Facebook y Microsoft, entre otros, han empezado a invertir seriamente en enfoques neurosimb\u00f3licos. Swarat Chaudhuri y sus colegas est\u00e1n desarrollando un campo llamado \u00abprogramaci\u00f3n neurosimb\u00f3lica \u00ab23 , que para m\u00ed es una bendici\u00f3n.&nbsp;<\/p>\n\n\n\n<p>Por primera vez en 40 a\u00f1os, por fin siento cierto optimismo sobre la IA. Como han dicho elocuentemente los cient\u00edficos cognitivos Chaz Firestone y Brian Scholl, \u00abno hay una \u00fanica forma de actuar para la mente\u00bb. No hay una \u00fanica forma de que la mente funcione, porque la mente no es una sola cosa. M\u00e1s bien, la mente tiene partes, y las diferentes partes de la mente funcionan de diferentes maneras: ver un color no funciona de la misma manera que planificar unas vacaciones, que no funciona de la misma manera que entender una frase, mover un miembro, recordar un hecho o sentir una emoci\u00f3n. Intentar meter toda la cognici\u00f3n en un solo agujero redondo nunca iba a funcionar. Con un inter\u00e9s modesto pero creciente por el enfoque h\u00edbrido, creo que por fin tenemos una oportunidad.<\/p>\n\n\n\n<p>Dados todos los retos \u00e9ticos y computacionales, y los conocimientos necesarios en campos como la ling\u00fc\u00edstica, la psicolog\u00eda, la antropolog\u00eda y la neurociencia, no s\u00f3lo las matem\u00e1ticas y la inform\u00e1tica, har\u00e1 falta un pueblo para criar una IA. No olvidemos nunca que el cerebro humano es quiz\u00e1 el sistema m\u00e1s complejo del universo conocido; si queremos construir algo m\u00e1s o menos equivalente, ser\u00e1 esencial una colaboraci\u00f3n abierta y sincera.<\/p>\n\n\n\n<p class=\"comment\">El matiz es importante para Gary Marcus. En efecto, el investigador no desea reproducir de forma id\u00e9ntica la inteligencia humana, que seg\u00fan \u00e9l tiene un cierto n\u00famero de defectos: en particular, somos presa del sesgo de confirmaci\u00f3n o de los defectos de memoria. Sin embargo, para Gary Marcus, una de las caracter\u00edsticas de esta inteligencia es que es flexible, es decir, que nos permite razonar sobre las cosas que nos rodean.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El aprendizaje profundo en el que se basan los modelos actuales de inteligencia artificial es inherentemente limitado. En una respuesta a Sam Altman, Gary Marcus propone transformar la forma en que pensamos la IA. Entreve la posibilidad de un modelo radical e h\u00edbrido -uno que vaya mucho m\u00e1s all\u00e1 de la simple puesta a escala-.<\/p>\n","protected":false},"author":1366,"featured_media":16213,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"templates\/post-speeches.php","format":"standard","meta":{"_acf_changed":false,"_trash_the_other_posts":false,"footnotes":""},"categories":[464],"tags":[],"staff":[154],"editorial_format":[],"serie":[],"audience":[],"geo":[198],"class_list":["post-16250","post","type-post","status-publish","format-standard","hentry","category-poderes-de-la-ia","staff-victor-storchan","geo-mundo"],"acf":{"open_in_webview":false,"accent":false},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>L\u00edmites de un sistema: desbloquear la IA - El Grand Continent<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"L\u00edmites de un sistema: desbloquear la IA - El Grand Continent\" \/>\n<meta property=\"og:description\" content=\"El aprendizaje profundo en el que se basan los modelos actuales de inteligencia artificial es inherentemente limitado. En una respuesta a Sam Altman, Gary Marcus propone transformar la forma en que pensamos la IA. Entreve la posibilidad de un modelo radical e h\u00edbrido -uno que vaya mucho m\u00e1s all\u00e1 de la simple puesta a escala-.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/\" \/>\n<meta property=\"og:site_name\" content=\"El Grand Continent\" \/>\n<meta property=\"article:published_time\" content=\"2023-04-28T15:28:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-04-29T11:29:32+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2023\/04\/gc-elgarymarcus-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1440\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"florent\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2023\/04\/gc-elgarymarcus-scaled.jpg\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"florent\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"36 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/\",\"name\":\"L\u00edmites de un sistema: desbloquear la IA - El Grand Continent\",\"isPartOf\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/04\/SIPA_sipausa31420068_000034-scaled.jpg\",\"datePublished\":\"2023-04-28T15:28:00+00:00\",\"dateModified\":\"2023-04-29T11:29:32+00:00\",\"author\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/cdd782c93d4a9eda86ab19a8c01cdf5c\"},\"breadcrumb\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#primaryimage\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/04\/SIPA_sipausa31420068_000034-scaled.jpg\",\"contentUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/04\/SIPA_sipausa31420068_000034-scaled.jpg\",\"width\":2560,\"height\":1942,\"caption\":\"***NB: Top 3 entries are captioned*** PICTURE SHOWS: THIRD PLACE: Third Place Prize ($10,000) went to the independent team CloudPainter .... These are the stunning results of the 2017 RobotArt Competition announced this week. Organisers of the worldwide competition say their goal is \\\"to get teams to paint beautiful art using robots and physical brushes and paint.\\\" In only its second year, 39 painting robots responded to the challenge, submitting more than 200 artworks. In addition to traditional looking robotic arms, the top competitors included thought-controlled robots, writhing snakebots, and even flying quadcopter drones. The brains of the robots \u00e2\u20ac\u201c the software \u00e2\u20ac\u201c was equally varied and included deep learning algorithms, 3D scans, matricism, as well as systems designed to collaborate with human artists. The style and subject matter of the paintings were as varied as the hardware and software. Many art genres were represented including impressionism, abstract expressionism, cubism, and realism. These styles were used to paint portraits, still-lifes, landscapes and abstract compositions. The first prize of $40,000 was awarded to the Creative Machines Lab at Columbia University, who trained a decommissioned factory robots called PIX18 to create eye-catching portraits, including ones of Jimi Hendrix and Marilyn Monroe. Second place ($25,000) went to Thailand\u00e2\u20ac\u2122s Kasetsart University, whose work included a portrait of Steve Jobs and a recreation of Van Gogh's The Starry Night. Third Place Prize ($10,000) went to the independent team CloudPainter who used machine learning to create artwork using the distinctive styles of other artists. This is the second year of the Seattle-based RobotArt Contest, which saw twice the amount participate over last year. Event organiser and sponsor Andrew Conru said: \\\"I\u00e2\u20ac\u2122m excited to see growth of the contest \u00e2\u20ac\u201c many of the paintings have reached levels comparable with human painters and prove tha\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/legrandcontinent.eu\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"L\u00edmites de un sistema: desbloquear la IA\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/\",\"name\":\"El Grand Continent\",\"description\":\"La escala pertinente\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/cdd782c93d4a9eda86ab19a8c01cdf5c\",\"name\":\"florent\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/0d38d78c90602daf39b309035cdac6bc?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/0d38d78c90602daf39b309035cdac6bc?s=96&d=mm&r=g\",\"caption\":\"florent\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"L\u00edmites de un sistema: desbloquear la IA - El Grand Continent","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/","og_locale":"es_ES","og_type":"article","og_title":"L\u00edmites de un sistema: desbloquear la IA - El Grand Continent","og_description":"El aprendizaje profundo en el que se basan los modelos actuales de inteligencia artificial es inherentemente limitado. En una respuesta a Sam Altman, Gary Marcus propone transformar la forma en que pensamos la IA. Entreve la posibilidad de un modelo radical e h\u00edbrido -uno que vaya mucho m\u00e1s all\u00e1 de la simple puesta a escala-.","og_url":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/","og_site_name":"El Grand Continent","article_published_time":"2023-04-28T15:28:00+00:00","article_modified_time":"2023-04-29T11:29:32+00:00","og_image":[{"width":2560,"height":1440,"url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2023\/04\/gc-elgarymarcus-scaled.jpg","type":"image\/jpeg"}],"author":"florent","twitter_card":"summary_large_image","twitter_image":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2023\/04\/gc-elgarymarcus-scaled.jpg","twitter_misc":{"Escrito por":"florent","Tiempo de lectura":"36 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/","url":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/","name":"L\u00edmites de un sistema: desbloquear la IA - El Grand Continent","isPartOf":{"@id":"https:\/\/legrandcontinent.eu\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#primaryimage"},"image":{"@id":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#primaryimage"},"thumbnailUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/04\/SIPA_sipausa31420068_000034-scaled.jpg","datePublished":"2023-04-28T15:28:00+00:00","dateModified":"2023-04-29T11:29:32+00:00","author":{"@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/cdd782c93d4a9eda86ab19a8c01cdf5c"},"breadcrumb":{"@id":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#primaryimage","url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/04\/SIPA_sipausa31420068_000034-scaled.jpg","contentUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/04\/SIPA_sipausa31420068_000034-scaled.jpg","width":2560,"height":1942,"caption":"***NB: Top 3 entries are captioned*** PICTURE SHOWS: THIRD PLACE: Third Place Prize ($10,000) went to the independent team CloudPainter .... These are the stunning results of the 2017 RobotArt Competition announced this week. Organisers of the worldwide competition say their goal is \"to get teams to paint beautiful art using robots and physical brushes and paint.\" In only its second year, 39 painting robots responded to the challenge, submitting more than 200 artworks. In addition to traditional looking robotic arms, the top competitors included thought-controlled robots, writhing snakebots, and even flying quadcopter drones. The brains of the robots \u00e2\u20ac\u201c the software \u00e2\u20ac\u201c was equally varied and included deep learning algorithms, 3D scans, matricism, as well as systems designed to collaborate with human artists. The style and subject matter of the paintings were as varied as the hardware and software. Many art genres were represented including impressionism, abstract expressionism, cubism, and realism. These styles were used to paint portraits, still-lifes, landscapes and abstract compositions. The first prize of $40,000 was awarded to the Creative Machines Lab at Columbia University, who trained a decommissioned factory robots called PIX18 to create eye-catching portraits, including ones of Jimi Hendrix and Marilyn Monroe. Second place ($25,000) went to Thailand\u00e2\u20ac\u2122s Kasetsart University, whose work included a portrait of Steve Jobs and a recreation of Van Gogh's The Starry Night. Third Place Prize ($10,000) went to the independent team CloudPainter who used machine learning to create artwork using the distinctive styles of other artists. This is the second year of the Seattle-based RobotArt Contest, which saw twice the amount participate over last year. Event organiser and sponsor Andrew Conru said: \"I\u00e2\u20ac\u2122m excited to see growth of the contest \u00e2\u20ac\u201c many of the paintings have reached levels comparable with human painters and prove tha"},{"@type":"BreadcrumbList","@id":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/legrandcontinent.eu\/es\/"},{"@type":"ListItem","position":2,"name":"L\u00edmites de un sistema: desbloquear la IA"}]},{"@type":"WebSite","@id":"https:\/\/legrandcontinent.eu\/es\/#website","url":"https:\/\/legrandcontinent.eu\/es\/","name":"El Grand Continent","description":"La escala pertinente","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/cdd782c93d4a9eda86ab19a8c01cdf5c","name":"florent","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/0d38d78c90602daf39b309035cdac6bc?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/0d38d78c90602daf39b309035cdac6bc?s=96&d=mm&r=g","caption":"florent"}}]}},"term_position_data":null,"_links":{"self":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/16250","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/users\/1366"}],"replies":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/comments?post=16250"}],"version-history":[{"count":0,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/16250\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media\/16213"}],"wp:attachment":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media?parent=16250"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/categories?post=16250"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/tags?post=16250"},{"taxonomy":"staff","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/staff?post=16250"},{"taxonomy":"editorial_format","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/editorial_format?post=16250"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/serie?post=16250"},{"taxonomy":"audience","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/audience?post=16250"},{"taxonomy":"geo","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/geo?post=16250"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}