{"id":17257,"date":"2023-05-19T08:52:00","date_gmt":"2023-05-19T07:52:00","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=17257"},"modified":"2023-05-19T10:05:29","modified_gmt":"2023-05-19T09:05:29","slug":"como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/","title":{"rendered":"\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager"},"content":{"rendered":"\n<p><em>El martes, 16 de mayo, <a href=\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/14\/sam-altman-la-ley-fundamental-de-la-ia\/\">Sam Altman<\/a>, consejero delegado de OpenAI, <a href=\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/limites-de-un-sistema-desbloquear-la-ia\/\">Gary Marcus<\/a>, catedr\u00e1tico de Psicolog\u00eda y Neurociencia de la Universidad de Nueva York, y Christina Montgomery, directora de Privacidad y Confianza de IBM, audicionaron ante el Senado de Estados Unidos sobre los riesgos de la IA generativa, cosa que la Casa Blanca considera una cuesti\u00f3n prioritaria. En un contexto mundial de creciente competencia tecnol\u00f3gica y de un aumento de posturas tecnonacionalistas, la audiencia se lleva a cabo tras la cristalizaci\u00f3n de las preocupaciones sobre la seguridad, confiabilidad y control de la IA generativa. Robert Trager, profesor asociado de Ciencias Pol\u00edticas en la Universidad de California en Los \u00c1ngeles, exprofesor de Yale y Oxford y ganador de la beca Olin de la Universidad de Harvard, descifra lo que est\u00e1 en juego.\u00a0<\/em><\/p>\n\n\n\n<p><em>Tras un repaso sobre las caracter\u00edsticas clave de la carrera internacional de la IA que extrae lecciones de la historia de las tecnolog\u00edas duales, Robert Trager nos ofrece su an\u00e1lisis de los puntos principales de la audiencia del Senado, as\u00ed como su visi\u00f3n de los futuros retos relacionados con la gobernanza de la IA.<\/em><\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>La audiencia del Senado tiene lugar en un contexto internacional de creciente crisis en la carrera de la inteligencia artificial. \u00bfPodr\u00eda describirnos las principales caracter\u00edsticas de esto? \u00bfDeber\u00eda preocuparnos el riesgo global de cat\u00e1strofe relacionada con la IA, es decir, que un solo pa\u00eds pueda provocar una cat\u00e1strofe?<\/strong><\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">ROBERT TRAGER\u00a0<\/h4>\n\n\n\n\n\n<figure class=\"wp-block-image wp-block-image-small\"\n    data-shadow=\"false\"\n    data-use-original-file=\"false\">\n    <a\n        data-pswp-src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/6174642ec4d3c2f5fb9dcdfc_Untitleddesign-2021-06-30T175844.089.png\"\n        class=\"inline-block gallery-item no-underline \"\n        data-pswp-width=\"493\"\n        data-pswp-height=\"494\">\n                                        <picture>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/6174642ec4d3c2f5fb9dcdfc_Untitleddesign-2021-06-30T175844.089-125x125.png\"\r\n                media=\"(max-width: 374px)\" \/>\r\n                    <source\r\n                srcset=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/6174642ec4d3c2f5fb9dcdfc_Untitleddesign-2021-06-30T175844.089-330x331.png\"\r\n                media=\"(min-width: 375px)\" \/>\r\n                <img decoding=\"async\" src=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/6174642ec4d3c2f5fb9dcdfc_Untitleddesign-2021-06-30T175844.089-125x125.png\" \/>\r\n        <\/picture>\r\n                            \n                    <figcaption class=\"pswp-caption-content \">Robert F. Trager es responsable de la gobernanza internacional de GovAI y profesor de Ciencias Pol\u00edticas en la Universidad de California en Los \u00c1ngeles. Estudia las implicaciones estrat\u00e9gicas de las tecnolog\u00edas emergentes, en particular, de la transici\u00f3n a la IA avanzada.  Tambi\u00e9n, se interesa por el control de armamento y la no proliferaci\u00f3n, por la construcci\u00f3n del orden internacional y por otros temas.<\/figcaption>\n            <\/a>\n<\/figure>\n\n\n<p>Creo que <a href=\"https:\/\/legrandcontinent.eu\/es\/2023\/03\/31\/hay-que-detener-la-ia\/\">existen algunos riesgos asociados con los avances de la IA<\/a>, pero no creo que haga falta ser un experto para apreciarlos. Ya hemos visto consecuencias preocupantes en t\u00e9rminos de sistemas de IA sesgados, incluidos sistemas discriminatorios utilizados en procesos de contrataci\u00f3n, por ejemplo, o modelos de IA que amenazan con perpetuar las crecientes desigualdades. Tambi\u00e9n, hemos constatado que los algoritmos de recomendaci\u00f3n pueden desestabilizar a las empresas y, posiblemente, crear divisiones en su seno. Estos sistemas son cada vez m\u00e1s potentes y aut\u00f3nomos, por lo que es posible que la seguridad p\u00fablica corra peligro a medida que evolucionan, as\u00ed que creo que debemos tener cuidado. Para bien o para mal, cuando nos referimos a esta carrera de la IA, hoy, sobre todo, las empresas son las que se preocupan, en contraposici\u00f3n con los Estados. Tendremos que preocuparnos por lo que ocurre a nivel estatal porque los gobiernos est\u00e1n cada vez m\u00e1s conscientes de estas cuestiones: por ejemplo, en el Reino Unido, donde vivo, el plan para desarrollar un modelo ling\u00fc\u00edstico claramente brit\u00e1nico y soberano es algo que los responsables pol\u00edticos consideran importante para su seguridad nacional. Sin embargo, hoy, las empresas son las que, realmente, parecen estar ampliando los l\u00edmites de la tecnolog\u00eda. La preocupaci\u00f3n a corto plazo es c\u00f3mo regular las empresas en todo el mundo. A un plazo algo m\u00e1s largo, tenemos que pensar en los incentivos adecuados para que los pa\u00edses no compitan negativamente ni se mermen en materia de seguridad.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>La preocupaci\u00f3n a corto plazo es c\u00f3mo regular las empresas en todo el mundo. A un plazo algo m\u00e1s largo, tenemos que pensar en los incentivos adecuados para que los pa\u00edses no compitan negativamente ni se mermen en materia de seguridad.<\/p><cite>ROBERT TRAGER<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Usted se\u00f1ala que la intensificaci\u00f3n de la competencia tecnol\u00f3gica internacional est\u00e1 positivamente correlacionada con la disposici\u00f3n de los actores geopol\u00edticos de asumir mayores riesgos. \u00bfC\u00f3mo evitar una carrera hacia el abismo?<\/strong><\/h3>\n\n\n\n<p>La historia nos ofrece muchos casos en los que se ha evitado que la carrera tecnol\u00f3gica se vaya al abismo: la carrera armament\u00edstica nuclear, por ejemplo, se ha contenido gracias a tratados eficaces y reg\u00edmenes de no proliferaci\u00f3n. Del mismo modo, la carrera por producir armas qu\u00edmicas y biol\u00f3gicas se ha contenido, posiblemente, gracias a convenciones sobre este tipo de armas. Los controles sobre la exportaci\u00f3n tambi\u00e9n limitan la capacidad de algunos pa\u00edses para competir en tecnolog\u00edas clave o peligrosas. Por \u00faltimo, las normas cient\u00edficas tambi\u00e9n pueden haber impedido el desarrollo de tecnolog\u00edas de ADN recombinante. As\u00ed que hay muchas \u00e1reas en las que las carreras tecnol\u00f3gicas no han sido el desastre que cab\u00eda esperar gracias a acuerdos multilaterales. No obstante, no es un hecho que siempre estemos en condiciones de adoptar tales disposiciones: en el caso de armas aut\u00f3nomas, por ejemplo, diez a\u00f1os de debates en las Naciones Unidas han hecho poco por frenar el ritmo de adquisici\u00f3n de estas armas.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>En un art\u00edculo reciente, propone un modelo te\u00f3rico para describir la din\u00e1mica de una carrera tecnol\u00f3gica entre Estados. \u00bfCu\u00e1les son los factores, seg\u00fan lo que haya identificado, que llevan a los distintos actores a asumir, m\u00e1s o menos, riesgos en esta carrera? \u00bfC\u00f3mo se aplica este modelo para la IA?<\/strong><\/h3>\n\n\n\n<p>Algunos factores son bastante obvios. El nivel de hostilidad, por ejemplo: si realmente no quieres que gane el otro bando, tienes que asumir m\u00e1s riesgos. Otro factor es lo que llamamos el equilibrio entre seguridad y rendimiento. Creemos que, con frecuencia, la ampliaci\u00f3n de las capacidades de una tecnolog\u00eda se produce a expensas de la seguridad o confiabilidad del sistema. Por ejemplo, en el caso de un coche autoconducido, puede estar dise\u00f1ado para que s\u00f3lo pueda circular en autopista, lo que puede ser bastante seguro, pero sus capacidades tambi\u00e9n son menores que las de un coche al que se le permite circular por las calles de la ciudad, lo que, tambi\u00e9n, puede ser menos seguro. As\u00ed que creemos que la compensaci\u00f3n entre seguridad y rendimiento existe en todas partes en la IA. Esta compensaci\u00f3n influye en el nivel de riesgo asumido y depende, en gran medida, del estado de la t\u00e9cnica: si, por limitaciones t\u00e9cnicas, no se puede obtener un mejor rendimiento renunciando a la seguridad, entonces, es una buena noticia. El nivel general de seguridad puede, as\u00ed, ser mayor. Del mismo modo, si un gran sacrificio en seguridad s\u00f3lo supone una ganancia marginal en rendimiento, entonces, tambi\u00e9n, es una buena noticia: es posible que no se est\u00e9 dispuesto a hacer ese sacrificio. Otro factor que identificamos es la proximidad de competidores en la carrera tecnol\u00f3gica.&nbsp;<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>Hay muchas \u00e1reas en las que las carreras tecnol\u00f3gicas no han sido el desastre que cab\u00eda esperar gracias a acuerdos multilaterales. No obstante, no es un hecho que siempre estemos en condiciones de adoptar tales disposiciones.<\/p><cite>ROBERT TRAGER<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Al respecto, plantea un punto bastante contraintuitivo: una inversi\u00f3n en seguridad tecnol\u00f3gica puede aumentar el nivel de riesgo. \u00bfPor qu\u00e9 ocurre esto y c\u00f3mo deber\u00edamos compensar esta situaci\u00f3n en el contexto de la IA?<\/strong><\/h3>\n\n\n\n<p>Vuelvo a la relaci\u00f3n entre seguridad y rendimiento: si inviertes en seguridad, estar\u00e1s m\u00e1s seguro a cualquier nivel de rendimiento. Sin embargo, esto puede empujarte a aumentar el nivel de rendimiento: es la idea de hacer paracaidismo en un avi\u00f3n. Imagina que est\u00e1s en un avi\u00f3n. Es posible que no te arriesgues a saltar, pero supongamos que llega alguien y te dice: \u00abPor cierto, hay un paraca\u00eddas; puedes saltar\u00bb. Puede que pienses: \u00abQu\u00e9 bien; me encanta el paracaidismo\u00bb. Ahora que saltar es m\u00e1s seguro, puede que est\u00e9s dispuesto a hacerlo y, por lo tanto, a aumentar el nivel de riesgo asumido.&nbsp;<\/p>\n\n\n\n<p>Es una din\u00e1mica similar a la que podemos observar, a veces, cuando trabajamos sobre la seguridad en el contexto de la compensaci\u00f3n seguridad-rendimiento. Para tener en cuenta esta compensaci\u00f3n en la investigaci\u00f3n sobre IA, deber\u00edamos preguntarnos, colectivamente, si estamos o no en una situaci\u00f3n de equilibrio en la que todos estos actores compiten entre s\u00ed y se dicen: \u00abVamos a elegir un punto de la compensaci\u00f3n seguridad-rendimiento en funci\u00f3n de los riesgos que estamos dispuestos a asumir\u00bb. Las inversiones en seguridad pueden aumentar el riesgo al incitar a los actores a desplegar versiones m\u00e1s peligrosas de una tecnolog\u00eda que las que desplegar\u00edan en cualquier otro escenario. En este caso, nos encontramos en una situaci\u00f3n en la que necesitamos una regulaci\u00f3n que evite nuevas compensaciones y que rebaje el equilibrio entre seguridad y rendimiento. Si, por el contrario, nos encontramos en un mundo en el que la implantaci\u00f3n de tecnolog\u00eda est\u00e1 al l\u00edmite de nuestras capacidades t\u00e9cnicas (el paradigma est\u00e1 agotado, por ejemplo) y en el que, realmente, no podemos ganar capacidad sacrificando la seguridad, entonces, simplemente mejorar la seguridad en ese l\u00edmite de capacidad es algo positivo.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>Si inviertes en seguridad, estar\u00e1s m\u00e1s seguro a cualquier nivel de rendimiento. Sin embargo, esto puede empujarte a aumentar el nivel de rendimiento.<\/p><cite>ROBERT TRAGER<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>En la actualidad, la carrera tecnol\u00f3gica de la IA se articula, principalmente, en torno a la competencia entre China y Estados Unidos. Usted ha demostrado que una carrera re\u00f1ida entre los distintos protagonistas es m\u00e1s segura que una carrera en la que uno de los protagonistas se queda muy detr\u00e1s, pero en la que dispone de una tecnolog\u00eda que puede perjudicar \u00bfC\u00f3mo se aplica esto en el enfrentamiento entre China y Estados Unidos en torno a la IA?<\/strong><\/h3>\n\n\n\n<p>Gran parte de ello se reduce a esta idea del impuesto de seguridad: puede ser m\u00e1s dif\u00edcil construir un sistema seguro y confiable que construir un sistema inseguro. En el caso de la IA, es m\u00e1s dif\u00edcil entrenar a un sistema para que haga las cosas por las razones correctas, de modo que siga haciendo lo que uno quiere que haga, incluso en contextos nuevos que son diferentes a su entorno de entrenamiento. Con la idea de un impuesto de seguridad, sabemos que un rezagado en una carrera \u2013digamos, una carrera tecnol\u00f3gica\u2013 es m\u00e1s propenso a tomar atajos. Los jugadores no hacen trampa cuando est\u00e1n a punto de ganar; s\u00f3lo lo hacen cuando es la \u00fanica forma de ganar y, realmente, quieren ganar. \u00bfEsto significa que China no pagar\u00e1 un impuesto de seguridad si se queda detr\u00e1s y tiene que tomar atajos para ganar? En este caso, la cuesti\u00f3n es hasta qu\u00e9 punto el rezagado \u2013digamos aqu\u00ed, China\u2013 es capaz \u2013y se sabe que es capaz\u2013 de causar da\u00f1os.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Sin embargo, <a href=\"https:\/\/legrandcontinent.eu\/es\/2023\/04\/28\/un-green-new-deal-global-desde-washington-el-mundo-de-jake-sullivan\/\">la nueva doctrina de Jake Sullivan<\/a> consiste en asumir una estrategia de desvinculaci\u00f3n de China. En septiembre de 2022, afirm\u00f3 que, en materia de semiconductores, Estados Unidos deber\u00eda mantener \u00abuna ventaja tan grande como sea posible\u00bb. \u00bfPodemos deducir de sus resultados que \u00e9sta podr\u00eda ser una estrategia sub\u00f3ptima?<\/strong><\/h3>\n\n\n\n<p>No creo que podamos deducir que la estrategia de la administraci\u00f3n sea err\u00f3nea, pero creo que lo que podemos deducir de este modelo deber\u00eda preocuparnos: \u00bfChina decidir\u00e1, en alg\u00fan momento, que tiene que ganar la carrera y que, para tener posibilidades de ganar, hay un impuesto de seguridad que tiene que minimizar y que no tiene que pagar? Ah\u00ed, radica la preocupaci\u00f3n. Creo que tenemos que explorar soluciones multilaterales. No creo que podamos confiar en que el dominio de una tecnolog\u00eda superior nos proteja y \u00e9sta es una lecci\u00f3n de la Guerra Fr\u00eda: al principio de la era nuclear, la administraci\u00f3n de Truman estaba convencida de que los sovi\u00e9ticos nunca conseguir\u00edan los secretos de la bomba, a diferencia de los cient\u00edficos estadounidenses, que pensaban que lo har\u00edan muy r\u00e1pidamente. La administraci\u00f3n estadounidense de la \u00e9poca se neg\u00f3 a creerles y el resultado fue que estuvo menos dispuesta a buscar el multilateralismo en los primeros d\u00edas de la confrontaci\u00f3n de bloques cuando tuvo la oportunidad.&nbsp;<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>\u00bfChina decidir\u00e1, en alg\u00fan momento, que tiene que ganar la carrera y que, para tener posibilidades de ganar, hay un impuesto de seguridad que tiene que minimizar y que no tiene que pagar? Ah\u00ed, radica la preocupaci\u00f3n.<\/p><cite>ROBERT TRAGER<\/cite><\/blockquote><\/figure>\n\n\n\n<p>Se pueden hacer muchas analog\u00edas, m\u00e1s o menos pertinentes, entre la era de la IA y el periodo de la Guerra Fr\u00eda. Creo que, al principio de la Guerra Fr\u00eda, se esperaba que el uranio y el plutonio tuvieran una disponibilidad muy limitada para satisfacer las demandas de los pa\u00edses de todo el mundo. As\u00ed que se pens\u00f3 que su suministro podr\u00eda ser controlado con bastante facilidad. Unos a\u00f1os m\u00e1s tarde, se comprob\u00f3 que no era as\u00ed: el uranio estaba distribuido por todo el mundo y no era f\u00e1cil controlarlo. Se puede establecer un paralelismo con la potencia de c\u00e1lculo que requiere la IA hoy en d\u00eda: la potencia de c\u00e1lculo necesaria para entrenar modelos podr\u00eda sugerir que ser\u00e1 relativamente f\u00e1cil controlar la proliferaci\u00f3n de la IA. Sin embargo, con las mejoras algor\u00edtmicas, la cantidad de computaci\u00f3n necesaria para realizar una tarea concreta disminuye constantemente. Por lo tanto, no est\u00e1 claro hasta qu\u00e9 punto esta analog\u00eda es v\u00e1lida. Otro problema espec\u00edfico de la IA \u2013y que, conste, no se refleja en la analog\u00eda nuclear\u2013 es la facilidad con la que algunos productos basados en IA pueden ser, simplemente, robados. Al fin y al cabo, no es m\u00e1s que software; ya se ha robado software de valor similar antes. As\u00ed que tenemos motivos para creer que algunas de estas capacidades de IA, simplemente, ser\u00e1n robadas.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Durante la audiencia, los senadores reconocieron que el Congreso no hab\u00eda tomado las medidas oportunas para establecer una normativa para las redes sociales. Desde entonces, el ritmo del cambio tecnol\u00f3gico se ha acelerado con la IA y los avances en esta tecnolog\u00eda est\u00e1n llegando, m\u00e1s r\u00e1pido que nunca, a manos de los usuarios finales. \u00bfC\u00f3mo conciliar el ritmo de la regulaci\u00f3n y la diplomacia tecnol\u00f3gica con el ritmo de desarrollo de la IA?<\/strong><\/h3>\n\n\n\n<p>\u00c9ste siempre ha sido el problema. Rachel Carson dijo que el problema de la regulaci\u00f3n en el mundo moderno es que, sencillamente, no hay tiempo. No tenemos tiempo para determinar los efectos de la tecnolog\u00eda ni para regular al ritmo del calendario de desarrollo tecnol\u00f3gico. Tambi\u00e9n, es cierto que el Congreso se ha tardado en legislar sobre redes sociales, pero no parece que sea demasiado tarde, en este momento, con respecto a la IA. El Congreso debe insistir en establecer mecanismos de transparencia sobre lo que hacen las empresas tecnol\u00f3gicas. Puede insistir en priorizar el inter\u00e9s p\u00fablico en las decisiones y en que la sociedad civil tenga voz y voto. Deber\u00eda implicar a terceras partes del sector privado y del mundo acad\u00e9mico para evaluar y auditar estos sistemas. La auditor\u00eda por terceros se mencion\u00f3 muchas veces en la audiencia. Podemos hacer algo mejor que el <em>statu quo<\/em> actual para resolver estos problemas.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>No tenemos tiempo para determinar los efectos de la tecnolog\u00eda ni para regular al ritmo del calendario de desarrollo tecnol\u00f3gico, pero podemos hacer algo mejor que el <em>statu quo<\/em> actual para resolver estos problemas.<\/p><cite>ROBERT TRAGER<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>En el plan final de tres puntos que Sam Altman present\u00f3 ante el Senado, suger\u00eda la creaci\u00f3n de una nueva agencia federal para autorizar el despliegue y entrenamiento de modelos de IA a gran escala. Algunos observadores han expresado su preocupaci\u00f3n por el impacto anticompetitivo que esto podr\u00eda tener. \u00bfC\u00f3mo encontrar el equilibrio adecuado entre una regulaci\u00f3n eficaz de la IA y la garant\u00eda de que no ahogue la competencia?<\/strong><\/h3>\n\n\n\n<p>Existe la leg\u00edtima preocupaci\u00f3n de que una nueva agencia ahogue la competencia, pero no creo que sea as\u00ed necesariamente. Ciertamente, la agencia debe tener cuidado de evitar este escollo en su formulaci\u00f3n de pol\u00edticas, pero el obst\u00e1culo m\u00e1s importante para la competencia, en el caso de la IA, parece ser el costo financiero de operar en la frontera tecnol\u00f3gica. Parece que el desarrollo de un amplio modelo ling\u00fc\u00edstico de vanguardia es prohibitivo para muchos actores. As\u00ed que creo que \u00e9se es, posiblemente, un factor m\u00e1s importante que la captura reglamentaria a la hora de impedir que algunos de los actores m\u00e1s peque\u00f1os entren en el mercado. Por \u00faltimo, creo que la sociedad debe ser la que establezca las normas sobre lo que las empresas pueden y no pueden hacer por m\u00ed y eso es a trav\u00e9s de concesi\u00f3n de licencias. Hay quien piensa que la concesi\u00f3n de licencias es s\u00f3lo un intento furtivo de las grandes empresas tecnol\u00f3gicas de impedir la competencia, pero \u00e9sa es s\u00f3lo una posibilidad. \u00bfExiste una buena pol\u00edtica alternativa que sea de inter\u00e9s p\u00fablico? No creo que realmente la haya. Me parece que la concesi\u00f3n de licencias es el camino por seguir. Como dijo el senador Graham en la audiencia, es la soluci\u00f3n m\u00e1s sencilla y se utiliza en otros sectores.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Los tres ponentes coincidieron en la necesidad de que los organismos internacionales establezcan normas y supervisen la IA. Sam Altman abog\u00f3 por la creaci\u00f3n de una agencia que siga el modelo del Organismo Internacional de Energ\u00eda At\u00f3mica (OIEA).<\/strong><\/h3>\n\n\n\n<p>El OIEA es un grupo de pa\u00edses poderosos que ha hecho dos cosas principales. En sus inicios, esta organizaci\u00f3n se centr\u00f3 en el desarrollo y la difusi\u00f3n de tecnolog\u00eda nuclear civil con fines pac\u00edficos. Despu\u00e9s, cuando el OIEA recibi\u00f3 el mandato del tratado de no proliferaci\u00f3n, se trataba, en parte, de que este grupo de pa\u00edses poderosos le impusiera sus intereses al resto del mundo. Creo que, hoy en d\u00eda, hay dos diferencias clave con respecto a la IA: la primera es que, quiz\u00e1s, necesitemos una gobernanza que no s\u00f3lo enmarque a todos los dem\u00e1s pa\u00edses del mundo \u2013que no est\u00e1n entre los pocos pa\u00edses l\u00edderes en IA\u2013, sino que, tambi\u00e9n, enmarque lo que los pa\u00edses poderosos se hacen entre s\u00ed. La segunda diferencia es la desalineaci\u00f3n de los Estados l\u00edderes en IA. Durante la Guerra Fr\u00eda, los pa\u00edses del P5 en la ONU ten\u00edan intereses muy similares en materia de armas nucleares. Pod\u00edan pensar, en el OIEA, sobre lo que quer\u00edan para el resto del mundo. Esto fue especialmente cierto despu\u00e9s de que China adquiriera sus armas nucleares en la d\u00e9cada de 1960, pero esta alineaci\u00f3n de intereses entre pa\u00edses poderosos no existe en el caso de la IA. Esto significa que la ONU ser\u00e1 un lugar m\u00e1s dif\u00edcil para la cooperaci\u00f3n internacional. Tenemos serios retos por delante.<\/p>\n\n\n\n<figure class=\"wp-block-pullquote\"><blockquote><p>La alineaci\u00f3n de intereses entre pa\u00edses poderosos no existe en el caso de la IA.<\/p><cite>ROBERT TRAGER<\/cite><\/blockquote><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Europa, China y Estados Unidos han adoptado enfoques muy diferentes en materia de regulaci\u00f3n: Europa es muy horizontal (un \u00fanico texto que intenta abarcar los m\u00faltiples impactos de la IA); China es vertical (un texto diferente para cada tipo de IA y caso de uso); Estados Unidos no es vinculante hasta ahora. \u00bfQu\u00e9 est\u00e1 en juego en esta batalla por la normalizaci\u00f3n?<\/strong><\/h3>\n\n\n\n<p>Esta cuesti\u00f3n del grado de centralizaci\u00f3n del aparato regulador es la l\u00ednea de batalla del momento. Y creo que es un debate sano. En \u00faltima instancia, creo que la tecnolog\u00eda tendr\u00e1 la palabra. En este sentido, la direcci\u00f3n que est\u00e1 tomando el paradigma dominante es la de los <em>foundation models<\/em>, es decir, la de tecnolog\u00eda de uso general. Por supuesto, se adaptar\u00e1n a los casos de uso finales, pero no dejar\u00e1n de ser modelos cada vez mayores y m\u00e1s generales. Y creo que eso implica una unidad y un cierto grado de centralizaci\u00f3n en cuanto al enfoque regulador. Es algo que, posiblemente, descubriremos en los pr\u00f3ximos meses.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Este martes, tres de las figuras m\u00e1s destacadas de la inteligencia artificial audicionaron ante el Senado de Estados Unidos. El fundador de OpenAI pidi\u00f3 la creaci\u00f3n de una agencia que controle la IA a nivel mundial con base en el modelo de gobernanza de armas nucleares. Sin embargo, para el experto en control de armamento Robert Trager, no hay nada de obvio en poner esto en pr\u00e1ctica -le preguntamos sobre las principales conclusiones de las audiencias-.<\/p>\n","protected":false},"author":1366,"featured_media":17254,"comment_status":"closed","ping_status":"","sticky":false,"template":"templates\/post-studies.php","format":"standard","meta":{"_acf_changed":false,"_trash_the_other_posts":false,"footnotes":""},"categories":[464],"tags":[],"staff":[154],"editorial_format":[],"serie":[],"audience":[],"geo":[172],"class_list":["post-17257","post","type-post","status-publish","format-standard","hentry","category-poderes-de-la-ia","staff-victor-storchan","geo-americas"],"acf":{"open_in_webview":false,"accent":false},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager - El Grand Continent<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager - El Grand Continent\" \/>\n<meta property=\"og:description\" content=\"Este martes, tres de las figuras m\u00e1s destacadas de la inteligencia artificial audicionaron ante el Senado de Estados Unidos. El fundador de OpenAI pidi\u00f3 la creaci\u00f3n de una agencia que controle la IA a nivel mundial con base en el modelo de gobernanza de armas nucleares. Sin embargo, para el experto en control de armamento Robert Trager, no hay nada de obvio en poner esto en pr\u00e1ctica -le preguntamos sobre las principales conclusiones de las audiencias-.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/\" \/>\n<meta property=\"og:site_name\" content=\"El Grand Continent\" \/>\n<meta property=\"article:published_time\" content=\"2023-05-19T07:52:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-05-19T09:05:29+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2023\/05\/gc-elcontroldelaia-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1440\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"florent\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2023\/05\/gc-elcontroldelaia-scaled.jpg\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"florent\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"15 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/\",\"name\":\"\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager - El Grand Continent\",\"isPartOf\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/SIPA_ap22788194_000001-scaled.jpg\",\"datePublished\":\"2023-05-19T07:52:00+00:00\",\"dateModified\":\"2023-05-19T09:05:29+00:00\",\"author\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/cdd782c93d4a9eda86ab19a8c01cdf5c\"},\"breadcrumb\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#primaryimage\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/SIPA_ap22788194_000001-scaled.jpg\",\"contentUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/SIPA_ap22788194_000001-scaled.jpg\",\"width\":2560,\"height\":1707,\"caption\":\"Sam Altman, PDG d'OpenAI, de droite, Gary Marcus, professeur \u00e9m\u00e9rite \u00e0 l'universit\u00e9 de New York, et Christina Montgomery, responsable de la confidentialit\u00e9 et de la confiance chez IBM, pr\u00eatent serment avant de t\u00e9moigner lors d'une audition de la sous-commission judiciaire du S\u00e9nat sur la confidentialit\u00e9, la technologie et le droit concernant l'intelligence artificielle, le mardi 16 mai 2023, au Capitole, \u00e0 Washington. \u00a9 AP Photo\/Patrick Semansky\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/legrandcontinent.eu\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/\",\"name\":\"El Grand Continent\",\"description\":\"La escala pertinente\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/cdd782c93d4a9eda86ab19a8c01cdf5c\",\"name\":\"florent\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/0d38d78c90602daf39b309035cdac6bc?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/0d38d78c90602daf39b309035cdac6bc?s=96&d=mm&r=g\",\"caption\":\"florent\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager - El Grand Continent","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/","og_locale":"es_ES","og_type":"article","og_title":"\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager - El Grand Continent","og_description":"Este martes, tres de las figuras m\u00e1s destacadas de la inteligencia artificial audicionaron ante el Senado de Estados Unidos. El fundador de OpenAI pidi\u00f3 la creaci\u00f3n de una agencia que controle la IA a nivel mundial con base en el modelo de gobernanza de armas nucleares. Sin embargo, para el experto en control de armamento Robert Trager, no hay nada de obvio en poner esto en pr\u00e1ctica -le preguntamos sobre las principales conclusiones de las audiencias-.","og_url":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/","og_site_name":"El Grand Continent","article_published_time":"2023-05-19T07:52:00+00:00","article_modified_time":"2023-05-19T09:05:29+00:00","og_image":[{"width":2560,"height":1440,"url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2023\/05\/gc-elcontroldelaia-scaled.jpg","type":"image\/jpeg"}],"author":"florent","twitter_card":"summary_large_image","twitter_image":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2023\/05\/gc-elcontroldelaia-scaled.jpg","twitter_misc":{"Escrito por":"florent","Tiempo de lectura":"15 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/","url":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/","name":"\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager - El Grand Continent","isPartOf":{"@id":"https:\/\/legrandcontinent.eu\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#primaryimage"},"image":{"@id":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#primaryimage"},"thumbnailUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/SIPA_ap22788194_000001-scaled.jpg","datePublished":"2023-05-19T07:52:00+00:00","dateModified":"2023-05-19T09:05:29+00:00","author":{"@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/cdd782c93d4a9eda86ab19a8c01cdf5c"},"breadcrumb":{"@id":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#primaryimage","url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/SIPA_ap22788194_000001-scaled.jpg","contentUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2023\/05\/SIPA_ap22788194_000001-scaled.jpg","width":2560,"height":1707,"caption":"Sam Altman, PDG d'OpenAI, de droite, Gary Marcus, professeur \u00e9m\u00e9rite \u00e0 l'universit\u00e9 de New York, et Christina Montgomery, responsable de la confidentialit\u00e9 et de la confiance chez IBM, pr\u00eatent serment avant de t\u00e9moigner lors d'une audition de la sous-commission judiciaire du S\u00e9nat sur la confidentialit\u00e9, la technologie et le droit concernant l'intelligence artificielle, le mardi 16 mai 2023, au Capitole, \u00e0 Washington. \u00a9 AP Photo\/Patrick Semansky"},{"@type":"BreadcrumbList","@id":"https:\/\/legrandcontinent.eu\/es\/2023\/05\/19\/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/legrandcontinent.eu\/es\/"},{"@type":"ListItem","position":2,"name":"\u00bfC\u00f3mo controlar la proliferaci\u00f3n de la IA? una conversaci\u00f3n con Robert Trager"}]},{"@type":"WebSite","@id":"https:\/\/legrandcontinent.eu\/es\/#website","url":"https:\/\/legrandcontinent.eu\/es\/","name":"El Grand Continent","description":"La escala pertinente","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/cdd782c93d4a9eda86ab19a8c01cdf5c","name":"florent","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/0d38d78c90602daf39b309035cdac6bc?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/0d38d78c90602daf39b309035cdac6bc?s=96&d=mm&r=g","caption":"florent"}}]}},"term_position_data":null,"_links":{"self":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/17257","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/users\/1366"}],"replies":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/comments?post=17257"}],"version-history":[{"count":0,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/17257\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media\/17254"}],"wp:attachment":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media?parent=17257"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/categories?post=17257"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/tags?post=17257"},{"taxonomy":"staff","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/staff?post=17257"},{"taxonomy":"editorial_format","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/editorial_format?post=17257"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/serie?post=17257"},{"taxonomy":"audience","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/audience?post=17257"},{"taxonomy":"geo","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/geo?post=17257"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}