Este viernes reanudamos nuestra serie «Poderes de la IA». Al igual que el año pasado, les propondremos estudios y textos esenciales para profundizar con inteligencia en los innumerables ámbitos que abre la IA: desde la tecnología actual hasta la anticipación pasando por la geopolítica.
Pueden encontrar aquí los episodios anteriores de la serie.
Suscríbanse para recibir todos nuestros contenidos en tiempo real.
Estados Unidos
1 – Aunar la visión estratégica y la gobernanza de la IA
En Estados Unidos, los debates sobre la regulación de la IA se estructuran en torno a dos dimensiones destinadas a converger.
- Por un lado, la gobernanza de la IA aborda cuestiones de gobernanza y aplicaciones públicas (propiedad intelectual, certificación, transparencia y evaluación).
- Por otro lado, las implicaciones para la seguridad nacional posicionan a Estados Unidos frente a sus rivales estratégicos (IA militar, ventaja estratégica y dominio tecnológico).
A diferencia de la ley europea sobre IA, que excluye de su ámbito de aplicación las aplicaciones militares en las que Europa no tiene experiencia, la competencia geopolítica impulsa el desarrollo tecnológico americano y chino. Frente a China, que ha teorizado una doctrina de fusión militar-civil (las dimensiones política, económica y de seguridad deben integrarse en una visión coherente), el senador demócrata Chuck Schumer abogó por un «salto hacia adelante para Estados Unidos», en particular, en la batalla por normalizar la IA generativa. Estados Unidos debe «tomar la iniciativa y definir las reglas que rigen una tecnología tan transformadora, no permitir que China tome la delantera en la innovación ni que defina las reglas del juego». En términos muy concretos, si la administración americana desea restringir el acceso a los sistemas más avanzados por motivos de seguridad nacional, debe definir qué capacidades se encuentran en la frontera de la innovación y establecer un mecanismo para evaluarlas. A partir de ahí, el debate estratégico se fusionó con el de la gobernanza de la IA.
2 – La contención americana ante el reto de la IA generativa
La nueva estrategia de contención americana frente a China se ve desafiada por el desarrollo dinámico de sistemas de IA de uso cada vez más general. Aclarada hace un año por Jake Sullivan, la doctrina consiste en que Estados Unidos vaya lo más por delante posible de China: «En el pasado, […] sólo necesitábamos ir una o dos generaciones por delante, pero ése no es el entorno estratégico en el que nos encontramos hoy. Dada la naturaleza fundamental de ciertas tecnologías, como la lógica avanzada y los chips de memoria, necesitamos mantener una ventaja tan grande como sea posible».
En abril, la Secretaria del Tesoro, Janet Yellen, añadió que Estados Unidos se concentraba en cuestiones de seguridad nacional, no en obtener una ventaja competitiva sobre Pekín. Sin embargo, la aplicación práctica de esta estrategia choca con la realidad de la tecnología y plantea un gran desafío para Washington. En agosto, la orden ejecutiva firmada por Joe Biden para imponer restricciones sobre la inversión en China pretendía limitar el capital americano en empresas del complejo militar-industrial chino. En la práctica, la línea divisoria entre el desarrollo para uso civil o militar es cada vez más difusa debido a una dinámica tecnológica que está unificando los enfoques. La naturaleza dual de la IA dificulta la identificación de las empresas que desarrollan IA para uso estrictamente militar. Incluso más allá de large language models como ChatGPT 1, que ilustra a la perfección este doble uso, la mayoría de los sistemas de IA están involucrados en esto: los mismos tipos de sistemas que conducen autos podrían conducir tanques; los sistemas de IA utilizados para el descubrimiento de fármacos podrían reutilizarse para crear nuevas armas bioquímicas 2; ciertos algoritmos del programa Arta GIS, utilizado por el ejército ucraniano para identificar la unidad de artillería mejor situada para enfrentar a un objetivo, son similares a los algoritmos de Uber para conectar usuarios y conductores.
En la práctica, las empresas de IA que le suministran al ejército chino podrían tener acceso a equipos, datos o financiamiento americanos. Las normas propuestas por el Tesoro americano (encargado de especificar el alcance y los requisitos del decreto) son prudentes y, por el momento, sólo afectan la IA desarrollada explícitamente para aplicaciones militares, de ciberseguridad, de inteligencia o de vigilancia 3.
3 – Formación antes que regulación: el foro sobre seguridad de la IA en el Congreso de EEUU
La IA generativa ha irrumpido con fuerza en Washington, pero la asimetría de información entre responsables públicos y la industria no ha dejado de crecer en los últimos tiempos. Para el senador Ted Cruz, la observación que se hizo a principios de verano era clara: «El Congreso no sabe lo que hace cuando se trata de regular la IA». Scott Schumer anunció una serie de nueve grupos de reflexión bipartidistas para ayudar a los senadores a informarse sobre las complejas cuestiones que rodean la IA. El enfoque pretende ser multipartito para permitir intercambios con los responsables de gigantes tecnológicos americanos, representantes de la sociedad civil e investigadores independientes. A diferencia de las audiencias públicas más tradicionales, la idea de estos foros es permitirles a los senadores formular preguntas básicas y familiarizarse con el tema a puerta cerrada. Esta serie de foros podría conducir a algunas victorias rápidas, pero nada comparado con la Ley de AI europea en su ambición. Podría contribuir a hacer avanzar los debates para aclarar la posición de Estados Unidos sobre el modelo de regulación que desea adoptar, requisito previo para cualquier diálogo o negociación internacional sobre el tema.
Europa
4 – La normativa europea y el reto de la IA generativa
El periodo reciente ha proporcionado una ilustración emblemática de la dificultad de una regulación muy horizontal como la Ley de IA para adaptarse a un campo en rápida evolución. Introducido por la Comisión Europea, en 2019-2020, el proyecto inicial de regulación de la IA (Ley de IA) se vio superado por la aparición de la IA generativa a principios de 2023. Los grandes modelos de propósito general, como los grandes modelos lingüísticos, que llevan años desarrollándose en los laboratorios de investigación, no pueden encajar, por definición, en un marco basado en niveles de riesgo en función del caso de uso 4. Salvado por su largo proceso de reglamentación, el Parlamento Europeo pudo aprobar, a toda prisa, una versión modificada para incorporar cambios de última hora que suscitaron la desaprobación de gran parte del ecosistema 5. La filosofía general del texto, basada en el riesgo, se ve, ahora, cuestionada por normas específicas y uniformes para los sistemas de IA de uso general, muy restrictivas e, incluso, inaplicables para los actores de código abierto.
En lugar de un enfoque normativo «de talla única» que impondría, instintivamente, una carga normativa para todos los modelos fundacionales, agentes del ecosistema han propuesto adoptar un enfoque más gradual 6: distinguir entre un conjunto de obligaciones básicas que deberían aplicarse para todos los modelos fundacionales puestos en servicio y limitar, al mismo tiempo, las obligaciones más exigentes a un subconjunto de modelos empresariales en la frontera tecnológica (descritos mediante criterios que podrían ser revisados periódicamente por la UE). Además del caso específico de la IA generativa que surgió durante la examinación del texto, es probable que las próximas oleadas de innovación perturben aún más la Ley de IA, ya que sólo se aplicará en su totalidad a partir de 2026, momento en el que los modelos de IA habrán avanzado considerablemente.
5 – Francia en la carrera por la IA generativa
Desde el plan Villani de 2018, la estrategia de Francia en materia de IA se ha basado en preocupaciones geopolíticas, a diferencia de las de la mayoría de los demás países europeos. El informe Villani ya decía:
Francia y Europa deben hacer que se oiga su voz y esforzarse por seguir siendo independientes, pero la competencia es feroz: Estados Unidos y China están a la vanguardia de esta tecnología y sus inversiones superan, por mucho, las realizadas en Europa […] porque, en muchos aspectos, Francia y Europa ya pueden considerarse colonias digitales.
Cinco años después, algunos de los principales actores del ecosistema francés aspiran a convertirse en líderes de la IA y a hacer de esta tecnología una palanca para la soberanía nacional y europea. La start-up parisina Mistral, dirigida por antiguos ingenieros de DeepMind y Meta y que ha recaudado 105 millones de euros, señala, en una nota, que Europa «aún no ha sido capaz de establecer un competidor serio» en la construcción de modelos fundacionales (en particular, los grandes modelos lingüísticos que la start-up pretende desarrollar) y añade que «se trata de una cuestión geopolítica de primer orden dado el poder (y los peligros) de esta nueva tecnología».
Al mismo tiempo, Poolside, una start-up cofundada por Jason Warner, exdirector de tecnología de Github, anunció que se trasladaba a París tras recaudar 126 millones de dólares. Sin embargo, hay que señalar que muchas de estas empresas de IA están respaldadas por fondos de capital de riesgo americanos. Las inversiones anunciadas en el foro Vivatech, en junio de 2023, por el presidente Emmanuel Macron (supercomputadora, plan de formación, fondo semilla para startups de IA generativa, procomún digital para la IA generativa, etcétera) forman parte del vasto plan France 2030, cuya ambición declarada es, también, apoyar la soberanía tecnológica y digital. Este reposicionamiento también se había iniciado en el plan estratégico del INRIA (o «contrato de objetivos y resultados con el Estado para 2019-2023»), que define la misión principal del instituto. Se proponía hacer del INRIA «el brazo armado del Estado para la construcción de la soberanía digital de una nación comprometida con la dinámica europea, a través de la investigación».
Cuando se trata de atraer talento internacional, todavía hay mucho margen de mejora: un estudio reciente de Sequoia reveló que Londres tiene casi cuatro veces más talento en IA (12.29 % del talento disponible en Europa) que París (3.81 %). Es más, OpenAI eligió la capital británica como sede de su primera oficina en Europa. En cuanto a TSMC, la empresa taiwanesa, líder mundial en semiconductores esenciales para el desarrollo de la IA, eligió Alemania como ubicación para su primera fábrica en Europa.
[Leer más: «¿Puede Europa entrar en la carrera de la IA?»]
China
6 – La economía socialista de mercado y el reto de la IA generativa
La naturaleza estratégica de la IA generativa está cambiando el enfoque tradicional del gobierno chino en materia de financiamiento de la investigación, ya que su objetivo es convertirse en el líder mundial en IA para 2030. Históricamente, el método de financiamiento ha consistido en conceder ayudas para la investigación de forma muy vertical a través de la Natural Science Foundation of China, el organismo estatal responsable de planificar y administrar las ayudas para la investigación básica y aplicada «de acuerdo con la economía socialista de mercado» 7. El desarrollo de la IA generativa, en su mayor parte, dirigida por el sector privado e intensiva en capital, ha llevado a China a diversificar sus métodos de financiamiento haciendo un mayor uso de los recursos de la industria para formar asociaciones público-privadas y académicas dentro de los laboratorios de investigación: las entidades patrocinadas por el gobierno y los laboratorios de investigación han desempeñado un papel importante en el reciente desarrollo de la IA en China. La misión de la Beijing Academy of Artificial Intelligence (BAAI), por ejemplo, es «publicar modelos lingüísticos bajo liderazgo chino».
7 – Alineación de la IA con la doctrina del Partido Comunista de China
A diferencia del enfoque muy horizontal de la Ley de IA europea, China ha adoptado un enfoque vertical de la regulación de la IA integrando textos que condicionan ámbitos o tipos de algoritmos específicos (regulación de las redes sociales, sistemas de recomendación, IA generativa, etcétera). Aunque este enfoque permite ser específico, exige una coordinación considerable entre los distintos organismos y actualizaciones periódicas. Tras un primer texto que regulaba la generación de contenidos sintéticos, el nuevo texto, presentado en abril de 2023, pretende situar a China en la batalla por la normalización de la IA generativa. Algunas cláusulas, como la que obliga a los proveedores a «garantizar la veracidad, exactitud, objetividad y diversidad de los datos», aún son bastante vagas y, técnicamente, inaplicables. El artículo 4 del nuevo texto establece, explícitamente, que los contenidos generados por IA deben «ajustarse a los valores fundamentales del socialismo y no contener elementos de subversión contra el poder del Estado». Esto podría frenar a los grupos chinos a la hora de crear los enormes conjuntos de datos que necesitan para seguir el ritmo de sus competidores internacionales.
Reino Unido
8 – Cumbre sobre la seguridad de la IA
El primer ministro británico anunció la celebración, en otoño, de una cumbre internacional sobre seguridad de la inteligencia artificial. La cumbre se celebrará en Bletchley Park, el emblemático lugar donde se descifraron los códigos Enigma durante la Segunda Guerra Mundial. Su objetivo declarado es situar al Reino Unido en el centro de los debates sobre la regulación de la industria de la IA y como posible punto de equilibrio entre Estados Unidos y China (cuya invitación a la cumbre ha sido objeto de intenso debate). Se ve a sí misma como una alternativa al enfoque autoritario unilateral de la Unión Europea.
Gigantes de la IA generativa como Google Deepmind, OpenAI y Anthropic van a participar estrechamente en el programa. Su propuesta de «darles acceso prioritario a sus modelos para la investigación de la seguridad de la IA» es una condición necesaria para el desarrollo de herramientas de evaluación y de gestión de riesgos, pero no es suficiente. Quedan por definir las disposiciones técnicas y el marco de gobernanza de tal apertura para garantizar que una iniciativa de este tipo no dé lugar a una forma de captura reglamentaria. Aunque esta colaboración es esencial, la agenda de investigación, la examinación de los distintos componentes de la IA o la priorización de temas no pueden delegarse en la industria. Como señala Marietje Schaake, «desde la industria del tabaco hasta la del petróleo, los responsables políticos y la sociedad han aprendido, por las malas, que las empresas, rara vez, están en condiciones de establecer normativas desinteresadas; no son independientes ni capaces de crear controles y equilibrios contra sus propios intereses» 8.
A pesar de su deseo de erigirse como líder en materia de gestión de riesgos y de seguridad de la IA, el gobierno británico está enviando señales contradictorias. Su reescritura de una versión aligerada del RGPD europeo (Data Protection and Digital Information Bill) ha rebajado el nivel de protección de los datos de los usuarios (al reducir las protecciones cuando son objeto de decisiones automatizadas con un impacto significativo y/o legal, por ejemplo). El Instituto Ada Lovelace le recomienda al Reino Unido, en una nota, que «reconsidere los elementos del proyecto de ley de reforma de protección de datos que puedan comprometer el desarrollo, despliegue y uso seguros de la IA» 9.
Mundo
9 – La IA generativa en el menú de los foros intergubernamentales
En mayo, el G7 puso en marcha el proceso de Hiroshima para regular la IA generativa. Los debates transatlánticos entre la UE y Estados Unidos están especialmente animados por la cuestión del calendario: ¿hay que actuar de inmediato? Aunque la UE está trabajando en la Ley de IA, tardará otros dos años (seis meses de negociaciones interinstitucionales y votaciones en el trílogo, seguidos de un periodo de transición para que empresas y gobiernos se adapten). Dados los riesgos potenciales de la IA y la necesidad económica de hacer converger los marcos reguladores, los gobiernos del G7 están estudiando el camino a seguir. En agosto, los BRICS pusieron en marcha un grupo de estudio sobre IA como parte de un movimiento estratégico anunciado por el presidente Xi Jinping. Aunque, en su discurso de Johannesburgo, hizo hincapié en la convergencia ideológica, la IA generativa también se considera un medio para proyectar poder cultural y valores 10.
En junio, el Secretario General de la ONU, Antonio Guterres, respaldó la propuesta de crear un organismo internacional de supervisión de la IA similar al Organismo Internacional de Energía Atómica (OIEA). No obstante, hay dos diferencias clave entre la analogía nuclear y la IA: la primera es que la gobernanza mundial de la IA necesitaría un marco que abarcara no sólo los países que no se encuentran entre las pocas naciones líderes en IA, sino que, también, enmarcara lo que los países poderosos en IA se hacen entre sí. La segunda diferencia es la desalineación de los Estados líderes en IA. Durante la Guerra Fría, los países del P5 de la ONU tenían intereses muy similares con respecto a las armas nucleares. Dentro del OIEA, podían pensar en lo que querían para el resto del mundo. Hoy, no ocurre lo mismo con el OIEA. Por último, para ser eficaz, un órgano de gobernanza mundial de la IA se enfrentaría a una serie de retos, algunos de los cuales se señalaban en un artículo reciente de Yo Shavit 11: aunque la IA desempeña un importante papel geopolítico, podría llegar a ser imprescindible que (1) «los gobiernos puedan hacer cumplir las normas sobre el desarrollo de la IA dentro de sus fronteras» y que (2) «los países puedan comprobar mutuamente el cumplimiento de posibles futuros acuerdos internacionales». Verificar que ningún actor supere un umbral de potencia de cálculo que violara las normas acordadas es complejo y podría toparse con los recientes avances tecnológicos que hacen posible impulsar de forma descentralizada un modelo de IA cuando las máquinas personales están, simplemente, conectadas a Internet. En última instancia, esto podría implicar la vigilancia de las computadoras personales.
[Leer más: una introducción en 10 puntos clave a nuestra serie Poderes de la IA]
10 – La IA de código abierto, clave en la competencia tecnológica mundial
La interpretación y el lugar que le den al código abierto las principales regiones de IA conformarán el futuro equilibrio de poder en la gobernanza mundial de la IA. La IA de código abierto es una ventaja estratégica para difundir y compartir modelos de forma eficaz. Actualmente, la investigación china sigue dependiendo, en gran medida, del código abierto americano, según los datos proporcionados por el software Github 12. El número de paquetes de software de código abierto desarrollados por americanos y apreciados por los investigadores de ambos países (pueden votar dando una puntuación de estrellas, como en Amazon) es veinte veces superior al número de paquetes de software de código abierto desarrollados por investigadores chinos. China quiere emanciparse de la plataforma americana y seguir su propio programa de código abierto. Lo ve como un medio de ejercer influencia sobre otros países emergentes.
En Europa, los desarrolladores de IA de código abierto han denunciado una restricción normativa excesivamente pesada en la Ley de IA que podría obstaculizar, significativamente, la innovación y una posición del Parlamento Europeo que «prohíbe de facto la aparición de [grandes modelos lingüísticos] europeos» 13. En Francia, el presidente Emmanuel Macron pidió que las normas de la UE «no impidan el crecimiento de la tecnología». Las virtudes del código abierto son numerosas. Desde el punto de vista científico, la publicación de código abierto ha sido, históricamente, clave para la mayoría de los grandes avances en IA. Desde el punto de vista económico, el código abierto ayuda a reducir las asimetrías entre los agentes: en una industria muy concentrada en la que muy pocos agentes son capaces de reunir los recursos necesarios para impulsar los modelos más grandes, el desarrollo del código abierto puede fomentar la competencia y la innovación de nuevos participantes. Para el regulador, el código abierto conduce, a menudo, a una mayor transparencia y comprensión porque permite implicar a más partes interesadas, aumentar la capacidad de respuesta ante riesgos y acelerar los ciclos de iteración en la construcción de herramientas y tecnologías de IA más responsables.
Notas al pie
- Katrina Manson, « The US Military Is Taking Generative AI Out for a Spin », Bloomberg, 5 de julio de 2023.
- Urbina, F., Lentzos, F., Invernizzi, C. et al. « Dual use of artificial-intelligence-powered drug discovery. » Nat Mach Intell 4, 189–191 (2022).
- Office of Investment Security, Department of the Treasury, « Provisions Pertaining to U.S. Investments in Certain National Security Technologies and Products in Countries of Concern », 2023.
- https://arxiv.org/abs/1706.03762
- Javier Espinoza, « European companies sound alarm over draft AI law », Financial Times, 30 de junio de 2023.
- « Supporting Open Source and Open Science in the EU AI Act », Open Future, juillet 2023. Ryan Heath, Ashley Gold, « AI leaders : Please regulate us », Axios, 17 de mayo de 2023.
- « National Natural Science Foundation of China 2022 Annual Budget », une traduction du Center for Security and Emerging Technology.
- Marietje Schaake, « We need to keep CEOs away from AI regulation », Financial Times, 4 de junio de 2023.
- Matt Davies, Michael Birtwistle, « Policy briefing : Regulating AI in the UK », Ada Lovelace Institute, 18 de julio de 2023.
- https://arxiv.org/pdf/2203.07785
- https://arxiv.org/abs/2303.11341
- https://arxiv.org/pdf/2009.09071
- Javier Espinoza, « European companies sound alarm over draft AI law », Financial Times, 30 de junio de 2023.