Tanto si nos lee habitualmente como si es la primera vez, descubra nuestras ofertas para profundizar y apoyar al Grand Continent suscribiéndose a la revista

Partir de lo común: alegato a favor de una stack mundial

El presidente francés Emmanuel Macron declaró recientemente que Europa está atravesando un momento existencial. No es una exageración. De hecho, el mundo entero se encuentra inmerso en él. Orientar —y, si es necesario, frenar— el desarrollo de la IA es hoy la cuestión más importante a la que nos enfrentamos colectivamente.

Con la inauguración hoy de la Cumbre sobre el Impacto de la IA en Nueva Delhi, los Estados, las empresas, la sociedad civil y todas las partes interesadas tienen la oportunidad de crear un nuevo movimiento no alineado en torno a los principios fundamentales de una IA abierta, resiliente y colaborativa. Inspirándose en el Movimiento de Países No Alineados, que buscaba mantenerse neutral durante la Guerra Fría en los años 50 y 60, esta iniciativa tendría como objetivo dar respuesta a la cuestión fundamental de nuestra soberanía tecnológica: ¿quién controla y ejerce influencia sobre la IA?

Antes de preguntarnos dónde, cuándo y cómo pueden los países ejercer su control y su poder de acción para crear y proporcionar una IA que sirva verdaderamente a los intereses humanos y públicos, hay que partir de un concepto clave: la stack.

La stack de la IA —que podríamos traducir, de forma muy impropia, como «apilamiento»— es la jerarquía de componentes necesarios para construir, ejecutar y desarrollar aplicaciones de IA.

Por lo general, se descompone de la siguiente manera: 

  • la capa de infraestructura: es decir, el hardware (por ejemplo, las GPU) y las plataformas en la nube en las que funciona (por ejemplo, proveedores como Amazon Web Services);
  • la capa de modelo: es decir, los propios modelos de lenguaje (como GPT-4 o Claude) y las herramientas que permiten explotarlos;
  • la capa de datos: es decir, el conjunto de información utilizada para entrenar y hacer funcionar los modelos; y, por último,
  • la capa de aplicación: es decir, el punto de unión entre el modelo y sus usuarios, ya sea un dispositivo de uso general o profesional.

Para casi todos los países, controlar verticalmente todas las capas de este apilamiento es imposible: más allá del coste de inversión extremadamente elevado, el acceso a la tecnología, los conocimientos técnicos y la energía sigue estando distribuido de forma desigual en todo el mundo. Un país siempre puede declarar que desea disponer soberanamente de sus propios semiconductores, centros de datos, modelos y aplicaciones. Sin embargo, en la práctica, los efectos de escala necesarios para lograr la constitución de una pila stack son disuasorios.

Sin embargo, los países y sus poblaciones desean una IA «soberana», singular, muy específica para su historia y su cultura, y finamente adaptada a las necesidades y los resultados de interés público, que son intrínsecamente contextuales.

¿Cómo lograrlo?

En primer lugar, hay que reconocer que las stacks «abiertas» son más inteligentes y resistentes. 

La apertura en el ámbito de la inteligencia artificial —definida aquí como modelos de IA de libre acceso para su uso, estudio, modificación y compartición, modelos que combinan elementos de ciencia abierta, innovación abierta, datos y fuentes abiertas— permite esta tercera vía. Las stacks abiertas permiten a las potencias medias —es decir, en realidad, a todas las potencias que tienen interés en ello— aprovechar el valor social, económico y político de la IA.

En segundo lugar, está claro que ningún país, excepto China y Estados Unidos, puede aspirar a disponer de una stack totalmente soberana, entendiendo por soberanía la acción y el control sobre todos los aspectos de dicha stack, las diferentes etapas de la producción de aplicaciones clave de IA.

Vamos aún más lejos: tal enfoque no es deseable. Y es mejor darse cuenta de ello ahora mismo y aceptarlo, en lugar de fingir lo contrario. Por lo tanto, el objetivo no debe ser una stack nacional y soberana, sino una stack global, abierta, resistente y adaptable a las necesidades únicas de cada país, y no alineada, es decir, independiente de cualquier control por parte de un país o actor tercero.

Francia, Alemania, Nigeria, India y Marruecos tienen, en materia de IA, mucho más en común que motivos de división: de hecho, todas las potencias medias tienen hoy más en común entre sí que con Estados Unidos o China.

Y es de este punto en común del que hay que partir.

Cem Sonel, Device V, 2023. © Cem Sonel

Otra definición de soberanía

La mayoría de los debates sobre la soberanía en materia de IA se basan en premisas erróneas. En realidad, cuanto más abierta es la stack —es decir, cuanto más diversificada—, más resistente es; cuanto menos abierta es, más depende de las decisiones de unos pocos actores y más frágil es la posición de un solo país frente a esta tecnología crucial.

Ser soberano no significa necesariamente ejercer un control o una propiedad total sobre una tecnología, sobre todo si se trata de objetivos retóricos que nunca pueden alcanzarse en la práctica. Toda soberanía implica resiliencia, compartir lo que se puede compartir y poseer lo que se puede poseer. El problema no es, en sí mismo, dar demasiada importancia a la dimensión «física» de la infraestructura de IA, mediante la construcción de centros de datos. Estos son una condición necesaria, pero no suficiente, para que prospere una IA de interés público. La forma en que se utilizan estas infraestructuras, quién las utiliza y la disponibilidad y accesibilidad de datos de alta calidad para alimentarlas son elementos igualmente importantes.

Pongamos un ejemplo muy concreto. Si algún día queremos encontrar una cura para el cáncer de mama —más allá de la mejora de las posibilidades de detección y prevención, donde se han logrado avances—, los modelos de IA deberán poder acceder, respetando la privacidad, a los datos sobre los resultados de los tratamientos de los pacientes y, probablemente, también a los datos genéticos de las personas.

Sin embargo, para que los pacientes acepten proporcionar esta información, deberán confiar en que el sistema respetará sus derechos y no utilizará estos datos en su contra en su vida cotidiana, por ejemplo, para aumentar sus tarifas de seguro, rebajar su calificación crediticia hipotecaria o comunicar esta información a sus empleadores. Pero estamos muy lejos de haber alcanzado esta etapa. Los centros de datos necesitarán precisamente estos datos, a menudo personales, contextuales y fiables. 

La búsqueda de la soberanía en materia de IA está motivada por un impulso legítimo: la conciencia común de los gobiernos y el sector privado de que la dependencia de los grandes actores tecnológicos extranjeros constituye una vulnerabilidad crítica. Pero la soberanía no se limita a eso, y la opinión pública lo ha entendido bien. 

Las poblaciones exigen a sus dirigentes cada vez más opciones y autonomía en materia de tecnologías que configuran la vida cotidiana y el trabajo. Para responder a estas necesidades, la soberanía en materia de IA debe ir más allá de la seguridad nacional y la competitividad, dando prioridad a esta demanda de tecnologías abiertas, respetuosas con la privacidad y que no nos encierren en un corsé, sino que nos doten de medios para actuar. Este enfoque permitirá a los usuarios cotidianos disfrutar de los mismos controles y autonomía sobre sus datos que los que las empresas tecnológicas ofrecen habitualmente a los usuarios profesionales.

Los detractores dirán que la soberanía es un obstáculo para la innovación y que esta crea barreras que dificultan el uso de la tecnología. Definir la soberanía como lo contrario de la innovación y la flexibilidad de uso es un truco seductor que se oye cada vez más. Se podría replicar que comprar productos a propietarios únicos, quedar atrapado en acuerdos con proveedores que no se pueden controlar y que podrían optar por no innovar, no es innovador: es monopolístico. Y los monopolios matan la innovación. 

¿Cómo tomar las decisiones correctas?

Los modelos de IA son productos básicos

Tras la rápida evolución de los últimos años, los modelos de IA están a punto de convertirse en productos básicos.

En un ámbito funcional iso, ya sea OpenAI, Anthropic o cualquier otro actor del sector, se ha impuesto una cierta uniformidad de calidad en los últimos doce meses.

Si bien existen diferencias importantes en la frontera, para la mayoría de las aplicaciones específicas y contextuales de interés público, el modelo es menos importante que la capa de producto: la diferencia se encuentra en la capa de aplicación, cuando se desarrollan productos destinados a empresas y al público en general. Por el momento, hay que reconocer que el valor reside en estos productos y servicios. Para tener éxito y aportar mejoras tangibles en la vida de las personas, todos los países deberán tener acceso a conjuntos de datos nacionales e internacionales pertinentes, accesibles y de alta calidad, así como a soluciones listas para usar en una plataforma compartida, global y abierta. 

Más allá de la potencia de cálculo: datos, fuentes abiertas y modelos más pequeños

Las leyes de escala —que postulan que cuanto más grandes son los modelos, mayor debe ser la potencia de cálculo y más datos se necesitan, y por lo tanto más potente será el modelo— han convertido la potencia de cálculo en una obsesión. 

Sin embargo, desde hace unos meses, se plantea la cuestión de si este principio —en virtud del cual se han podido realizar inversiones colosales— sigue siendo tan relevante hoy 1.

Para la mayoría de las aplicaciones contextuales, lo que importa es, por supuesto, una cierta potencia de cálculo, pero también la inversión en datos y la inversión en código abierto 2.

La innovación en el ámbito de los datos

En materia de potencia de cálculo, la innovación ha sido asombrosa en los últimos diez años. La relación precio/rendimiento de las GPU se ha duplicado aproximadamente cada dos años durante la última década.

Por el contrario, la innovación en materia de datos —cómo acceder, poner a disposición y utilizar los datos, incluidos los datos personales, de una manera que la gente considere segura y fiable— se ha estancado en gran medida.

Este sector necesita ahora inversiones colosales. Los expertos debaten sobre enfoques colaborativos para el intercambio de datos, ya sean trusts de datos u otras formas de gestión 3, pero son pocos los actores que han alcanzado la escala necesaria para tener un impacto real. Por lo tanto, son indispensables inversiones tanto a nivel técnico —en particular en la cuestión clave de la separación entre los datos y el modelo de lenguaje— como a nivel de gobernanza —cómo garantizar, en particular, que el intercambio de datos de grupo inspire confianza a quienes los comparten—. 

Cem Sonel, First Contact, 2019. © Cem Sonel

La inversión en código abierto

Lo mismo ocurre con el código abierto.

A pesar de todo lo que se ha dicho sobre la importancia crucial del código abierto para la stack y el ecosistema de la IA, el sector adolece de una falta masiva de inversiones.

Al igual que con el software abierto, el desarrollo de la IA de código abierto de alto nivel será financiado en primer lugar por las grandes empresas usuarias, dejando de lado un nivel inferior de dependencias críticas, casi totalmente respaldado por voluntarios. Algunos grupos destacan, como ROOST 4, una organización sin ánimo de lucro que proporciona herramientas abiertas de confianza y seguridad, pero siguen siendo la excepción que confirma la regla. Por lo tanto, la inversión en este ámbito es esencial.

Romper el ídolo de la stack

Para las potencias medias, la soberanía no consiste en recrear toda la cadena de valor de la IA en su propio país. En realidad, la soberanía debe concebirse en un eje que va de la fragilidad a la resiliencia. Cuanto más abierta es la stack —es decir, más diversificada—, más resiliente es; cuanto menos abierta es, más depende de las decisiones de unos pocos actores y más frágil es la posición de un país con respecto a esta tecnología crucial.

Se trata de trabajar juntos e identificar qué elementos constitutivos de la pila de IA —el hardware, la infraestructura, el modelo, las aplicaciones— deben y pueden ser abiertos 5, cuáles requieren cooperación internacional y cómo, cuáles deben desarrollarse realmente en el país y qué se necesita para que ese desarrollo nacional tenga éxito.

Para ello, los Estados deben asumir su papel de modeladores del mercado identificando de forma proactiva los elementos de la pila de IA que deben y pueden ser soberanos de forma realista, aquellos para los que es aceptable o quizás temporalmente inevitable que no lo sean —por ejemplo, cuando el riesgo de depender de proveedores extranjeros para los servicios digitales es en realidad menor que el coste de reducir esa dependencia— y aquellos que deberían ser de código abierto. En algunos casos, el Estado puede y debe ejercer su soberanía abriendo el mercado, como ha hecho el Reino Unido con los datos abiertos y la banca abierta 6, y no cerrándolo. Desarrollar una oferta comercial global para una stack soberana, de modo que todo el mundo pueda tener acceso a las herramientas y los datos necesarios para crear nuevos modelos, es la tarea que le espera a la próxima cumbre sobre el impacto de la IA.

Cem Sonel, Device VI, 2023. © Cem Sonel

Geopolítica de la IA: hacia un no alineamiento

Para que esto suceda, el campo de la IA necesita tres cosas —y la buena noticia es que ya tenemos dos—.

En primer lugar, necesitamos plataformas que fomenten estos intercambios internacionales, como Current AI 7, lanzada hace un año en la Cumbre Acción IA en París, que reúne a la comunidad de desarrolladores, el sector privado, los gobiernos y las fundaciones filantrópicas con el fin de construir una visión colectiva, colaborativa e independiente de la IA. Esto requiere recursos y talentos a la altura para desarrollar una tecnología que sirva al interés público.

En segundo lugar, necesitamos herramientas e inversiones en código abierto e innovación en materia de datos para impulsar este reajuste. Una vez más, ya existen numerosas organizaciones que se centran originalmente en el software de código abierto y que pueden aportar su apoyo.

Por último, en tercer lugar, los países deberán identificar nuevas formas de cooperación internacional que, en lugar de alimentar la rivalidad y la competencia, contribuyan a ayudar a las potencias medias a unirse para construir una stack resistente, abierta y no alineada. Nuestro uso geopolítico del término «alineamiento» tiene un significado diferente al del término «alineamiento de la IA»: una IA «alineada» es una terminología propia del movimiento relacionado con la seguridad de la IA, una tecnología en sintonía con lo que sus diseñadores quieren que haga. Creemos que una IA verdaderamente contextual, que produzca mejoras tangibles en la vida de las personas, sólo puede lograrse saliendo de la órbita monopolística de los gigantes tecnológicos, ya sean chinos o estadounidenses, y abandonando el mito de una stack soberana completamente nacional. En materia de IA, para producir una IA de interés general con resultados y fines al servicio del ser humano, es necesario un no alineamiento geopolítico.

En resumen, se trata de demostrar —y no sólo de decir— que la IA puede ser una nueva herramienta para acercar a los países en lugar de dividirlos.

En este sentido, la serie de cumbres sobre IA tiene un papel crucial que desempeñar. Al pasar el relevo de un año a otro, apoyándose unos en otros y contribuyendo a la coherencia, en lugar de a la fragmentación de la gobernanza y las infraestructuras mundiales en materia de IA, está surgiendo una alianza.

En el ámbito de esta tecnología, se trata de una respuesta al llamamiento de Mark Carney en Davos para crear una alianza de potencias medias

No se trata de no elegir bando, sino de crear oportunidades y medios de acción para que puedan florecer numerosas asociaciones mutuamente beneficiosas. La tercera vía actual en materia de IA va más allá del tradicional no alineamiento: busca crear múltiples vías y conexiones para construir una IA abierta, resiliente y que rechace cualquier forma de dominio tecnológico bajo el yugo de los grandes monopolios.