La inteligencia artificial (IA) ha entrado en una nueva era caracterizada por cuatro tendencias: una homogeneización de sus técnicas, una aceleración masiva de su adopción, una creciente asimetría de la información entre los sectores privado y público y una cristalización de las tensiones geopolíticas.

Homogeneización y foundation models

La historia de la IA es reciente (posterior a 1950) pero ya es rica en avances tecnológicos que han transformado significativamente sus aplicaciones comerciales. La más reciente corresponde a la aparición de modelos de IA de tamaño gigantesco que permiten mejorar y sistematizar el desarrollo de algoritmos predictivos. El campo del procesamiento automático del lenguaje ofrece un ejemplo especialmente ilustrativo de este fenómeno. Antes de 2018, cualquier tarea específica (predicción de sentimientos, detección de noticias falsas…) requería un modelo de IA específico, cuyo desarrollo era especialmente caro. La introducción del modelo BERT (Bidirectional Transformers for Language Understanding) en 2018 cambió el juego: permite digerir la información textual y transformarla en una forma más sintética, directamente explotable por los algoritmos tradicionales de aprendizaje automático. El nuevo paradigma de la IA parte, pues, de una homogeneización de las técnicas de aprendizaje, a través de un tratamiento de la información en dos etapas: extracción-síntesis primero, y calibración para una tarea específica después. La fase de extracción-síntesis, que es muy compleja, es posible precisamente gracias a la introducción de foundation models según la terminología de la Universidad de Stanford, de la que forma parte el BERT. La ampliación de estos foundation models ofrece muchas promesas, pero va acompañada de una nueva forma de riesgo sistémico, ya que sus fallos inherentes se reflejan en los numerosos algoritmos que han engendrado. Este fenómeno de intermediación hace más complejo para los responsables políticos la medición del impacto social y económico de la IA.

El nuevo paradigma de la IA procede, pues, de una homogeneización de las técnicas de aprendizaje, a través de un tratamiento de la información en dos etapas: primero la extracción-síntesis y luego la calibración para una tarea específica.

VICTOR STORCHAN y NATHAN NOIRY

Una adopción masiva que está acelerando

La inteligencia artificial está pasando del laboratorio al uso comercial a un ritmo sin precedentes. Su adopción es masiva: según la empresa californiana OpenAI, uno de los líderes mundiales del sector, los modelos GPT-3 (generación de texto), Dall-E (generación de imágenes) y GitHub Copilot (generación de código informático) han superado cada uno de ellos la barrera del millón de usuarios. Además, estamos asistiendo a una impresionante aceleración de esta adopción: mientras que el GPT-3, introducido en 2020, tardó dos años en alcanzar la marca del millón de usuarios, el Dall-E 2, introducido en 2022, solo tardó dos meses en alcanzar este objetivo. Estos cambios bruscos obligan a los responsables políticos a reaccionar con un sentido de urgencia cada vez mayor.

Una asimetría de información entre el sector privado y el sector público

Los recursos específicos necesarios para desarrollar nuevos sistemas de IA han llevado a una preeminencia de la investigación privada sobre la pública. Por ejemplo, el desarrollo de modelos fundacionales requiere no sólo la recopilación de conjuntos de datos a muy gran escala, sino también recursos computacionales exponenciales que pueden costar decenas de millones de dólares, recursos que a menudo son inaccesibles para el mundo académico. El resultado es una considerable asimetría de información entre las universidades públicas y los centros de investigación privados, con un pernicioso efecto de retroalimentación: al ser los únicos capaces de producir los modelos más eficientes, los centros privados atraen a los mejores talentos y corren solos hacia la cima. En particular, la brecha entre la realidad de la tecnología desplegada en la industria y la percepción de los responsables públicos ha aumentado considerablemente, con el riesgo de centrar el debate en quimeras tecnológicas que distraen de los verdaderos problemas sociales que plantea la IA. Además, las empresas privadas mantienen una vaguedad tecnológica sobre las capacidades reales de los modelos que desarrollan: las publicaciones científicas rigurosas suelen rivalizar con comunicados de prensa rotundamente opacos desde el punto de vista científico. El investigador canadiense Gary Marcus ha introducido el neologismo demoware para describir este fenómeno de la editorialización de la IA, en el que la ilusión de una presentación simplificada enmascara a veces la falta de madurez de una tecnología. Para reequilibrar la balanza de poder, la Universidad de Stanford ha propuesto la idea de una nube de investigación nacional1 que proporcione recursos adecuados para la investigación pública.

La brecha entre la realidad de la tecnología desplegada en la industria y la percepción de los responsables públicos ha crecido considerablemente, con el riesgo de centrar el debate en quimeras tecnológicas que distraen de los verdaderos problemas sociales que plantea la IA.

VICTOR STORCHAN y NATHAN NOIRy

La creciente geopolitización de la IA

En la escena internacional, las tensiones geopolíticas están cristalizándose. En primer lugar, entre potencias, donde se ilustran en la práctica los conceptos de tecno-soberanismo y tecno-nacionalismo. Cuando la empresa Naver, competidora coreana de Google, anunció que podía replicar modelos de generación de textos tan eficientes como los de sus competidores estadounidenses, en el comunicado de prensa se afirmaba que «a diferencia del modelo GPT-3 centrado en el inglés, esto significa también asegurar la soberanía de la IA desarrollando un modelo lingüístico optimizado para el coreano». El ejemplo chino también es emblemático de este nuevo tecno-nacionalismo: el Ministerio de Ciencia y Tecnología ha elaborado una lista de empresas destinadas a formar un «equipo nacional para la IA» capaz de proyectar el poder chino. Además, está surgiendo una nueva forma de diplomacia entre los Estados y las plataformas tecnológicas. Por un lado, los Estados están nombrando embajadores digitales en los GAFAs, mientras que, por otro, las plataformas tecnológicas están reclutando expertos para anticipar las reacciones geopolíticas que sus sistemas de IA podrían provocar2. Este aumento de la geopolitización de la IA fue percibido ya en julio de 2021 por Antony Blinken: «las democracias deben pasar juntas la prueba tecnológica» y «la diplomacia, […] tiene un gran papel que desempeñar en este sentido». En Francia, Emmanuel Macron subrayó recientemente la necesidad de «combinar lo que significa ser diplomático con un conocimiento extremadamente especializado de la tecnología». 

Las cuatro tendencias de la nueva era en la que ha entrado la IA hacen que sea una tecnología difícil de comprender. Ante la creciente vaguedad tecnológica, los Estados se organizan para tomar la medida de las transformaciones en curso, con el fin de detectar las oportunidades y las vulnerabilidades de la IA, un gran reto para la próxima década.

Ante la creciente vaguedad tecnológica, los Estados se organizan para tomar la medida de las transformaciones en curso, con el fin de detectar las oportunidades y las vulnerabilidades de la IA, un gran reto para la próxima década.

VICTOR STORCHAN y NATHAN NOIRy

Iniciativas multilaterales para medir las repercusiones a gran escala de la IA: un modo de gobernanza que hay que repensar

Los Estados se están organizando en un marco plurilateral, incluyendo a la industria y la sociedad civil, para evaluar y medir mejor los impactos macroeconómicos de la IA (futuro del trabajo, impacto económico, desigualdades, cambios industriales, etc.). Sin embargo, iniciativas como la Asociación Mundial para la Inteligencia Artificial (GPIA) siguen siendo muy académicas: informes técnicos sobre el estado de avance de la IA o las mejores prácticas entre los países, los productos elaborados elaboran principios generales sin proporcionar, sin embargo, hojas de ruta accionables. Los grupos de trabajo están perdidos, ya que no tienen capacidad de ejecución técnica directa para, entre otras cosas, priorizar los recursos o planificar la financiación a largo plazo. Para estar más directamente en contacto con los últimos avances de la IA en las empresas y poner en marcha estrategias más operativas con múltiples partes interesadas, es necesario replantear el modo de gobernanza de estas asociaciones. La prioridad es diversificar los conocimientos técnicos y desarrollar herramientas de evaluación capaces de plantear puntos concretos de vigilancia a los responsables públicos.

Regulación de los usos a nivel del sistema de IA y de los actores tecnológicos

El desarrollo de una normativa adaptada a los sistemas de IA se hace imprescindible: es necesario tener en cuenta las especificidades tecnológicas del campo y construir nuevos marcos legislativos adaptados, como la Ley de IA que está negociando la Comisión Europea. Lo más importante es que cualquier cuerpo legislativo relacionado con la IA debe basarse en el desarrollo de herramientas adecuadas para garantizar la auditoría de los sistemas existentes. En este sentido, el National Institute of Standards and Technology (NIST) ya incorpora auditorías de los sistemas de reconocimiento facial, no sólo para comprobar su rendimiento, sino también para detectar sesgos demográficos (por ejemplo, contra las mujeres y las personas racializadas). Para garantizar una base común de comparación, el NIST dispone de una base de datos etiquetada a la que no pueden acceder las empresas auditadas. El desarrollo de mecanismos de auditoría específicos para los foundation models, que alimentan a todos los demás, también es crucial para regular la IA del futuro. La Universidad de Stanford pretende estimular esta vía de inspección de los foundation models organizando este año un concurso para premiar el desarrollo de herramientas operativas que permitan responder, por ejemplo, a las siguientes preguntas: ¿son estables las decisiones del modelo a lo largo del tiempo? ¿están las mujeres infrarrepresentadas en el modelo? etc.

Es fundamental que cualquier cuerpo legislativo sobre la IA se apoye en el desarrollo de herramientas adecuadas para auditar los sistemas existentes.

VICTOR STORCHAN y NATHAN NOIRY

Pensar el largo plazo

El desarrollo de iniciativas multipartitas y la construcción de herramientas de auditoría no pueden sustituir la cuestión de qué valores deben prevalecer en la aplicación de la IA. Los preceptos de la IA de confianza, promovidos por la Comisión Europea, son relativamente recientes en el desarrollo de esta tecnología. Históricamente3, tres tendencias han acompañado los avances en este campo sin prever los riesgos que conllevaban: la competencia hombre-máquina (en lugar de la cooperación), la autonomía respecto a la supervisión humana y la centralización de los recursos. En la actualidad, muchas instituciones públicas (el centro para una IA compatible entre la máquina y el humano de Berkeley), ONG (la Cooperative AI Foundation) y empresas privadas (Redwood Research, Anthropic) están abordando la cuestión de la alineación de valores entre humanos y máquinas. Esta cuestión es tanto más actual cuanto que algunas empresas como DeepMind u OpenAI tienen el objetivo declarado de desarrollar una IA que supere las capacidades cognitivas humanas.

La revolución tecnológica que supone la IA es también antropológica, ya que perturba nuestras sociedades. Al mismo tiempo, la actualización de nuestras categorías de lectura política se ve desdibujada por los nuevos paradigmas técnicos y geopolíticos del sector. Cabe señalar que esta dificultad para entender la IA no es exclusiva de los responsables públicos: en los últimos años, los espectaculares avances en este campo han desbaratado constantemente las previsiones de los mejores expertos. En este contexto de creciente incertidumbre, el desarrollo de herramientas de medición adecuadas nunca ha sido más crucial.