De Sam Altman a Giuliano da Empoli, pasando por Anu Bradford, nuestra serie semanal «Poderes de la IA» explora las grandes cuestiones que plantea la inteligencia artificial. Suscríbete a la revista para leer y recibir los nuevos episodios.

Realizamos esta entrevista al margen del Grand Continent Summit, donde los debates acercan de forma natural la transición digital y la transición geopolítica. ¿Es un problema que la Unión carezca de la competencia estratégica necesaria en un momento en que las grandes potencias de la IA están aunando los debates sobre comercio y seguridad nacional? 

Efectivamente, es el principal problema de la Unión. A menudo, en los debates que escucho, tendemos a pensar que no somos competitivos debido a nuestra regulación. En realidad no lo creo: las reglas que estamos debatiendo, incluida la Ley IA, no están reservadas a las empresas europeas, sino que se aplican a todas las empresas y a todos los usuarios que operan en Europa. Así que este debate sobre la competitividad –que a menudo se centra en el hecho de que nosotros regulamos y otros no– es, en mi opinión, un poco al margen de la cuestión. 

El problema que tenemos es el reparto de competencias. En el caso de la Ley IA, tuvimos que hacer una lectura más amplia de la competencia europea del mercado que sirve de base a esta ley para tratar cuestiones de seguridad o protección de los trabajadores. El hecho de que no se otorgue al nivel europeo la competencia necesaria para tomar decisiones sobre estrategia industrial es un problema, como también lo es la falta de poder presupuestario real y de margen de maniobra real en materia fiscal. En efecto, el debate sobre la acción presupuestaria y fiscal a nivel europeo no debe tratarse como una cuestión separada del debate sobre la regulación de la IA. Lo mismo ocurre con la seguridad nacional y el hecho de que la Unión Europea no tenga competencias para regular los usos de defensa. Esta fragmentación de las competencias europeas es, en mi opinión, nuestra principal desventaja competitiva frente a China o Estados Unidos.

El problema que tenemos es la distribución de competencias. Esta fragmentación de las competencias europeas es, en mi opinión, nuestra principal desventaja competitiva frente a China o Estados Unidos.

BRANDO BENIFEI

Con la Ley sobre la IA, ¿está enviando la Unión una vez más la señal de que regula una tecnología antes de crear productos y campeones tecnológicos? El primer libro blanco de la Comisión Europea se basaba en un equilibrio entre regulación y propuestas de inversión en política industrial: ¿hace falta una iniciativa europea fuerte de la Comisión en este sentido?

En primer lugar, es importante recordar que no existe contradicción alguna entre regulación e innovación. Con una buena regulación, podemos innovar mejor: el problema es saber de qué carecemos, o qué necesitamos. Evidentemente, hay ámbitos en los que aún nos queda mucho por hacer. Creo, por ejemplo, que todavía tenemos que avanzar para dar a nuestros desarrolladores de IA más oportunidades de utilizar más datos. Pero sigo creyendo que el principal problema es la falta de un mercado de capitales verdaderamente integrado y la falta de inversión europea en investigación e infraestructuras al nivel necesario. La inversión actual no es comparable con lo que se hace en otras partes del mundo. Una de las razones es la falta de una verdadera competencia estratégica europea. Actualmente, por ejemplo, hay competencia entre los Estados miembros para atraer a los mejores investigadores: esto nos impide centrarnos en atraer talento internacional de fuera de la Unión para trabajar en nuestra competitividad. Esto es lo que debería estar en el centro del debate. 

No hay nada en la normativa sobre IA que hemos aprobado que impida el desarrollo de modelos de lenguaje europeos. Hoy en día, poder recuperar la distancia de competitividad que tenemos con Estados Unidos o China en determinados aspectos del desarrollo de la IA es más una cuestión de priorización política a nivel europeo y de gobernanza.

En estos momentos, por ejemplo, asistimos a una competencia entre Estados miembros para atraer a los mejores investigadores: esto nos impide centrarnos en atraer talento internacional de fuera de la Unión para trabajar en nuestra competitividad. 

BRANDO BENIFEI

La Ley de IA señala los modelos más avanzados para imponerles reglas más importantes. ¿No introduce este enfoque de umbral un doble rasero entre las empresas ya establecidas –que pueden crecer porque tienen los medios para hacer frente a los pesados requisitos de cumplimiento– y los nuevos entrantes –que no pueden porque no tienen los ejércitos de abogados y los recursos necesarios–?

Las obligaciones reforzadas para los modelos más avanzados están relacionadas con una cosa muy sencilla: consideramos que estos modelos presentan un riesgo sistémico. Su versatilidad presenta peligros específicos y nuestra primera preocupación son las empresas que utilizarán los modelos más potentes. Las obligaciones de transparencia se aplicarán a todos los modelos, pero queremos estar seguros de que, en el caso de los modelos más potentes, se establezcan controles adicionales en materia de seguridad, ciberseguridad, impacto medioambiental o gobernanza de datos.

Por tanto, los modelos más potentes deberán, independientemente del caso de uso, cumplir algunas de las obligaciones de la categorización de alto riesgo.  En la actualidad, el umbral que hemos fijado para identificar estos modelos de alto nivel está relacionado con la capacidad informática utilizada para impulsar estos modelos. Se ha fijado en 10^25 flops. Por el momento, esto incluiría GPT-4 y ciertamente Gemini. También hemos dado la posibilidad a un comité de expertos –la Oficina de la IA– que vigilará la aplicación del texto, para determinar otros posibles criterios. No sólo la potencia de cálculo, sino una combinación de otros criterios, como el número de usuarios o el tamaño del modelo. Esta es la parte más flexible del reglamento, porque es la que se ocupa de la tecnología en la frontera misma de la innovación. Por tanto, era necesario mantener la flexibilidad en este ámbito.

Las obligaciones reforzadas para los modelos más avanzados están vinculadas a una cosa muy simple: consideramos que estos modelos presentan un riesgo sistémico.

BRANDO BENIFEI

Estos requisitos no deben desalentar el desarrollo de los modelos más avanzados porque se aplicarán a los modelos de todo el mundo. Los modelos estadounidenses tendrán que cumplir estas normativas una vez que estén en vigor. Este enfoque reglamentario es fruto de numerosos debates con el mundo académico, con las propias empresas y entre las distintas instituciones. Podemos discutir los méritos intrínsecos de estas normas, pero no veo cómo podrían distorsionar la competencia entre Europa y Estados Unidos. Además, estas normas entrarán en vigor dentro de más de un año. Mientras tanto, Europa habrá tenido tiempo de desarrollar modelos más avanzados. Vemos un riesgo sistémico para este tipo de modelos de IA en la frontera tecnológica. En este sentido, somos fieles al espíritu original del texto basado en niveles de riesgo. 

Echando la vista atrás a todo el proceso legislativo que comenzó en 2020, ¿ha identificado alguna laguna o posible mejora en el proceso regulador? ¿Qué lecciones podemos aprender sobre cómo regular una tecnología en rápida evolución?

La rápida evolución de la IA nos obliga a mantener en la medida de lo posible un enfoque basado en casos de uso reales en lugar de regular la tecnología, porque el contexto de los casos de uso no va a cambiar.

Ya sea en las escuelas, en el lugar de trabajo, en los tribunales o en los hospitales, el contexto es independiente de la evolución de la tecnología. Tenemos que reconocer que cuando se iniciaron estos trabajos, es decir, cuando se presentó la propuesta de la Comisión, no se prestó suficiente atención al papel preeminente de los grandes modelos lingüísticos que son ahora los componentes básicos de la IA y su ampliación. La IA, a través de estos modelos de lenguaje, es cada vez más general, mientras que el espíritu inicial del reglamento se organizaba más en términos de niveles de riesgo, dependientes a su vez del caso de uso previsto. Así que hemos introducido algunos cambios por el camino, pero creo que el texto resistirá y seguirá siendo pertinente en el futuro porque ha mantenido un cierto grado de flexibilidad y adaptabilidad que es esencial para hacer frente a la rápida evolución de la IA.

¿Cómo podemos desarrollar y compartir mejor la capacidad informática necesaria para la IA dentro de la Unión Europea? La actual distribución desigual de los programas de formación en infraestructuras en nube, ¿no corre el riesgo de crear una división dentro de la Unión?

Es esencial que tengamos más competencias compartidas para trabajar en la accesibilidad de la capacidad informática y el intercambio de datos. Esto puede lograrse mediante proyectos más claros a nivel europeo que hagan accesible esta infraestructura a quienes la necesiten. La Presidenta von der Leyen también habló de esto en su reciente discurso sobre el Estado de la Unión. La potencia de cálculo, las infraestructuras, el acceso a los datos y el talento son esenciales.  

La ansiedad por la IA en general va en aumento, pero la confianza en la tecnología varía considerablemente de una región a otra. En general, es mucho mayor en los países emergentes que en los desarrollados. La confianza pública en la capacidad de las empresas que utilizan IA para proteger sus datos personales varía del 72% en Tailandia a sólo el 32% en Francia. ¿Qué respuesta política puede darse?

La forma en que está diseñada la Ley de IA ofrece parte de la respuesta a esta inquietud, ya que estamos protegiendo los datos centrándonos en los sistemas de IA de alto riesgo. Pero el reto de la pedagogía y la concienciación no es sólo del regulador: sin duda necesitamos a las instituciones, pero la educación, la sociedad civil –a través de las organizaciones de consumidores en particular– y los medios de comunicación son absolutamente clave. Tenemos el régimen regulador más avanzado en materia de protección de datos y confianza en general: tenemos que aprovecharlo.

Tenemos el régimen normativo más avanzado para la protección de datos y la confianza en general: tenemos que aprovecharlo.

BRANDO BENIFEI

La razón por la que hemos desarrollado esta normativa es precisamente porque queremos crear un entorno en el que pueda florecer la confianza. La confianza de los consumidores es crucial para la expansión de la IA en nuestra economía y para garantizar que Europa se beneficie del crecimiento resultante. Este esfuerzo es aún más exigente en nuestras democracias, donde, sin confianza, la gente rechazará el uso de la IA. Por ejemplo, yo mismo he observado una gran desconfianza entre muchos trabajadores sobre el uso de la IA en el lugar de trabajo. Tenemos que superar esto. Por eso, a este respecto, la Ley de IA ofrece salvaguardias adicionales para los trabajadores.

A medida que nos adentramos en un ciclo electoral muy denso –la mitad del planeta acudirá a las urnas en 2024–, parece que también estamos asistiendo a la aparición de una nueva modalidad de uso masivo de la IA generativa con fines de desinformación. ¿Cómo cree que pueden colaborar en este asunto los desarrolladores de IA y los responsables de la toma de decisiones públicas?

Se trata, en efecto, de un tema importante, pero todavía demasiado confidencial: hay que trabajar en ello. Es esencial cooperar con los desarrolladores y encontrar soluciones técnicas para perseguir nuestros objetivos políticos de transparencia y lucha contra la desinformación, comprobando la viabilidad técnica de lo que proponemos con los propios científicos y desarrolladores. Se trata de cuestiones técnicas, pero también tenemos que llevarlas al debate público con la ayuda de los actores de la IA. Por ejemplo, para hacer comprensibles nuestros esfuerzos sobre el watermarking de los contenidos generados por IA, está claro que necesitamos formación y aprendizaje para los candidatos que se presenten a las elecciones, pero también para todos los responsables públicos actualmente en funciones.

¿Es la IA un tema que divide al Parlamento Europeo? ¿Podemos imaginar que la IA sea un tema de debate en las próximas elecciones europeas?

La Ley de IA fue objeto de un amplio consenso entre los partidos políticos en muchos puntos. Sin embargo, hay algunos puntos en los que las divisiones políticas son claramente evidentes. 

La cuestión de la imposición de normas a las grandes empresas, en particular sobre la transparencia de los contenidos generados por la IA, ha sido muy debatida. En cuanto a la libertad de expresión y la moderación de los contenidos, el debate no sólo tiene lugar en Estados Unidos, cuando se escucha a Donald Trump. También en Europa, algunas fuerzas políticas creen que la necesidad de impedir que ciertos tipos de contenidos circulen libremente equivale a la censura. Esta división influye en nuestros debates sobre la IA. 

También en Europa, algunas fuerzas políticas creen que la necesidad de impedir que ciertos tipos de contenidos circulen libremente equivale a la censura.

BRANDO BENIFEI

También podríamos mencionar todo lo relacionado con la vigilancia y la seguridad nacional. El uso de cámaras biométricas, la policía predictiva y la elaboración de perfiles biométricos son temas en los que la división política entre derecha e izquierda es cada vez más marcada.

¿Cuáles serían sus tres deseos para el ecosistema europeo de la IA en 2024?

Sin priorizarlos, me quedaría con los tres puntos siguientes.

En primer lugar, me gustaría que empezáramos a ver la construcción de un corpus de derecho internacional en torno a la IA que se centrara especialmente en sus peligros sistémicos que no pueden ser abordados únicamente por la legislación nacional o incluso europea. Estoy pensando, por ejemplo, en cuestiones de seguridad global o en los usos militares de la IA. Espero que el año que viene se produzca un avance en este sentido.

En segundo lugar, en el contexto de la ONU, el G7 o el G20, espero que las instituciones presten más atención a la necesidad de formar a las personas en inteligencia artificial, no sólo como parte de la formación inicial, sino también para la formación continua de los trabajadores y los ciudadanos en general, porque existe el riesgo de ser manipulados por la IA si no estamos familiarizados con sus herramientas.

Por último, en el nuevo ciclo legislativo europeo que seguirá a las elecciones se aplicará el texto que hemos elaborado. Le dará vida porque hoy, aunque todo el mundo habla de ello, aún no vemos los efectos. También tendremos que profundizar en algunos temas, en particular en todos los aspectos relacionados con el impacto de la IA en el lugar de trabajo, que no han sido suficientemente abordados por la Ley de IA debido a su marco jurídico. Todo esto también está vinculado a un deseo más amplio, el de tener una Unión Europea más integrada y, para mí, una unión federal para que podamos ser más eficaces en la gestión de todos estos grandes cambios que se están produciendo.