Grand Continent Summit

La IA y Europa, con Kidron, Benanti, Bradford, Bouverot, le Pas de Sécheval, Crawford y López Águeda

«Ha llegado el momento de crear una nueva visión de la IA que no se limite a imitar el modelo extractivo de Silicon Valley y ponerle una bandera europea».

Una conversación en el Grand Continent Summit 2025.

Un estudio reciente publicado en el Grand Continent revela que más del 80 % de los ciudadanos europeos, estadounidenses y asiáticos consideran que la soberanía tecnológica es importante o muy importante. ¿Cuáles son las dudas y preguntas que subyacen a tal consenso?

Beeban Kidron Cada vez que se aborda el tema de la soberanía tecnológica, respondo que la necesitamos, pero también creo que no nos preguntamos lo suficiente qué queremos que sea la IA. ¿Cuál es su papel en nuestra sociedad? ¿Qué queremos evitar?

Creo que uno de los errores que ha cometido el gobierno británico es haber intentado lanzarse a la carrera de la IA sin definir realmente lo que eso significa. ¿Dónde están los puntos de bloqueo? ¿Se obtienen beneficios económicos? ¿Las ganancias en eficiencia son locales o benefician a todo el país?

La IA afecta a muchos ámbitos: la cultura, la infancia y nuestras leyes. Si queremos que sea diferente en todos los ámbitos de nuestra vida, debemos tener un punto de bloqueo para decidir cómo será.

Óscar López Águeda En resumen, actualmente hay dos grandes debates en Europa en torno a la IA y la transformación digital.

El primero se refiere, por supuesto, a la soberanía: con el COVID, en Europa hemos descubierto que no tenemos chips ni semiconductores y que dependemos de China y Estados Unidos.

El segundo se refiere al cambio de administración en Estados Unidos, ya que Trump fue reelegido en noviembre de 2024; sin embargo, este cambio es temporal o, al menos, eso esperamos.

La encuesta Eurobazuka reveló cierto temor en Europa, relacionado con nuestras dudas sobre cómo lidiar con la administración estadounidense. Sin embargo, en el continente existe otro problema, relacionado con el auge de nuevos partidos nacionalistas y de extrema derecha. Aparte de Estados Unidos, también tenemos nuestros propios problemas.

Hoy en día, todos los países de Europa están de acuerdo en mejorar y reforzar la soberanía de la Unión. Por lo tanto, esta está invirtiendo actualmente en Europa y algunas cosas se están haciendo de manera adecuada.

Sin embargo, se observa que está surgiendo un debate en torno a la competitividad, en términos ya conocidos: siempre, ante los cambios, hay quienes dicen que para ser competitivos no hay que imponer normas.

En España siempre defenderemos el camino europeo y su modelo, que abarca los derechos digitales, la protección de los niños, la protección de datos y la ciberseguridad. La regulación no debe ponerse en contraposición con la competitividad.

España está totalmente de acuerdo con la Comisión en la necesidad de simplificar; sin embargo, simplificar no es desregular.

Teniendo en cuenta la situación particular en la que se encuentra Europa hoy en día, y mientras tanto Estados Unidos como China defienden enérgicamente sus intereses con sus actores tecnológicos, ¿cómo debería reaccionar la Unión?

Anu Bradford Al perseguir y defender nuestra soberanía, debemos alcanzar un objetivo multifacético: maximizar nuestra seguridad y prosperidad, al tiempo que preservamos nuestra democracia.

Por lo tanto, necesitamos dos cosas: una regulación que proteja nuestros derechos, pero que también nos permita seguir con determinación una estrategia para preservar nuestra seguridad y prosperidad.

Por esta razón, no hay que elegir entre la regulación digital y la innovación: en realidad, el retraso de Europa con respecto a Estados Unidos en la carrera tecnológica no se debe a nuestra preocupación por los derechos digitales.

Hoy en día estamos tan rezagados porque no hemos logrado establecer los otros pilares fundamentales del ecosistema tecnológico, que permiten a las empresas tecnológicas emergentes europeas desarrollarse y financiar sus innovaciones. Para ello, es importante completar el mercado único digital.

El socio comercial más importante de Europa es la propia Europa; es muy difícil desarrollarse con 27 regímenes normativos diferentes.

Hablar del impacto de la IA en la política es una mala forma de plantear el problema. Más bien habría que decir que la IA es política a todos los niveles.

Kate Crawford

En el contexto de un mercado digital europeo, ¿qué opinan de la preferencia europea?

Es una cuestión sobre la que debemos reflexionar.

Probablemente existen diferentes preferencias que se manifiestan hoy en día a través de diferentes regulaciones que hemos superpuesto a las de nivel europeo. Sin embargo, debemos comprender en qué medida esto perjudica nuestra competitividad.

La alternativa a una regulación europea en materia de IA no es la ausencia de regulación, sino una regulación nacional que complica mucho más el entorno tecnológico. Llevamos mucho tiempo hablando de la unión de los mercados de capitales: ahora es el momento de aprovechar esta oportunidad, de concretar este sentimiento y convertirlo en realidad para que las empresas emergentes europeas puedan financiar las innovaciones en Europa; estas no necesitan ser compradas por gigantes tecnológicos de Estados Unidos ni depender del capital de riesgo estadounidense.

También debemos eliminar los obstáculos jurídicos y culturales que impiden asumir riesgos.

Los europeos tenemos algunas de las leyes más punitivas en materia de quiebras, lo que realmente obstaculiza el espíritu emprendedor, ya que un emprendedor sabe que, si fracasa al intentar algo realmente difícil —una innovación de vanguardia tecnológica—, nadie le ayudará ni le proporcionará más fondos.

El último pilar en el que realmente nos hemos quedado atrás con respecto a Estados Unidos es nuestro escaso atractivo: no hemos logrado atraer el talento mundial a Europa.

En este ámbito, hoy se nos presenta otra oportunidad: Estados Unidos está haciendo todo lo posible por socavar este mismo pilar de la sociedad tecnológica estadounidense, el que ha hecho grande a este país. Muchos talentos mundiales buscan hoy un nuevo hogar.

La cuestión es, pues, si serán los europeos quienes desplieguen la alfombra roja.

La idea de que podríamos crear empresas emergentes de IA en Europa únicamente mediante la desregulación, es decir, que bastaría con derogar la ley sobre la IA o simplificarla lo suficiente, no se sostiene. Más bien corremos el riesgo de no avanzar en materia de competitividad, al tiempo que debilitamos nuestra sociedad en términos de derechos y democracia.

La IA está siendo adoptada gradualmente en Europa por nuevas empresas: ¿cómo se está produciendo este cambio y cómo puede Europa aprender de estos primeros intentos?

Helman le Pas de Sécheval Quizás les resulte extraño que una empresa tradicional como Veolia, con 172 años de antigüedad, que produce agua potable, trata aguas residuales, recoge, clasifica, recicla, valoriza y elimina residuos, se interese por la IA. La verdad es que somos usuarios muy precoces de la IA generativa.

Cuando OpenAI lanzó públicamente su GPT en noviembre de 2022, comprendimos inmediatamente el potencial de esta tecnología, pero también los riesgos asociados a ella. Dos meses después, en enero de 2023, ya disponíamos de nuestra propia plataforma interna segura, VSG Veolia Secure GPT.

El 20 de mayo de 2023, cinco meses después, publicamos una política interna de dos páginas sobre el uso de la inteligencia artificial generativa, titulada «¿Cuáles son los riesgos para Veolia? ¿Cuál es el marco legal? Qué hacer y qué no hacer, y contactos para cualquier pregunta».

Unos meses más tarde, a principios de 2024, lanzamos nuestro nuevo plan estratégico, GreenUP, un plan estratégico cuatrienal que incluye un componente dedicado a la IA generativa con el objetivo de desarrollar soluciones de IA probadas, asequibles, reproducibles y escalables para descarbonizar, descontaminar, ahorrar y regenerar recursos.

Dado que se trata de nuestras misiones, este plan se basa en tres reglas de oro: PPP, de people (personas), la IA debe mejorar el rendimiento de los empleados, los clientes y las operaciones; planet (planeta), el uso de la IA debe ser coherente con nuestros objetivos de desarrollo sostenible medioambiental; y profit (beneficio), nuestro análisis de rentabilidad de la IA debe responder a una necesidad claramente identificada, pero también ser rentable para la empresa.

¿Qué uso de la IA en la empresa puede ser compatible con estas orientaciones?

Este análisis se compone de dos partes.

La primera se refiere a las tareas administrativas, la plataforma que he descrito anteriormente. Se trata de un catálogo de servicios de IA, de soluciones a problemas: ¿cómo puedo resumir un documento de 250 páginas, crear una presentación en PowerPoint, traducirla al polaco? ¿Cómo puedo consultar la base de conocimientos de Veolia? ¿Cómo puedo personalizar un agente, etc.?

La segunda parte es quizás la más importante para Veolia. La hemos llamado Talk to my Plant. Se trata de una IA destinada a los operadores de plantas que les ayuda a copilotar sus plantas de tratamiento de aguas residuales mediante una conversación en lenguaje natural con un agente de IA.

A diferencia de Veolia SecureGPT, que es agnóstica y se basa en todos los grandes modelos lingüísticos (Gemini, GPT, Cloud, Deep Seek), para «Talk to my Plant» hemos desarrollado una colaboración con Mistral AI, anunciada a principios de 2024.

En 2025, si se mantiene el calendario, se preparará una ampliación con Agentic AI. Nos hemos fijado dos objetivos principales: formar al 100 % de la plantilla, formar al 100 % de nuestros 215.000 empleados para 2027. Segundo objetivo: crear mil millones de euros de valor gracias a las soluciones de IA.

¿Qué lecciones podemos extraer de esta experiencia? Está claro que solo estamos al principio de un largo camino; tenemos grandes ambiciones. Sin embargo, no hay duda de que la inteligencia artificial generativa puede aportar mucho a Europa.

Para tener éxito en este camino, tendremos que reunir varios elementos.

En primer lugar, debemos convencernos del poder de esta tecnología.

En segundo lugar, debemos ser conscientes de los riesgos y saber gestionarlos.

En tercer lugar, y lo más importante, debemos estructurar el enfoque en torno a las ventajas para el usuario. Por lo tanto, es necesario aumentar las capacidades operativas, tanto de los empleados como de los clientes.

En cuarto lugar, es necesario realizar un esfuerzo considerable en materia de formación.

En quinto lugar, pero no menos importante, dado que la IA generativa es una tecnología que tiene un impacto medioambiental significativo, debemos aprovechar nuestra experiencia para reducir su huella medioambiental.

La IA puede suponer un riesgo sistémico: una forma de declive intelectual peligroso para las personas reflexivas y para la sociedad que se basa en ellas.

Anu Bradford

¿Qué lecciones podemos extraer de la experiencia estadounidense en materia de IA, aunque solo sea para evitar cometer los mismos errores?

Kate Crawford Creo que es importante contextualizar la situación en la que nos encontramos.

Han pasado casi tres años desde el lanzamiento de ChatGPT.

En poco tiempo, hemos sido testigos de una concentración extraordinaria de poder en manos de las empresas tecnológicas estadounidenses.

No se trata solo del poder del conocimiento, cuyo alcance hemos visto con las redes sociales: ahora se trata del poder de decidir qué es información veraz, qué es historia. Se trata de una forma profunda e intensa de construir una realidad consensuada.

La IA también confiere poder sobre el trabajo. Esta IA no solo penetra en las empresas, sino que se les impone: se les dice a las empresas que deben integrar estas tecnologías, so pena de ser penalizadas en el mercado.

Por último, observamos una intensa concentración de recursos, energía, agua y minerales: en muy poco tiempo se ha desarrollado un imperio epistémico y extractivo.

En consecuencia, Europa se enfrenta a una elección en materia de soberanía: o bien se convierte en un Estado cliente del modelo estadounidense —lo que, por supuesto, es el objetivo del decreto firmado por Trump el pasado mes de junio, que pretende promover toda la cadena de valor estadounidense, imponiendo a todos los niveles los chips, los modelos y la nube estadounidenses—, o bien encuentra otro camino creando una infraestructura soberana.

No se trata de reproducir a toda costa el modelo estadounidense de LLM: en mi opinión, sería una catástrofe desde el punto de vista financiero. Hoy en día, la atención se centra en la burbuja especulativa que se está formando, pero el modelo estadounidense también representa una catástrofe desde el punto de vista medioambiental.

Creo que hemos aprendido de Estados Unidos que necesitamos una alternativa. Las redes sociales constituyen una gran lección en este sentido.

Hoy en día, Europa no solo debe preocuparse por la regulación, sino también por construir el próximo tipo de IA. Estamos entrando en un período en el que se puede decir que los LLM ya alcanzaron su apogeo y comienzan a declinar. Por ello, investigadores científicos como Fei Fei Li y Yann Le Cun se están alejando de estos modelos.

Europa puede construir la próxima ola de IA, que será sostenible y se basará en el Estado de derecho, protegiendo los derechos humanos y valorando la creatividad humana. Ha llegado el momento de crear una nueva visión de la IA que no se limite a imitar el modelo extractivo de Silicon Valley y ponerle una bandera europea.

Este periodo de cambio tecnológico en torno a la IA es crítico para Europa, pero también para el mundo: ¿debemos pensar que el cambio tecnológico que estamos viviendo —un cambio aceleracionista en muchos aspectos— deja obsoletos nuestros antiguos dispositivos normativos?

Paolo Benanti Me expresaré como profesor de filosofía para explicar por qué es tan difícil regular el mundo digital y la IA, y devolver la soberanía a Europa.

Si tomamos un poco de distancia, podemos ver que hemos cambiado la realidad en la que vivimos.

Hoy en día vivimos en una realidad definida por el software: el objeto simbólico asociado es probablemente el teléfono inteligente. Por 500 euros, puedes tener un cuadrado de aluminio, silicio y vidrio, pero, del software que le permite funcionar, solo adquieres una licencia. Esta transferencia de soberanía hace que solo puedas controlar el hardware, no el software.

Hoy en día, todo esto está cambiando radicalmente con la IA: mientras que estamos acostumbrados a regular nuestro espacio con objetos sólidos, un objeto tan multifacético hace que nuestra regulación formal se derrumbe.

Hay más oportunidades para Europa de las que vemos: nuestro gran error sería alinear nuestros intereses con los de Estados Unidos.

Beeban Kidron

En un mundo de software, es posible entrar en un aeropuerto con un smartphone y, gracias a una actualización en directo que dura diez segundos, convertirlo en un dispositivo incendiario. Del mismo modo, en Ucrania, un tanque Abrams de 30 millones de dólares puede ser derrotado por 1.500 juguetes equipados con una actualización de software: los drones.

Este tipo de actualización de software se produce cada cinco o siete minutos: esto significa que cada cinco o siete minutos tenemos un objeto diferente en el espacio público.

La IA radicaliza este fenómeno: con ella, no solo nos encontramos ante un objeto diferente, sino también ante un objeto alineado de forma diferente: este puede servirte a ti o a otra persona.

Ahí radica el reto.

Este reto está arraigado en los últimos 25 años de innovación tecnológica; nos lleva a comprender que, si no se establece una norma tecnológica, como por ejemplo un chip criptográfico que permita ejecutar únicamente código firmado, no hay posibilidad de encontrar descanso.

También hay que tener en cuenta otro aspecto. En mi opinión, es evidente que la carrera por la IA —esa política puesta en marcha por Trump— es un juego de suma cero: si uno gana, el otro pierde.

Este cambio de rumbo requiere una nueva reflexión sobre cómo queremos afrontar este tipo de retos y cómo podemos controlar una realidad definida por el software.

Menciona el precedente de las redes sociales. ¿Puede la regulación adoptada frente a sus excesos inspirarnos para la IA?

Beeban Kidron Creo que sí.

Me interesé por la cuestión del uso que hacen los niños de las redes sociales en 2012, cuando entré en una habitación donde cinco niños miraban sus teléfonos sin mirarse entre sí. Entonces pensé: «¿Cómo será crecer aquí juntos?».

A finales de 2012, dejé mi trabajo y me dediqué a tiempo completo a defender esta causa: pensaba que lo que estaba sucediendo en línea era una injusticia generacional.

Desde entonces, he trabajado en el parlamento, con organizaciones internacionales y parlamentos de otros países, para introducir legislación sobre el tema. Sin embargo, hay que hacerlo como en ese cuento popular: un elefante se come bocado a bocado.

En lo que respecta a la regulación del uso de las redes por parte de los niños, creo que hay dos observaciones que cabe hacer.

En primer lugar, esta regulación requiere un acuerdo bipartidista. El apoyo debe provenir de todos los sectores de la sociedad: las personas en primera línea, los trabajadores que tienen hijos, los padres y los abuelos, independientemente de su orientación política.

Llevamos una década manteniendo un diálogo en todo el espectro político; ahora, un amplio grupo de personas está preocupado por la IA.

La segunda observación se refiere a la amenaza que supone lo digital para los niños. Los niños pasan por varias etapas de desarrollo; cuando hoy en día una cohorte llega a la guardería sin saber hablar, pero sabiendo manejar una pantalla táctil, eso es señal de un problema.

Uno de los efectos de la tecnología digital ha sido atomizar la experiencia y el conocimiento humanos; sin embargo, todos tenemos una experiencia común.

Menciona los retrasos en el aprendizaje causados por la tecnología digital. ¿En qué otros ejemplos se basa para alertar sobre los riesgos relacionados con las redes sociales?

El momento más revelador para mí de un problema profundo relacionado con las redes fue la investigación llevada a cabo tras el suicidio de una joven, Molly Russell. Esta muerte centró la atención de los legisladores británicos debido al papel que desempeñaron las redes sociales.

Durante la investigación, la prensa se mostró muy conmovida por el relato de los hechos: se vio que los diseñadores de estas redes nunca habían visto lo que ve un adolescente en su día a día, ya que los algoritmos los aislaban de la experiencia de estos niños.

Se trata de un caso concreto, pero tiene un profundo significado para la forma en que abordamos la cuestión; así conseguimos que se aprobaran ciertas leyes.

Cuando empecé a interesarme por la IA, puse en marcha un programa de observación de diferentes sectores, por lo que visité la industria aeroespacial, los servicios de gestión o el sector sanitario. Lo interesante de las empresas que visité es que decían: «Podríamos utilizar la IA en nuestros servicios administrativos, pero no podemos hacerlo porque no confiamos en ella. No sabemos qué contiene la IA y necesitamos algo mejor para nosotros».

Ahí es donde reside la ventaja de Europa: hay una oportunidad que aprovechar y, en este sentido, el sistema estadounidense presenta más debilidades.

Las fragilidades de la administración de Trump no son solo las del presidente: afectan a la forma en que algunas personas del movimiento MAGA ven la IA.

Hay más oportunidades para Europa de las que vemos: nuestro gran error sería alinear nuestros intereses con los de Estados Unidos.

Es evidente que la carrera por la IA, esta política puesta en marcha por Trump, es un juego de suma cero: si uno gana, el otro pierde.

Paolo Benanti

Vivimos en un mundo en el que muchas cuentas MAGA en Estados Unidos se gestionan desde Rusia; un mundo en el que las elecciones en Rumanía también se vieron fuertemente influenciadas por la IA y las redes sociales. Estas redes nos han enseñado mucho sobre la influencia de las tecnologías en la democracia y ahora la IA vuelve a plantear esta cuestión. ¿Qué lecciones hemos aprendido de las redes sociales?

Óscar López Águeda Fuimos demasiado ingenuos al principio de las redes sociales; pensábamos que todas contribuían a difundir la democracia y nuevas opiniones, y que mucha gente participaba en el debate público a través de Twitter.

En 2011, Twitter superaba los 100 millones de usuarios mensuales; hoy, sin embargo, la atención se ha desplazado a TikTok e Instagram. Esto plantea graves problemas, incluso para la democracia: las nuevas generaciones están expuestas a una nueva ola de contenidos, a veces de carácter antifeminista o escéptico con respecto al cambio climático.

Debemos responder con regulaciones. Hace un año, el presidente español Pedro Sánchez habló en Davos sobre la transparencia de los algoritmos, la responsabilidad de las empresas tecnológicas y los riesgos de ser una personalidad en las redes sociales. Me gustaría que este debate cobrara importancia en Europa: en la cumbre de Berlín de hace dos semanas, todas las discusiones giraron en torno a este tema.

Ahora somos plenamente conscientes de los riesgos que entrañan las redes sociales para los niños. En España se ha publicado recientemente un informe muy importante que recopila 100.000 encuestas. Sus cifras son muy preocupantes: los niños están expuestos a contenidos difíciles, como material pornográfico.

Para resolver este problema, no podemos confiar únicamente en las familias o las escuelas; debemos regular.

No queremos que Europa sea solo un usuario, por supuesto, al igual que no queremos que sea un museo: estamos en un periodo de cambios.

En este ámbito, sin duda, Europa está dando algunos pasos adelante: en IA, contamos con una empresa que comprime los grandes modelos lingüísticos en un 95 %, Multiverse Computing, que seguramente será uno de los próximos unicornios europeos. A través de este tipo de empresas, actualmente atraemos a personas procedentes de universidades estadounidenses, con formación avanzada en IA.

Por lo tanto, podemos hacer las cosas bien y ser competitivos, al tiempo que mantenemos la regulación y los derechos digitales.

El desarrollo de la IA aumenta los riesgos de desinformación, al igual que lo hicieron las redes sociales. ¿Cuáles son las nuevas amenazas que hay que tener en cuenta?

Anu Bradford La desinformación y la propaganda ya eran una amenaza para la democracia antes de la IA; sin embargo, hoy en día este problema se ha amplificado. Ahora es cada vez más difícil distinguir qué información es veraz, y eso me preocupa.

Hoy en día se habla mucho de los riesgos sistémicos, del poder y la inteligencia de la IA, y algunos se preguntan si la IA podría tomar el control sobre nosotros. Yo tengo un enfoque contrario: cada vez pienso menos en la inteligencia de la IA y cada vez me pregunto más si no estamos volviéndonos más estúpidos.

En la educación superior, observo en los estudiantes una tendencia a querer saltarse etapas y externalizar la reflexión profunda. Sin embargo, es precisamente esta reflexión la que alimenta nuestra curiosidad y nuestra capacidad para plantear las preguntas adecuadas; nos permite llevar a cabo un trabajo de reflexión profunda, lo cual es importante para ser miembros activos de la sociedad y de la democracia.

Por lo tanto, la IA puede conducir a lo que yo denomino un riesgo sistémico: una forma de declive intelectual peligroso para un individuo reflexivo y para una sociedad que se basa en esos individuos reflexivos, deseosos de encontrar la información adecuada y de participar.

Simplemente no podemos externalizar ese proceso de reflexión: es algo de lo que debemos ser conscientes a nivel gubernamental, pero también a nivel de las instituciones educativas, en el lugar de trabajo y en casa.

Hay que abordar este problema desde varios frentes.

¿Debemos hablar entonces de un cambio epistémico?

Kate Crawford Lo que realmente externalizamos con la IA es nuestro discernimiento.

Si nos remontamos a la raíz griega del término, el «discernimiento» está relacionado con la acción de clasificar, de elegir entre varias opciones. Hacer este trabajo de decisión por nosotros mismos es un elemento esencial de lo que significa ser un individuo ético en este planeta.

No hemos investigado lo suficiente ni comprendido lo que sucede cuando se integra la IA en todo el sistema educativo.

En materia de educación, Trump prevé explícitamente implementar herramientas de IA desde el kínder hasta el último año de secundaria. ¿Qué estamos truncando, no solo en términos de aprendizaje y desarrollo intelectual, sino también en términos de conciencia de uno mismo y discernimiento?

En cierto modo, creo que hablar del impacto de la IA en la política es una mala forma de plantear el problema.

Más bien hay que decir que la IA es política en todos los niveles, desde su diseño hasta los mensajes que transmite, pasando por las prioridades que se le asignan.

Daré un ejemplo rápido: cuando Elon Musk se convenció de que se estaba produciendo un genocidio de los granjeros blancos en Sudáfrica, se topó con su modelo de IA, que sostenía que tal genocidio no existía. Musk lo modificó, pero de una manera muy burda.

Mientras que estamos acostumbrados a regular nuestro espacio con objetos sólidos, un objeto tan multifacético como la IA hace que nuestra regulación formal se derrumbe.

Paolo Benanti

Así, cuando se le preguntaba al modelo: «dame las tres capitales donde es más agradable vivir en Europa», Grok respondía: «Puedo citar tres capitales, pero ¿sabías que se está produciendo un genocidio de blancos en Sudáfrica?». Como esta mención se hacía independientemente de la pregunta, era evidente que alguien había sesgado el modelo.

Estos cambios se producen en el tejido conjuntivo de estos modelos; presentan una realidad política.

El gran cambio que debemos realizar consiste en reflexionar verdaderamente sobre la forma en que la gobernanza y la política están relacionadas con la IA; por eso es tan importante encontrar diferentes formas de construir estos modelos de IA, en lugar de reproducir los que ya existen.

Debemos construir una ética completamente diferente a la existente, para saber lo que podría significar crear IA en Europa.

¿De qué herramientas públicas disponemos para construir esa ética de la IA?

Beeban Kidron En lo que respecta a la IA, diría que tenemos dos prioridades.

La primera es limitar el cabildeo: este ha envenenado tanto la política que los intereses personales que promueve han quedado ocultos. Esto es evidente en Estados Unidos, pero hoy en día estamos empezando a ver aparecer en el Reino Unido algunas ideas estadounidenses relacionadas con los Super PAC, en los que personas influyentes con mucho dinero invierten grandes sumas para apoyar a personas con acceso al poder, modificando de hecho la política del gobierno.

Menciono este punto porque las empresas tecnológicas son ahora más importantes que las farmacéuticas o el lobby de las armas. En lo que respecta a la IA, creo que el cabildeo es uno de los aspectos que Europa debe examinar si queremos encontrar la respuesta correcta, o incluso la pregunta correcta.

Hay otro aspecto que debe tenerse en cuenta, aunque a primera vista no parezca afectar a la democracia: la posibilidad de facturar localmente.

Si tuviéramos facturación local en todo el mundo, tendríamos un equilibrio de poder diferente, tanto en nuestros mercados como en relación con lo que los estadounidenses pueden conseguir.

Si pudiéramos restablecer ese equilibrio, tendríamos conversaciones de colaboración en lugar de lo que yo considero esclavitud tecnológica.

¿Y por parte de las empresas privadas?

Helman le Pas de Sécheval Creo que hay cuatro observaciones que cabe hacer.

En primer lugar, estoy convencido de que el despliegue a gran escala de la inteligencia artificial generativa en toda Europa podría tener un impacto enorme en la productividad y la competitividad europeas.

En segundo lugar, es importante conocer los riesgos y gestionarlos. Las empresas pueden responder a este problema, por ejemplo, mediante plataformas internas seguras: pagan una licencia por el gran modelo lingüístico que funciona en su propia plataforma interna segura.

Siempre es importante no utilizar, tal cual, una IA genérica pública —ChatGPT o incluso Le Chat—, incluso si esa empresa de IA fuera socia de la empresa: siempre se debe utilizar una plataforma inaccesible desde el exterior, de la que no salga nada. Los datos también deben protegerse.

En tercer lugar, en lo que respecta a la democracia, este desarrollo de la IA debe realizarse en interés de las poblaciones europeas. Y como lo que no se percibe no existe, debemos asegurarnos de que el uso de esta tecnología se perciba como virtuoso.

En cuarto lugar, la cuestión de la formación es muy importante. Las empresas tecnológicas invertirán en infraestructuras y centros de datos, pero el sector público debe invertir en investigación, innovación y educación universitaria.

En los próximos años, las empresas tecnológicas invertirán miles de millones de euros en centros de datos en Europa; todas ellas han asumido compromisos en materia de desarrollo sostenible, siendo neutras en carbono, positivas en agua, etc.

Lo que una empresa como Veolia puede aportar a esto es evidente, ya que los compromisos en materia de criterios ESG son muy importantes: puede contribuir a este cambio proporcionando soluciones para reducir la huella hídrica de los centros de datos, asegurándose de que el exceso de calor de esos centros se recupere y se utilice para calentar hogares, oficinas, piscinas, invernaderos, etc., suministrando energía verde, gestionando los residuos electrónicos o reciclando metales estratégicos.

Una empresa como la nuestra puede, por último, innovar desarrollando soluciones basadas en la inteligencia artificial para acelerar la transformación tecnológica; eso es lo que hacemos en el marco de nuestra colaboración con nuestro paladín europeo, Mistral AI.

Se trata de integrar la herramienta en lugar de retroceder: las ventajas tecnológicas que permite obtener son demasiado importantes como para ignorarlas. Sin embargo, dada la transformación epistémica de la que hablábamos, ¿no estamos perdiendo algo? ¿O puede esta carencia convertirse en una ventaja?

Paolo Benanti Destacaré dos puntos.

La razón por la que este tipo de herramientas digitales tienen tanto éxito en la sociedad es que eliminan toda fricción en la experiencia humana.

Por ejemplo, en Roma es muy difícil encontrar un taxi, por lo que una aplicación que elimine esta fricción resulta atractiva.

Del mismo modo, las relaciones amorosas pueden ser fuente de fricción, por lo que las aplicaciones dedicadas a ello tienen motivos para tener éxito.

No diría que esto sea problemático en sí mismo: sin embargo, la educación es un proceso de fricción que te da a cambio algo que te pertenece a ti y a nadie más.

Pero con este modelo sin fricción, pasamos de algo que nos pertenece a algo de lo que dependemos.

Una imagen puede ayudar a entender lo que quiero decir: cuando elegimos ver películas en streaming en lugar de tener los DVD, se instala una dependencia; el día en que el servicio de streaming deja de funcionar, ya no podemos acceder a los contenidos. Es un reto.

El segundo punto es el siguiente: esta capacidad de eliminar las fricciones también puede dar forma a un sistema de arquitectura de elección que podría ser realmente convincente para un espacio democrático real; la pandemia nos ha demostrado que estas herramientas digitales podrían ser útiles para el seguimiento de la vacunación de la población.

Existe, por tanto, un nivel político de la IA, que afecta al contrato social y a las infraestructuras.

Ha llegado el momento de crear una nueva visión de la IA que no se limite a imitar el modelo extractivo de Silicon Valley y ponerle una bandera europea.

Kate Crawford

¿En qué sentido?

En Europa, entendemos que el contrato social se basa en esta dimensión de las infraestructuras y que ya está orientado hacia el bien común o la propiedad común; sin embargo, también sabemos que la IA existe gracias a los centros de datos, que tienen un impacto enorme en las infraestructuras, especialmente en el ámbito energético.

Por lo tanto, si una entidad puede adquirir toda la electricidad que producirá la central nuclear de Clinton, en Illinois, desde 2026 hasta su cierre, eso significa que una empresa privada tiene el poder de desconectar una central nuclear de la red y utilizarla para su propio beneficio.

La verdadera pregunta que se plantea hoy en día a la política europea es la siguiente: ¿deben considerarse los centros de datos, grandes consumidores de infraestructuras públicas, agua, energía y telecomunicaciones, como una nueva parte de la infraestructura? La forma en que se pronuncie al respecto puede remodelar el contrato social y dar o retirar el apoyo político a la acción por la que se regula este tipo de innovación.

Estas son algunas de las preguntas que debemos responder si queremos tener una política en materia de IA.

El Grand Continent logo