Esta conversación es la traducción de la mesa redonda «The Economic and social impact of AI», moderada por Martin Tisné, que reunió a Anu Bradford, Anne Bouverot, Gabriela Ramos, Marc Faddoul y Brando Benifei en el primer Grand Continent Summit, celebrado en el Valle de Aosta del 18 al 20 de diciembre de 2023. Publicamos las actas de la cumbre y los videos de las sesiones públicas.
Martin Tisné
2024 es un año electoral crucial en todo el mundo, en el que participarán unos 2 mil millones de votantes. ¿Veremos un cambio cualitativo en el impacto de la desinformación sobre las elecciones y la democracia? ¿Cambiará fundamentalmente la relación de la gente con la verdad, tras la erosión de la que ya hemos sido testigos? ¿O se trata más bien de una diferencia cuantitativa, que permitirá hacer más con menos?
Marc Faddoul
Estamos asistiendo a la aparición de herramientas innovadoras que facilitan la creación de un nuevo tipo de desinformación. Por lo general, ese tipo de herramientas se introducen gradualmente, y no de forma abrupta, como estamos viendo con los deepfakes. Aunque los deepfakes sean tema de debate desde hace algún tiempo, todavía no representan la forma predominante de desinformación. Sin embargo, están surgiendo nuevos tipos de desinformación, en particular los vinculados a la inteligencia artificial generativa.
Tomemos el ejemplo de las elecciones, un ámbito que mi organización sin fines de lucro, IA Forensic, ha estudiado a profundidad. Recientemente, hemos observado que los chatbots, cuando se les pregunta sobre las elecciones, suelen proporcionar información incorrecta, como resultados de encuestas erróneas o la existencia de elecciones falsas, e incluso citan a candidatos inexistentes. Hemos observado que hasta el 30% de las respuestas de los chatbots contienen inexactitudes factuales. Otro fenómeno preocupante es el de los chatbots que citan fuentes fiables, pero introducen errores en sus respuestas. Este tipo de desinformación hasta ahora desconocida es motivo de preocupación, ya que permite a un mayor número de personas producir y difundir desinformación a mayor escala.
Cada vez más personas podrán participar en operaciones de desinformación. ¿Qué repercusiones tendrá esto? ¿Cómo se está preparando IA Forensic para el año que viene? ¿Les parece que la situación es muy diferente de la anterior?
El reto en nuestro campo es investigar y recopilar los datos adecuados, que nos permitan comprender cómo están evolucionando estos sistemas. Por nuestra parte, esta evolución significa principalmente que tenemos que crear una nueva infraestructura para recopilar datos. La Ley de Servicios Digitales lo ha facilitado en cierta medida al crear nuevas modalidades de acceso a los datos para investigadores como nosotros. Pero como agente externo, nuestro enfoque consiste en realizar auditorías sobre ellos, y además lo hacemos de forma combativa, recopilando datos sin preguntar necesariamente a las plataformas.
Brando Benifei
La Ley de IA no tendrá un efecto directo el año que viene, entre otras cosas porque aún no estará en vigor durante las elecciones europeas ni las estadounidenses. Su aplicación llevará más tiempo. Sin embargo, es significativo que el texto recientemente aprobado exija ahora la transparencia obligatoria de los contenidos generados por IA, incluida la aplicación de marcas de agua. Aunque aún se está debatiendo el método técnico concreto y no se ha establecido una norma, nos hemos mantenido firmes en un punto: los contenidos generados por IA deben ser identificables en origen por los dispositivos. Esta identificación no debe limitarse al borrado o etiquetado por parte de una plataforma específica de redes sociales, sino que debe permitir reconocer el contenido como generado por IA.
En cuanto se apruebe el texto definitivo, que debería ser en marzo, pondremos en marcha un programa de cumplimiento voluntario. Animaremos a las empresas especializadas en IA generativa a que empiecen a aplicar estas normas, aunque sea de forma imperfecta y no definitiva, para ayudarnos a contener, entre otras cosas, el impacto de los deepfakes, que nos preocupa mucho. Somos conscientes del riesgo que representan en términos de creación de un nuevo tipo de desinformación. Pero empezando por los deepfakes, creemos que es esencial indicar claramente los contenidos que no son reales y que, por el contrario, son generados o manipulados por IA. Así que, aunque la Ley de IA no será plenamente aplicable en las próximas elecciones, creemos que es fundamental señalar claramente los contenidos que no son reales y que, por el contrario, son generados o manipulados por IA. Al igual que hicimos con el Voluntary Code for Social Media antes de que entrara en vigor la ley de servicios digitales, soy prudentemente optimista en cuanto a que la Ley de IA tendrá un impacto positivo, incluso antes de que se aplique plenamente.
En términos prácticos, ¿quién será responsable de esta tarea? ¿Lo harán las empresas internamente o recurrirán a organismos externos como la AIFL? ¿Cómo funcionará el proceso?
A las empresas les encantaría que la sociedad civil o alguien más se encargara de ello; será necesario que el desarrollador integre la marca de agua en los contenidos generados por IA como una característica obligatoria para todos sus sistemas de IA generativa. Esto tiene que ser responsabilidad del desarrollador. Sí, otros actores son útiles, pero queremos que asuman su responsabilidad.
La cuestión de la responsabilidad es una verdadera línea divisoria.
Gabriela Ramos
Me parece que la desinformación, la manipulación y la interferencia en la democracia no son cuestiones nuevas. La propaganda existe desde hace mucho tiempo. Lo realmente sorprendente, sin embargo, es la falta de marcos de responsabilidad para definir y tratar el problema.
En sentido descendente, por supuesto, hay mucho movimiento sobre la moderación de contenidos, sobre la responsabilidad de las plataformas por lo que emiten, por lo que no aceptan… mientras existan la Ley de Decencia y la disposición de no ser responsable de lo que se emite, la cuestión sigue siendo muy compleja. Más arriba, está la cuestión del uso de los datos de las personas, en particular los datos neuronales, porque se recoge y observa su comportamiento: no te animarías tanto a actuar si no tuvieran toda esa información al respecto.
Así que creo que tenemos que asegurarnos de que existen derechos neuronales y de que no se pueden establecer perfiles, lo que nos lleva a la cuestión de cómo cambiar el modelo de negocio. Todo lo que estoy diciendo se basa en esta recomendación sobre la ética de la inteligencia artificial que la UNESCO consiguió que aprobaran 193 países, y que trata muchas de estas cuestiones. A partir de ahora, trabajaremos con datos neuronales: así, quizá podamos evitar muchas manipulaciones.
También me gustaría hablar del impacto social y económico de la IA, sobre todo en la mano de obra. Por un lado, estamos hablando de una reducción neta de puestos de trabajo y, por otro, de un cambio radical en el mercado laboral.
Anne Bouverot
Actualmente asistimos a la aparición de un nuevo tipo de IA, en la línea de ChatGPT y otras herramientas similares, denominada IA generativa. Esta tecnología, capaz de generar textos, frases e imágenes, está cambiando considerablemente nuestra forma de trabajar, sobre todo en los sectores creativo, administrativo y profesional, en los que predomina el trabajo con palabras e imágenes. La IA generativa es un arma de doble filo. Por un lado, es una ayuda valiosa —yo misma la utilizo para ciertas tareas— y, por otro, tiende a sustituir actividades repetitivas, menos creativas y a menudo menos gratificantes. No cabe duda de que el impacto de la IA generativa en el mundo laboral tiene aspectos positivos, pero también plantea riesgos. Algunos empleos, sobre todo en la administración, que suelen estar ocupados por mujeres, podrían verse afectados. Aunque pocos empleos son susceptibles de sustituirse por completo, muchos otros sufrirán transformaciones significativas. Ello exigirá la aplicación de medidas como la mejora de las competencias, la experimentación y la formación, o la reorientación profesional a una escala sin precedentes, sobre todo teniendo en cuenta la rapidez de los cambios observados. A modo de recordatorio, ChatGPT surgió hace apenas un año, y ahora es objeto de constante debate. Existen varias estrategias para abordar estas cuestiones, y recientemente hemos creado un instituto en Francia para explorar algunas de estas cuestiones.
Cuando hablamos de IA, a la gente le encanta buscar analogías. ¿Es como la energía nuclear? ¿Es como la electricidad? Intentamos aprender del pasado. Pero ante un cambio tan radical en el mercado laboral, ¿conoce o se le ocurren otros casos en los que la acción gubernamental haya tenido especial éxito a la hora de reorientar y transformar la mano de obra?
Ojalá pudiera, pero no creo que hayamos visto nunca un cambio tan rápido. Es cierto que en la historia ha habido cambios importantes, como la llegada de la máquina de vapor o la imprenta, pero en general se produjeron a lo largo de varias generaciones. Hoy, en el espacio de un solo año, hemos asistido a grandes cambios en Francia. Empezamos a entender realmente lo que era ChatGPT quizá hacia febrero o marzo, cuando se introdujo en francés. Estoy convencida de que este fenómeno se está repitiendo en otros países, a un ritmo sin precedentes, superando incluso al de las redes sociales. Encontrar comparaciones históricas es, por tanto, especialmente difícil.
Al mismo tiempo, se trata de herramientas que pueden ayudarnos a aprender, por lo que realmente necesitamos que las empresas y el gobierno se comprometan con la formación a todas las edades y en todo tipo de trabajos, para los que están en la escuela, pero también para los que trabajan actualmente.
Anu Bradford
Creo que tenemos que tener en cuenta la crisis demográfica que estamos atravesando en Europa. Estamos entrando en una fase en la que no tenemos gente suficiente para hacer todo el trabajo que hay que hacer. Tradicionalmente, hemos barajado tres soluciones: aumentar la edad de jubilación, recurrir a la inmigración o incorporar a más mujeres al mercado laboral. Las tres juntas ya no bastan para resolver la crisis demográfica. La IA representa una oportunidad para aumentar la productividad europea y permitir que la tecnología nos ayude, pero no subestimo ni por un momento la transición y la agitación social que la acompañará si la transición no es perfectamente fluida. Y sólo quería añadir que también podría ser una oportunidad potencial para Europa.
Gabriela Ramos
No es sólo una cuestión de empleo en Europa. También está relacionada con el mercado laboral mundial. Tenemos que estudiar el problema de los trabajadores de los países en desarrollo, que cobran dos dólares la hora y tienen que hacer frente a la toxicidad de esta nueva economía. Esto es extremadamente importante.
Las claves de un mundo roto.
Desde el centro del globo hasta sus fronteras más lejanas, la guerra está aquí. La invasión de Ucrania por la Rusia de Putin nos ha golpeado duramente, pero no basta con comprender este enfrentamiento crucial.
Nuestra época está atravesada por un fenómeno oculto y estructurante que proponemos denominar: guerra ampliada.
Dada la aspiración de Europa de fomentar las empresas competitivas y regular las existentes, independientemente de su ubicación, surge una pregunta: ¿qué papel puede desempeñar la UE en el ecosistema de la IA, especialmente en un contexto en el que las plataformas estadounidenses han dominado la infraestructura durante más de una década? ¿Qué postura adoptar cuando esta infraestructura parece estar sólidamente bloqueada a estas alturas?
Anu Bradford
Me preocupa mucho el efecto amplificador que la IA podría tener sobre ciertos problemas, en particular la desinformación. Es probable que este problema, que ya existe, se vuelva aún más complejo de regular con la IA. Esta preocupación se extiende también al dominio actual de los mercados tecnológicos, que están extremadamente concentrados. Los europeos son plenamente conscientes de ello y llevan una década trabajando activamente en esta cuestión. Por ejemplo, Google ha sido objeto de tres procedimientos, que se han saldado con unos 10 mil millones de dólares en multas. Sin embargo, no hemos conseguido realmente abrir estos mercados para volverlos más competitivos. Y si nos fijamos en la carrera de la IA, vemos que los líderes son esos poderosos gigantes tecnológicos estadounidenses. Ahora disponen de nuevas herramientas para reforzar su dominio. Representan el mercado de IA más respetado y exitoso del mundo. Por eso acojo con gusto la adopción de la Ley de IA: cuanto más esperemos, más fuerte se hará este dominio y más difícil será contrarrestarlo. Creo que hay tres razones principales para la concentración de la IA en manos de los gigantes tecnológicos. Entonces, ¿qué se necesita realmente para tener estas capacidades de IA con el fin de competir?
En primer lugar, se necesitan datos. Yo defiendo el derecho fundamental a la protección de datos, como puedes leer en cualquiera de mis libros. Pero también digo que tenemos que entender que tiene que haber una forma de comercializar los datos que sea compatible con nuestro compromiso de protegerlos. Tenemos que hacer mucho más para crear un espacio europeo de datos, y comprometernos realmente a garantizar que las empresas europeas puedan explotar los datos generados en Europa. Las empresas estadounidenses y chinas nos llevan ventaja en este aspecto. Los gigantes tecnológicos, especialmente los estadounidenses, que dominan el mundo, tienen acceso a una gran variedad de datos a escala mundial. Los chinos tienen acceso masivo a datos procedentes de su vasto mercado nacional, con una población muy conectada que pasa mucho tiempo en línea.
En segundo lugar, además de datos, necesitamos potencia de cálculo, que es muy cara y muy difícil de obtener. En la actualidad, las mayores empresas tecnológicas estadounidenses tienen un rápido acceso a esta capacidad. Estados Unidos y China han podido permitirse su propia potencia de cálculo.
Y el tercer elemento es el talento. De nuevo, esto es algo que los europeos deben tomarse realmente en serio si queremos tomar la delantera en la carrera de la IA.
En resumen, al mismo tiempo que intentamos, a través de la Ley de IA y de la Ley de Mercados Digitales, desbloquear el mercado y erosionar parte del dominio de nuestros competidores, también necesitamos tener una estrategia paralela para permitir que las empresas europeas de IA tengan éxito, darles acceso a los datos, intentar comprender cómo pueden obtener la potencia de cálculo que necesitan y maximizar su capacidad para atraer talento a sus empresas.
En cuanto a la cuestión de romper la integración vertical, ¿deberíamos permitir que un solo grupo controle toda la cadena, desde el modelo, como ChatGPT, hasta la nube en la que se desarrolla, como Azure, y hasta el control de la aplicación y su interfaz de usuario, independientemente de cómo se diseñe? ¿Es algo que se tiene en cuenta?
Sí, creo que esa es precisamente la razón por la que han surgido iniciativas como GaiaX, que tratan de reducir nuestra dependencia de los servicios en la nube estadounidenses, al tiempo que tienen en cuenta el dominio de China en este sector. No sé si alguien aquí pueda ofrecer una visión más positiva del estado actual de GaiaX, pero es cierto que los intentos de crear una alternativa europea muchas veces han acabado en fracaso. Esto representa un reto colosal, y la cuestión de la integración vertical es realmente crucial.
La cuestión clave es si podemos aportar soluciones estructurales que limiten realmente la capacidad de controlar todos los aspectos del ecosistema tecnológico. Este tema es ampliamente debatido e incluso está empezando a ganar atención en Estados Unidos, donde la conciencia sobre la cuestión está creciendo, aunque tardíamente. También allí crece la preocupación por la naturaleza ramificada de esas empresas, que ahora controlan todos los aspectos del ecosistema. Esto significa que cualquier nuevo actor que intente penetrar en el mercado se enfrenta a múltiples retos.
Brando Benifei
Me gustaría expresar mi total acuerdo con los puntos planteados anteriormente, especialmente en lo que respecta a la importancia de los datos y la potencia de cálculo, que requieren acceso a recursos dentro de Europa. Como señaló Ursula Von der Leyen en su discurso de hace unos meses, considero que este aspecto es crucial. El talento también es esencial. Sin embargo, dejando de lado por un momento mi papel de negociador de la Ley de IA para hablar como político, está claro que esta cuestión tiene una importante dimensión política. Hay una falta de unidad y voluntad políticas a escala europea.
Superar estos retos requiere un propósito común y soberanía. Si nos fijamos en la organización de nuestros mercados de capitales y la circulación de talentos, muchos aspectos de la competitividad de la IA en la Unión dependen de las competencias de los Estados miembros, debido a las limitadas competencias de la Unión, las restricciones presupuestarias y la falta de poder fiscal para impulsar las decisiones. Además, carecemos de una auténtica política industrial a escala europea. No deseo desviarme de nuestro debate actual, pero debemos reconocer el problema que plantea la insuficiencia de la integración europea. En mi opinión, esta cuestión política no puede ignorarse si queremos superar nuestras deficiencias.
Además, aunque el nivel europeo ostente un poder significativo en términos de regulación antimonopolio y del mercado, como ya mencionamos, el impacto de las multas ha demostrado ser limitado. Quizá, una vez más, el problema radique en el ámbito de la soberanía y la voluntad políticas, que siguen faltando. Creo que este debate está intrínsecamente ligado a nuestras discusiones actuales.
Al principio de lo que iba a ser la Unión Europea, la idea era federarse, ¿no? Unirse en torno al carbón y al acero. En la misma línea, ¿podríamos pensar en federar las capacidades informáticas entre los distintos Estados miembros?
Por supuesto.
Anne Bouverot
No soy política ni voy a intentar serlo. Me gustaría abordar esta cuestión desde un punto de vista más tecnológico.
Recientemente hemos asistido a la aparición de nuevas start-ups en el campo de la IA generativa. Aunque muchas de ellas están vinculadas a grandes empresas establecidas, algunas operan de forma independiente. Por ejemplo, OpenAI, que es independiente, firmó un importante acuerdo de 13 mil millones de dólares con Microsoft. Del mismo modo, Anthropic, otra start-up independiente, firmó un acuerdo con Amazon. En Europa están surgiendo iniciativas similares: Alemania cuenta con Aleph Alpha, y Francia con LightOn y Mistral. Estos ejemplos demuestran que hay oportunidades para abordar segmentos específicos de la cadena de valor. Aunque la integración vertical pueda ser una solución temporal con riesgos, también ofrece una oportunidad, sobre todo con el enfoque del código abierto.
El código abierto no es ciertamente la panacea, pero representa un medio de acceder a un mercado poco competitivo e intentar abrirlo. Este enfoque merece ser explorado, sobre todo en Europa. Puede que no ofrezca todas las respuestas, pero es una iniciativa prometedora.
Hemos hablado del papel que puede desempeñar el Estado y de los incentivos que puede ofrecer. Pero la conclusión parece ser que todo debe ser determinado por agentes privados en un mercado igualmente privatizado. En esta configuración, ¿debemos resignarnos simplemente a esperar a ver qué modelo de negocio surge y luego intentar regularlo a posteriori? ¿O tiene el Estado un papel diferente que desempeñar en este contexto, más proactivo?
Gabriela Ramos
Creo que la Ley de IA, el decreto del presidente Biden, la cumbre sobre IA y el proceso de Hiroshima están contribuyendo colectivamente a un cambio en el discurso sobre la IA. La creciente concentración del mercado y el poder que ostentan estas empresas representan riesgos que ahora se reconocen y a los que los gobiernos se esfuerzan por responder. Las medidas adoptadas por los Estados, incluidas las mencionadas en los decretos presidenciales de Estados Unidos, sugieren que se está avanzando hacia un modelo de negocio diferente, alejado de la ausencia de regulación.
Asistir a la cumbre sobre IA en el Reino Unido me abrió los ojos. Antes de la cumbre, el presidente Biden emitió su decreto, y al final de la cumbre había consenso sobre la necesidad de regulación. Esto marcó un importante punto de inflexión en el discurso, reforzando la creencia de que la regulación es factible. La cuestión ahora es cómo proceder. Aunque el camino no está exento de obstáculos, disponemos de las herramientas necesarias. Estas empresas actúan como monopolios naturales, invierten en los mercados, crean, poseen derechos de propiedad intelectual y controlan los recursos desde el principio.
Un elemento clave de este cambio es una reevaluación de la forma en que gestionamos los datos, reconociendo su papel como moneda de cambio para la creación de nuevos productos. Otro aspecto del cambio de discurso es el reconocimiento de que los mercados influyen más que las normativas en la configuración de los gobiernos, y viceversa. Como economista y responsable política, solía creer que los gobiernos iban a la zaga, pero disponen de diversas herramientas, como incentivos, impuestos, mercados públicos y condicionamientos para influir en el comportamiento del mercado.
Europa está a la vanguardia de este cambio. Aunque gradual, este movimiento indica un cambio en la forma de intervenir de los gobiernos. La creación de institutos en Francia, Reino Unido y Estados Unidos es notable y refleja este cambio de discurso. Espero que los gobiernos se den cuenta de que no sólo tienen las herramientas para regular estas cuestiones, sino también el deber de hacerlo, lo cual es sumamente importante.
Cuando empecé a trabajar en la gobernanza mundial de la IA en 2017, había nueve iniciativas mundiales sobre gobernanza de la IA y hoy hay 50. Tenemos actores del sector privado que son globales, realmente globales, y tenemos diferentes enfoques de diferentes regiones. ¿Cómo podemos entender esta regionalización de enfoques? ¿Es un marco europeo el camino correcto porque atrae a otros? O, por el contrario, ¿es la regionalización un problema potencial porque, al ir demasiado por delante de los demás, estamos creando un panorama de gobernanza mundial fragmentado que puede manipularse fácilmente?
Anu Bradford
Ciertamente, existe un consenso cada vez mayor en todo el mundo sobre la necesidad de regular la IA. Sin embargo, todavía no hay acuerdo sobre el mejor enfoque para la regulación. Los gobiernos contemplan tres modelos principales de gobernanza de la IA.
El modelo estadounidense basado en el mercado hace especial hincapié en el libre mercado, minimiza el papel del gobierno y da prioridad a la innovación. Esta reticencia a regular se deriva de la dinámica competitiva de la rivalidad tecnológica con China: Estados Unidos no puede arriesgarse a socavar uno de sus recursos más importantes en esta confrontación.
China, por su parte, sigue un modelo regulador dirigido por el Estado, cuyo objetivo es reforzar el control político del Partido Comunista Chino y mantener la estabilidad social. Al tiempo que aprovecha aspectos de la IA, como el reconocimiento facial, para la vigilancia masiva, China también se enfrenta a desafíos, ya que la IA generativa puede socavar potencialmente su control al producir contenidos incompatibles con su régimen de censura. China ha respondido reprimiendo la IA generativa para alinear las producciones con los mensajes del partido.
Europa, por su parte, rechaza tanto el modelo basado en el mercado como el basado en el Estado. En su lugar, ha desarrollado un modelo regulador basado en los derechos que sitúa la protección de los derechos fundamentales, la preservación de las estructuras democráticas y una economía digital justa en el centro de sus preocupaciones. La Ley de la IA ilustra este compromiso al integrar la gobernanza en la legislación, en el marco del Estado de derecho y las instituciones democráticas.
Veo algunas tendencias mundiales, aunque no hay un acuerdo global. Muchos se están alejando del modelo estadounidense basado en el mercado, como demuestran las lecciones de la revolución de internet. La confianza equivocada en el autogobierno de las empresas tecnológicas, incluso en Estados Unidos, ha disminuido. Los cientos de páginas del último decreto presidencial que ordena a más de 25 agencias que regulen la IA así lo atestiguan.
Incluso Estados Unidos se está alejando de sus instintos tecno-libertarios, mientras que el resto del mundo se inclina hacia una mayor gobernanza. La cuestión clave es si este cambio se ajusta más al modelo chino de gobernanza. Varios países autoritarios, a los que no les gusta lo que proponen Brando Benifei y sus colegas del Parlamento Europeo, prefieren el enfoque chino. Prescinden de estos derechos y de la democracia y miran a China con admiración.
Hay una verdad incómoda que debo reconocer: nos resulta difícil desafiar el modelo regulador chino. China ha demostrado que la libertad no es un requisito previo para la innovación. Nos guste o no, ha construido una próspera economía tecnológica, incluida la IA, sin abrazar la libertad. Nos resulta difícil convencer al mundo de que adopte nuestro modelo cuando China ha demostrado que su modelo permite el control sin sacrificar el crecimiento económico ni la innovación. Han conseguido equilibrar esto aplicando un régimen de censura para mantener el control, limitando los datos para la formación de estos modelos. Aunque seguimos enfrentándonos a este reto, no debemos asumir que el modelo basado en los derechos es la norma mundial. Una parte creciente del mundo se está enfrentando al autoritarismo.
Usted escribió un famoso artículo sobre el efecto Bruselas. ¿Cómo ve que se manifiesta este fenómeno? Recientemente hemos visto cómo California, por ejemplo, adoptaba un enfoque muy diferente en materia de protección de datos y se acercaba al de la Unión Europea. California también ha adoptado un enfoque muy diferente de los derechos de los niños en línea. ¿Cómo se manifiestan estos cambios en los distintos mercados y países?
Si nos atenemos a la idea de que existe un creciente impulso mundial para la regulación, un ejemplo notable es la Unión Europea, un respetado legislador que ha demostrado una eficaz gobernanza de la IA. La Unión Europea ha definido un conjunto exhaustivo de normas y disposiciones, proporcionando un modelo reproducible para los gobiernos de todo el mundo. Los países que pretenden regular la IA disponen ahora de un modelo de legislador democrático como alternativa al modelo chino. Esto presenta un potencial significativo para el efecto Bruselas, donde el enfoque de la UE podría ser adoptado por varios gobiernos.
Además, podría producirse un efecto Bruselas por parte de las empresas de IA. Al tratar de cumplir con la Ley de IA, las empresas pueden optar por ampliar sus obligaciones de gobernanza de datos a otros mercados. Aunque no se trata de un efecto Bruselas pleno, hay casos en los que las empresas podrían verse influidas, entre otras cosas por el actual discurso político que hace hincapié en las decisiones que toman para dar forma a sus prácticas éticas en Europa. A medida que evolucionen las expectativas, podríamos asistir a una ampliación de las medidas de cumplimiento a escala mundial.
En la cumbre sobre seguridad de la IA celebrada en el Reino Unido, el decreto de Joe Biden se publicó el lunes y la cumbre comenzó dos días después: parecía una carrera de fondo. Cuando le dije a un alto funcionario que me parecía estupendo, me contestó que no era una carrera, sino que todo estaba coordinado: los esfuerzos estaban planificados. ¿Qué opina de la Ley de IA en este caso? ¿Qué opina del papel global que podría desempeñar? ¿Cómo encaja en las diversas cuestiones geopolíticas en juego?
Brando Benifei
En primer lugar, nuestro enfoque consiste en transformar los códigos de conducta y las recomendaciones existentes en leyes obligatorias. Por ejemplo, el código de conducta del G7 sobre IA generativa está en consonancia con el reglamento de la Ley de IA, pero la principal diferencia radica en nuestra capacidad para hacer cumplir estas normas, en lugar de limitarnos a solicitar su cumplimiento a las grandes empresas tecnológicas. Nuestro objetivo es gobernar, supervisar y hacer cumplir estas normas.
También me gustaría destacar el caso de Sudamérica, que es un ejemplo interesante. Varios países sudamericanos están entrando en debates sobre la protección de datos y la regulación de la IA. Sin embargo, los legisladores de esos países se enfrentan a desafíos, entre otras cosas por la falta de un mercado integrado. Las grandes empresas tecnológicas están ejerciendo presión sobre los mercados nacionales, lo que puede perjudicar a las economías. Tenemos que reconocer que tener un mercado único nos da la capacidad de definir las normas, a pesar de la oposición de algunas grandes empresas tecnológicas.
La evolución del debate sobre la IA puede verse claramente en el caso de la marca de agua de los contenidos generados por la IA, inicialmente considerada imposible por los gigantes tecnológicos. Hoy en día, este principio está ampliamente aceptado y el debate se ha desplazado hacia cuestiones de derechos de autor, lo que demuestra que las posturas pueden evolucionar. Es esencial subrayar que el mercado integrado refuerza nuestra posición frente a los gigantes tecnológicos. Aunque la ley sobre IA ofrece un modelo para la innovación, su aplicación inmediata en otros lugares puede resultar difícil debido a las diferencias culturales en materia de protección de datos y de los consumidores.
Observo que cada vez se aboga más por una legislación más concreta. Podría haber variaciones y distintos niveles de aplicación. He mantenido muchas conversaciones con funcionarios y legisladores canadienses, explorando diversos grados de evaluación obligatoria del cumplimiento y de evaluación del impacto sobre los derechos fundamentales. Parece haber cierta frustración con el enfoque de recomendaciones ineficaces y compromiso voluntario, que claramente no está funcionando.
Espero que sea posible avanzar en general en nuestra dirección y no en una dirección autoritaria. Muchos de los presentes sabrán que hemos dedicado mucho tiempo y esfuerzo a la cuestión de la vigilancia biométrica. Esta fue una preocupación central durante las negociaciones para evitar la aparición repentina de una sociedad de vigilancia en Europa sin que el público lo supiera y se diera cuenta. Este aspecto es crucial y realmente nos diferencia del planteamiento chino.
Anne Bouverot
Después de la cumbre británica sobre IA, Francia organizará la siguiente, y eso me parece apasionante. Es algo que algunos de nosotros hemos estado defendiendo. Aún no se ha confirmado la fecha exacta, pero probablemente será hacia finales de año. Dado el intervalo de un año entre las cumbres, nuestro objetivo es explorar lo que podemos conseguir mientras tanto, sobre todo en el ámbito de la gobernanza de la IA. Ya hay 50 iniciativas en marcha, como ya oímos, incluido el informe de la UNESCO en el que participó Gabriela Ramos.
Una vez que se adopte formalmente la Ley de IA, lo que ocurrirá pronto, tenemos previsto estudiar cómo puede ampliar su impacto a escala mundial. Hay que encontrar un delicado equilibrio entre los distintos eventos y grupos, como hizo el G7 al influir en la Ley de IA. Explorar la colaboración basada en valores compartidos es crucial, ya que estoy de acuerdo con los sentimientos expresados anteriormente. Alcanzar un acuerdo potente se convierte en un reto con valores diversos. Antes de la cumbre francesa, tenemos la intención de reunir propuestas, y estoy segura de que muchas personas en esta sala contribuirán con ello.
Las claves de un mundo roto.
Desde el centro del globo hasta sus fronteras más lejanas, la guerra está aquí. La invasión de Ucrania por la Rusia de Putin nos ha golpeado duramente, pero no basta con comprender este enfrentamiento crucial.
Nuestra época está atravesada por un fenómeno oculto y estructurante que proponemos denominar: guerra ampliada.
Gabriela Ramos
Permítanme compartir con ustedes la recomendación de la UNESCO. Es una ley no vinculante, basada en los derechos humanos, la dignidad humana y la sostenibilidad, principios con los que todo el mundo parece estar de acuerdo. La clave no es sólo contar con estos diversos acuerdos; en la UNESCO hemos facilitado la creación de un instrumento, el primero de este tipo, que prohíbe la vigilancia masiva y el scoring social e impide dotar de personalidad jurídica a un desarrollo. Sin embargo, la eficacia de estos acuerdos depende de su traducción en políticas concretas.
Hemos desarrollado un método de evaluación de la preparación en colaboración con 50 países. Como respuesta a la mención de Brando de América Latina y el Caribe, esos países han creado un consejo para aplicar la recomendación de la UNESCO. El paso crucial es que los países comprendan cómo pueden mejorar sus marcos jurídicos e institucionales para orientar la IA de forma responsable. Estoy trabajando con socios europeos y con las autoridades holandesas porque, en la práctica, es difícil saber qué ministerio es el responsable: el ministro de lo Digital o el ministro de Justicia.
Todos estos esfuerzos sólo tendrán un impacto significativo si se integran en las estructuras jurídicas e institucionales de los distintos países. Como se ha señalado acertadamente, cada país tiene preferencias diferentes, y el papel de la UNESCO no es dictar, sino proporcionar un marco. Algunos países son reacios a asumir riesgos, mientras que otros sí lo hacen, y el objetivo último es dotar a los gobiernos de los medios necesarios para gobernar estas tecnologías.
Usted ha hablado de la importancia crucial de nuestros datos y de su impacto colectivo, que alimenta el modelo económico y desempeña un papel esencial en el negocio de la inteligencia artificial. ¿Qué opina al respecto? ¿Qué opina sobre la gobernanza de los datos y cómo debería cambiar?
Nuestra recomendación es muy clara: los datos no deberían ser propiedad de quienes los recopilan; deberían pertenecer a las personas. Las personas deben tener derecho a decidir cómo se utilizan sus datos, a ser informadas sobre su uso y a tener la opción de eliminarlos: esta es una preocupación crucial a largo plazo. Otro problema que contribuye a los prejuicios es que los datos se recogen principalmente en el Norte, mientras que la mitad del mundo no tiene acceso estable a Internet. Es vital garantizar la calidad y la transparencia de los datos. Disponer de un data trust en lenguas específicas, como hace Francia, es esencial.
Ahora profundicemos en algo más ambicioso. Desde un punto de vista económico, estas plataformas actúan como monopolios naturales, como Bell y el teléfono. Replicar varias veces una infraestructura de este tipo es ineficiente. El reto surge cuando estas plataformas controlan los datos que inicialmente se ponen en el mercado. Una solución propuesta es la nacionalización: ¿por qué no considerarla?
Marc Faddoul
Tu punto sobre el data trust es crucial, y actualmente hay una gran división en el mercado de la IA generativa entre modelos abiertos y no abiertos. Europa parece inclinarse por modelos más abiertos, lo que parece una decisión acertada no sólo desde el punto de vista ético, sino también económico. Las empresas pueden ser reacias a delegar porque, para aprovechar plenamente el potencial de la IA generativa, necesitan integrar sus nuevos modelos con su base de conocimientos interna. Confiar todo esto a los propietarios de infraestructuras estadounidenses en sistemas que no controlan puede ser un obstáculo. Por ello, pueden optar por ejecutar sus modelos localmente. Es probable que el enfoque de código abierto genere un valor considerable en este contexto.
Los europeos también disponen de una gran cantidad de datos, como podemos ver en Francia con el INA, por ejemplo. No es sólo una cuestión de cantidad, sino también de calidad del contenido. La creación de una infraestructura de datos, el establecimiento de elementos comunes y la posibilidad de que los modelos europeos recurran a esos datos y los exploten colectivamente podría generar un importante valor económico. Queda mucho por explorar y conseguir en este ámbito.