Cette conversation est la transcription de la table ronde « The Economic and social impact of AI », modérée par Martin Tisné, qui a réuni Anu Bradford, Anne Bouverot, Gabriela Ramos, Marc Faddoul et Brando Benifei lors de la première édition du Sommet Grand Continent, en Vallée d’Aoste, du 18 au 20 décembre 2023. Nous publions les actes du Sommet ainsi que les vidéos des sessions publiques.

Cette publication s’inscrit dans la continuité de discussions menées dans le cadre du séminaire « Les sciences humaines face aux transformations sociales », organisé conjointement par le Groupe d’études géopolitiques et le programme Management of Social Transformations (MOST) de l’UNESCO, auquel Gabriela Ramos a participé, à la fois en tant que Sous-directrice générale pour les sciences sociales et humaines de l’UNESCO, et intervenante lors d’une séance consacrée à l’impact social de l’intelligence artificielle.

Martin Tisné 

L’année 2024 est une année électorale charnière dans le monde entier, impliquant environ 2 milliards d’électeurs. Assisterons-nous à un changement qualitatif dans l’impact de la désinformation sur les élections et la démocratie ? Cela changera-t-il fondamentalement la relation des gens avec la vérité, après l’érosion dont nous avons déjà été témoins ? Ou s’agit-il plutôt d’une différence quantitative, grâce à laquelle il sera possible de faire plus avec moins ? 

Marc Faddoul

Nous assistons à l’émergence d’outils innovants facilitant la création d’un type inédit de désinformation. Ces outils sont généralement introduits progressivement, et non pas de manière abrupte, à l’instar de ce que l’on observe avec les Deepfakes. Bien que les Deepfakes soient un sujet de discussion depuis quelque temps, ils ne représentent pas encore la forme prédominante de désinformation. Cependant, de nouveaux types de désinformation apparaissent, en particulier ceux liés à l’intelligence artificielle générative.

Prenons l’exemple des élections, un domaine que mon organisation à but non lucratif, IA Forensic, a étudié en profondeur. Récemment, nous avons remarqué que les chatbots, lorsqu’ils sont interrogés sur les élections, fournissent souvent des informations erronées, telles que des résultats de sondages incorrects ou l’existence de fausses élections, et citent même des candidats inexistants. Nous avons observé que jusqu’à 30 % des réponses des chatbots comportaient des inexactitudes factuelles. Un autre phénomène inquiétant est celui des chatbots citant des sources fiables, mais introduisant des erreurs dans leurs réponses. Ce type de désinformation, jusqu’alors inconnu, est préoccupant, car il permet à un plus grand nombre de personnes de produire et de diffuser de la désinformation à une échelle plus vaste.

De plus en plus de gens vont donc pouvoir s’engager dans des opérations de désinformation. Quel sera l’impact de ce phénomène ? Comment vous préparez-vous à l’année à venir à IA Forensic ? La situation vous semble-t-elle sensiblement différente de ce qu’elle était auparavant ?

Marc Faddoul

L’enjeu dans notre domaine consiste à enquêter et à recueillir les bonnes données, ce qui nous permet de comprendre comment ces systèmes évoluent. De notre côté, cette évolution signifie principalement qu’il faut créer une nouvelle infrastructure pour collecter des données. Le Digital Services Act a en quelque sorte facilité cela en créant de nouvelles dispositions d’accès aux données pour des chercheurs tels que nous. Mais en tant qu’acteur externe, notre approche consiste à mener des audits sur eux, et nous le faisons également de manière combative, en collectant des données sans nécessairement demander aux plateformes

Brando Benifei

L’AI Act ne produira pas d’effet direct dans l’année à venir, notamment parce qu’il ne sera pas encore en vigueur lors des élections européennes et américaines. Sa mise en application demandera plus de temps. Toutefois, il est significatif que le texte, récemment approuvé, exige désormais une transparence obligatoire pour le contenu généré par l’IA, incluant l’application d’un watermarking. Bien que la méthode technique spécifique soit encore débattue et qu’une norme doive être établie, nous avons été fermes sur un point : le contenu généré par l’IA doit être identifiable à la source par les appareils. Cette identification ne devrait pas se limiter à une suppression ou à un étiquetage par une plateforme de réseaux sociaux spécifique, mais elle devrait permettre de reconnaître le contenu comme étant généré par l’IA.

Récemment, nous avons remarqué que les chatbots, lorsqu’ils sont interrogés sur les élections, fournissent souvent des informations erronées.

Marc Faddoul

Dès l’approbation du texte final, qui devrait avoir lieu en mars, nous lancerons un programme de conformité volontaire. Nous encouragerons les entreprises spécialisées en IA générative à commencer à appliquer ces règles, même de manière imparfaite et non définitive, pour nous aider à contenir, entre autres, l’impact des deepfakes, qui nous préoccupe grandement. Nous sommes conscients du risque qu’ils représentent en termes de création d’un nouveau type de désinformation. Mais à partir des deepfakes, nous pensons qu’il est essentiel de signaler clairement les contenus qui ne sont pas réels et qui sont, au contraire, générés ou manipulés par l’IA. Ainsi, bien que l’AI Act ne soit pas pleinement applicable lors des prochaines élections, nous pensons qu’il est crucial de signaler clairement les contenus non réels, générés ou manipulés par l’IA. Tout comme nous l’avons fait avec le Voluntary Code for Social Media avant l’entrée en vigueur de la DSA, je suis prudemment optimiste quant à l’impact positif de l’AI Act, même avant son application complète.

Concrètement, qui sera responsable de cette tâche ? Les entreprises s’en chargeront-elles en interne ou dépendrez-vous d’entités externes comme l’AIFL ? Comment le processus fonctionne-t-il ?

Brando Benifei

Les entreprises aimeraient bien que la société civile ou quelqu’un d’autre s’en occupe ; il sera nécessaire que le développeur intègre le watermarking dans le contenu généré par l’IA en tant que dispositif obligatoire pour tous leurs systèmes d’IA générative. Cela doit être une responsabilité du développeur. Oui, les autres acteurs sont utiles, mais nous voulons qu’ils assument leurs responsabilités.

La question de la responsabilité est une véritable ligne de fracture.

Gabriela Ramos

Il me semble que la désinformation, la manipulation, l’ingérence dans la démocratie ne sont pas de nouveaux enjeux. La propagande existe depuis longtemps. Par contre, ce qui est vraiment surprenant, c’est l’absence de cadres de responsabilité pour définir et traiter le problème.

En aval, bien sûr, il y a beaucoup de mouvement pour la modération du contenu, pour la responsabilité des plateformes concernant ce qu’elles diffusent, ce qu’elles n’acceptent pas — tant que le Decency Act et la disposition de ne pas être responsable de ce que vous diffusez sont en place, la question demeure très complexe. En amont, se pose la question de l’utilisation des données des citoyens, notamment celle des données neuronales, car vous comportements sont recueillis et observés : vous ne seriez pas aussi incité à agir s’ils n’avaient pas toutes ces informations sur cela. 

Il me semble que la désinformation, la manipulation, l’ingérence dans la démocratie ne sont pas de nouveaux enjeux.

Gabriela Ramos

Par conséquent, je pense que nous devons nous assurer qu’il existe des droits neuronaux et que vous ne pouvez pas être profilé, ce qui nous amène à la question de comment changer de business model. Tout ce que je dis est basé sur cette recommandation sur l’éthique de l’intelligence artificielle que l’UNESCO a réussi à faire approuver par 193 pays, et qui aborde beaucoup de ces problématiques. Désormais, nous allons travailler sur les données neuronales : ce faisant, nous pourrons peut-être prévenir de nombreuses manipulations.

J’aimerais aussi parler de l’impact social et économique de l’IA, notamment sur la main-d’œuvre. On parle, d’une part, d’une diminution nette des emplois et, d’autre part, nous parlons d’un changement radical sur le marché du travail.

Anne Bouverot

Nous sommes actuellement témoins de l’émergence d’un nouveau type d’IA, à l’image de ChatGPT et d’autres outils similaires, que l’on qualifie d’IA générative. Cette technologie, capable de générer textes, phrases et images, modifie considérablement notre manière de travailler, en particulier dans les secteurs créatifs, administratifs et professionnels où le travail avec les mots et les images est prépondérant. L’IA générative est un outil à double tranchant. D’un côté, elle est une aide précieuse — je l’utilise moi-même pour certaines tâches — et, de l’autre, elle tend à se substituer aux activités répétitives, moins créatives et souvent moins gratifiantes. Il est indéniable que l’impact de l’IA générative sur le monde du travail comporte des aspects positifs, mais il soulève également des risques. Certains emplois, en particulier dans le domaine administratif, souvent occupés par des femmes, pourraient être affectés. Bien que peu d’emplois soient susceptibles d’être complètement remplacés, de nombreux autres subiront des transformations significatives. Ceci nécessite la mise en place de mesures telles que le renforcement des compétences, l’expérimentation et la formation, ou encore la réorientation professionnelle à une échelle sans précédent, surtout au vu de la rapidité des changements observés. Pour rappel, ChatGPT est apparu il y a à peine un an, et il fait désormais l’objet de discussions constantes. Il existe plusieurs stratégies pour aborder ces enjeux, et nous avons récemment mis en place un institut en France pour explorer certaines de ces questions.

Quand on parle d’IA, les gens adorent chercher des analogies. Est-ce comme le nucléaire ? Est-ce comme l’électricité ? On cherche à tirer les leçons du passé. Mais face à un changement aussi radical sur le marché du travail, avez-vous connaissance, ou pouvez-vous envisager, d’autres cas où l’action du gouvernement été particulièrement réussies dans le domaine de la réorientation et de la reconversion de la main-d’œuvre ?

Anne Bouverot

J’aimerais pouvoir le faire, mais je ne pense pas que nous ayons jamais connu un changement aussi rapide. Certes, l’histoire a connu des bouleversements significatifs, comme avec l’avènement de la machine à vapeur ou de la presse à imprimer, mais ces évolutions s’étalaient généralement sur plusieurs générations. Aujourd’hui, en l’espace d’un an seulement, nous avons assisté à d’importants changements en France. Nous avons véritablement commencé à comprendre ce qu’était ChatGPT peut-être autour de février ou mars, lorsqu’il a été introduit en français. Je suis convaincue que ce phénomène se répète dans d’autres pays, survenant à un rythme inédit, surpassant même celui des réseaux sociaux. Trouver des comparaisons historiques est donc particulièrement ardu.

Pour rappel, ChatGPT est apparu il y a à peine un an, et il fait désormais l’objet de discussions constantes.

Anne Bouverot

En même temps, ce sont des outils qui peuvent nous aider à apprendre, donc nous avons vraiment besoin que les entreprises et le gouvernement s’engagent pour la formation à tous les âges dans tous les types d’emplois, pour ceux qui sont à l’école, mais aussi pour ceux qui sont actuellement employés. 

Anu Bradford

Je pense qu’il faut garder à l’esprit la crise démographique que nous traversons en Europe. Nous entrons dans une phase où nous n’avons pas assez de personnes pour accomplir tout le travail qui doit être fait. Traditionnellement, nous envisagions trois solutions : repousser l’âge de la retraite, recourir à l’immigration, ou faire entrer davantage de femmes sur le marché du travail. Les trois combinées ne sont aujourd’hui plus suffisantes pour résoudre la crise démographique. L’IA représente une opportunité pour augmenter la productivité européenne et permettre à la technologie de nous aider, mais je ne sous-estime pas un instant la transition et les bouleversements sociaux qui l’accompagneront si la transition n’est pas parfaitement fluide. Mais je voulais simplement ajouter que cela pourrait également être une opportunité potentielle pour l’Europe.

Gabriela Ramos

Ce n’est pas seulement une question d’emplois en Europe. C’est aussi lié au marché mondial du travail. Nous devons vraiment nous pencher sur le problème des travailleurs dans les pays en développement qui reçoivent des salaires de 2 dollars de l’heure tout en devant faire face à la toxicité de cette nouvelle économie. C’est extrêmement important.

Au vu de l’aspiration européenne à favoriser des entreprises compétitives et à réglementer les entreprises existantes, indépendamment de leur localisation, une question se pose : quel rôle l’Union peut-elle jouer dans l’écosystème de l’IA, surtout dans un contexte où les plateformes américaines dominent l’infrastructure depuis plus d’une décennie ? Quelle position devons-nous adopter alors que cette infrastructure semble solidement verrouillée à ce stade ?

Anu Bradford

Je suis très préoccupée par l’effet amplificateur que l’IA pourrait avoir sur certains problèmes, notamment la désinformation. Ce problème, déjà existant, risque de devenir encore plus complexe à réguler avec l’IA. Cette préoccupation s’étend également à la domination actuelle des marchés technologiques, qui sont extrêmement concentrés. Les Européens en sont pleinement conscients et travaillent activement sur cette question depuis la dernière décennie. Par exemple, Google a fait l’objet de trois procédures, résultant en environ 10 milliards de dollars d’amendes. Cependant, nous n’avons pas vraiment réussi à ouvrir ces marchés pour les rendre plus compétitifs. Et si l’on observe la course à l’IA, on constate que les leaders sont ces puissants géants technologiques américains. Ils disposent désormais de nouveaux outils pour renforcer leur domination. Ils représentent le marché mondial de l’IA le plus respecté et performant. C’est pour cette raison que je salue l’adoption de l’AI Act : plus nous attendons, plus cette domination se renforce et devient difficile à contrer. Je pense qu’il y a trois principales raisons expliquant la concentration de l’IA entre les mains des géants technologiques. Alors, qu’est-ce qui est réellement nécessaire pour posséder ces capacités en IA afin de participer à la course ?

Tout d’abord, il faut des données. Je défends le droit fondamental à la protection des données, comme vous pouvez le lire dans n’importe lequel de mes livres. Mais je dis aussi que nous devons comprendre qu’il doit y avoir une manière pour nous de commercialiser les données de manière compatible avec notre engagement envers leur protection. Nous devons faire beaucoup plus pour créer un espace des données européens, et vraiment nous engager pour que les entreprises européennes puissent exploiter les données générées en Europe. Les entreprises américaines et chinoises nous devancent en la matière. Les géants technologiques, surtout les géants technologiques américains, qui dominent le monde, ont accès à des données diverses à l’échelle mondiale. Les Chinois ont un accès massif aux données de leur vaste marché domestique, avec une population très connectée qui passe beaucoup de temps en ligne.

Deuxièmement, en plus des données, on a besoin de la puissance de calcul, qui est très chère et très difficile à obtenir. Actuellement, les plus grandes entreprises technologiques américaines ont un accès rapide à cette capacité. Les États-Unis et la Chine ont pu se permettre d’avoir leur puissance de calcul. 

Les Chinois ont un accès massif aux données de leur vaste marché domestique, avec une population très connectée qui passe beaucoup de temps en ligne.

Anu Bradford

Et le troisième élément, c’est le talent. À nouveau, voilà quelque chose que les Européens doivent vraiment prendre au sérieux pour que nous puissions prendre la tête dans la course à l’IA. 

Bref, en même temps que nous essayons, à travers l’AI Act et à travers la loi sur les marchés numériques, de déverrouiller le marché et d’éroder une partie de la domination de nos concurrents, nous devons également avoir une stratégie parallèle pour permettre aux entreprises européennes d’IA de réussir, leur donner accès aux données, essayer de comprendre comment elles peuvent obtenir la puissance de calcul dont elles ont besoin, et maximiser leur capacité à attirer les talents dans leurs entreprises.

Concernant la question de la rupture de l’intégration verticale, devrions-nous permettre à un seul groupe de maîtriser l’ensemble de la chaîne, allant du modèle, comme ChatGPT, au Cloud sur lequel il est développé, tel qu’Azure, et jusqu’au contrôle de l’application et de son interface utilisateur, peu importe la manière dont celle-ci est conçue ? Est-ce un aspect que vous prenez en compte ?

Anu Bradford 

Effectivement, je pense que c’est précisément pour cette raison que des initiatives comme GaiaX ont vu le jour, cherchant à réduire notre dépendance vis-à-vis des services cloud américains, tout en prenant en compte la domination chinoise dans ce secteur. Je ne suis pas certain si quelqu’un ici peut offrir un regard plus positif sur l’état actuel de GaiaX, mais il est vrai que les tentatives de créer une alternative européenne se sont souvent soldées par des échecs. Cela représente un défi colossal, et la question de l’intégration verticale est effectivement cruciale.

La question clef est de savoir si nous pouvons apporter des solutions structurelles qui limitent réellement la capacité de contrôler chaque aspect de l’écosystème technologique. Ce sujet est largement discuté et commence même à gagner en attention aux États-Unis, où l’on prend conscience de cette question, bien que tardivement. Là-bas aussi, l’inquiétude grandit face à la nature ramifiée de ces entreprises qui contrôlent aujourd’hui tous les aspects de l’écosystème. Cela signifie que tout nouvel acteur tentant de pénétrer le marché doit faire face à de multiples défis.

Brando Benifei

Je souhaite exprimer mon plein accord avec les points précédemment évoqués, notamment concernant l’importance des données et de la puissance de calcul, qui nécessitent tous deux un accès aux ressources au sein de l’Europe. Comme Ursula Von der Leyen l’a souligné dans son discours il y a quelques mois, je considère cet aspect comme crucial. Les talents sont également essentiels. Cependant, en m’écartant un instant de mon rôle de négociateur de l’AI Act pour m’exprimer en tant qu’homme politique, il est évident que cette question revêt une dimension politique importante. Il y a un manque d’unité politique et de volonté au niveau européen.

Pour surmonter ces défis, il est nécessaire d’avoir un objectif commun et de la souveraineté. En examinant l’organisation de nos marchés de capitaux et la circulation des talents, de nombreux aspects de la compétitivité de l’IA au sein de l’Union dépendent des compétences des États membres, en raison des pouvoirs limités de l’Union, des contraintes budgétaires et du manque de pouvoir fiscal pour encourager des décisions. De plus, nous manquons d’une véritable politique industrielle au niveau européen. Je ne souhaite pas dévier de notre discussion actuelle, mais nous devons admettre le problème posé par l’insuffisance de l’intégration européenne. À mon avis, cette question politique ne peut pas être ignorée si nous souhaitons combler nos lacunes.

Pour surmonter les défis posés par l’IA, il est nécessaire d’avoir un objectif commun et de la souveraineté.

Brando Benifei

Par ailleurs, même si le niveau européen détient un pouvoir significatif en matière de réglementation antitrust et de marché, comme nous l’avons déjà mentionné, l’impact des amendes s’est avéré limité. Peut-être que, une fois de plus, le problème se trouve-t-il dans le domaine de la souveraineté et de la volonté politiques, qui font encore défaut. Je crois que ce débat est intrinsèquement lié à nos discussions actuelles.

Au début de ce qui allait devenir l’Union Européenne, l’idée était de fédérer, n’est-ce pas ? De rassembler autour du charbon et de l’acier. Dans cette même veine, pourrait-on envisager de fédérer les capacités de calcul informatique entre les différents États membres ?

Brando Benifei

Absolument.

Anne Bouverot

Je ne suis pas une politicienne et je n’essaierai pas de l’être. J’aimerais aborder cette question d’un point de vue plus technologique.

Nous avons observé récemment l’apparition de nouvelles startups dans le domaine de l’IA générative. Bien que beaucoup d’entre elles soient liées à de grandes entreprises établies, certaines opèrent de manière autonome. Par exemple, OpenAI, qui est indépendante, a signé un accord majeur de 13 milliards de dollars avec Microsoft. De la même manière, Anthropic, une autre startup distincte, a conclu un accord avec Amazon. En Europe, des initiatives similaires émergent : l’Allemagne possède Aleph Alpha, et la France a LightOn et Mistral. Ces exemples montrent qu’il y a des opportunités de s’attaquer à des segments spécifiques de la chaîne de valeur. Bien que l’intégration verticale puisse être une solution temporaire présentant des risques, elle offre également une opportunité, surtout avec l’approche open source.

L’open source n’est certes pas une panacée, mais il représente un moyen d’accéder à un marché non concurrentiel et de tenter de l’ouvrir. Cette approche mérite d’être explorée, notamment en Europe. Elle n’offre peut-être pas toutes les réponses, mais elle représente une initiative prometteuse.

Nous avons discuté du rôle que l’État peut jouer et des incitations qu’il peut offrir. Mais au fond, il semble que tout doive être déterminé par des acteurs privés au sein d’un marché tout aussi privatisé. Dans cette configuration, devons-nous simplement nous résigner à attendre de voir quel modèle d’entreprise émergera pour ensuite tenter de le réguler a posteriori ? Ou bien l’État a-t-il un rôle différent, plus proactif, à jouer dans ce contexte ?

Gabriela Ramos 

Je pense que l’AI Act, le décret du président Biden, le sommet sur l’IA et le processus d’Hiroshima contribuent collectivement à un changement dans le discours sur l’IA. La concentration croissante du marché et le pouvoir détenu par ces entreprises représentent des risques désormais reconnus et auxquels les gouvernements s’efforcent de répondre. Les actions entreprises par les États, y compris celles mentionnées dans les décrets présidentiels américains, suggèrent qu’il existe un mouvement vers un modèle commercial différent, qui se détourne de l’absence de réglementation. 

Ma participation au sommet sur l’IA au Royaume-Uni a été une révélation. Avant le sommet, le président Biden a émis son décret, et à l’issue du sommet, il y avait un consensus sur la nécessité de la réglementation. Cela a marqué un tournant significatif dans le discours, renforçant la conviction que la réglementation est réalisable. La question est désormais de savoir comment procéder. Bien que le chemin ne soit pas sans obstacles, nous disposons des outils nécessaires. Ces entreprises agissent comme des monopoles naturels, investissant les marchés, créant, détenant les droits de propriété intellectuelle et contrôlant les ressources dès le départ.

Il existe un mouvement vers un modèle commercial différent, qui se détourne de l’absence de réglementation. 

Gabriela Ramos

Un élément clef de ce changement est la réévaluation de la façon dont nous gérons les données, en reconnaissant leur rôle de monnaie d’échange pour la création de nouveaux produits. Un autre aspect du changement dans le discours est la reconnaissance que les marchés influencent plus que les réglementations en façonnant les gouvernements, et vice versa. En tant qu’économiste et responsable politique, j’ai longtemps cru que les gouvernements restaient en retrait, mais ils disposent de divers outils, tels que les incitations, les taxes, les marchés publics et le conditionnement, pour influencer le comportement des marchés.

L’Europe est à l’avant-garde de ce changement. Bien que progressif, ce mouvement indique un changement dans la manière dont les gouvernements interviennent. La création d’instituts en France, au Royaume-Uni et aux États-Unis est notable et elle reflète cette évolution du discours. J’espère que les gouvernements réalisent qu’ils ont non seulement les outils nécessaires pour réglementer ces enjeux, mais aussi un devoir en la matière, ce qui est extrêmement important.

Quand j’ai commencé à travailler sur la gouvernance mondiale de l’IA en 2017, il y avait neuf initiatives mondiales sur la gouvernance de l’IA et aujourd’hui il y en a cinquante. Nous avons des acteurs du secteur privé qui sont mondiaux, vraiment mondiaux, et nous avons différentes approches par différentes régions. Comment donner un sens à cette régionalisation des approches ? Le fait d’avoir un cadre européen constitue-t-il la bonne voie à suivre parce que c’est un pôle d’attraction pour d’autres ? Ou, au contraire, la régionalisation est-elle potentiellement un problème parce qu’en prenant trop d’avance sur les autres, nous créons en fait un paysage de gouvernance mondiale fragmenté qui peut facilement être manipulé ? 

Anu Bradford

Certes, il existe un consensus croissant dans le monde entier sur le fait que l’IA devrait faire l’objet d’une réglementation. Cependant, il n’y a toujours pas d’accord sur la meilleure approche en matière de réglementation. Les gouvernements contemplent trois principaux modèles de gouvernance de l’IA.

Le modèle américain fondé sur le marché met fortement l’accent sur le marché libre, il minimise le rôle du gouvernement et il donne la priorité à l’innovation. Cette réticence à réglementer découle de la dynamique concurrentielle de la rivalité technologique avec la Chine : les États-Unis ne peuvent pas risquer de miner une des leur plus importantes ressources dans cet affrontement.

La Chine, par contre, suit un modèle réglementaire dirigé par l’État, visant à renforcer le contrôle politique du Parti communiste chinois et à maintenir la stabilité sociale. Tout en tirant parti de certains aspects de l’IA, comme la reconnaissance faciale, pour la surveillance de masse, la Chine est également confrontée à des défis, car l’IA générative peut potentiellement saper son contrôle en produisant des contenus incompatibles avec son régime de censure. La Chine a réagi en réprimant l’IA générative afin d’aligner les productions sur les messages du parti.

En revanche, l’Europe rejette à la fois le modèle fondé sur le marché et le modèle fondé sur l’État. Au lieu de cela, l’Europe a développé un modèle réglementaire fondé sur les droits qui place la protection des droits fondamentaux, la préservation des structures démocratiques et d’une économie numérique équitable au cœur de ses préoccupations. L’AI Act illustre cet engagement en intégrant la gouvernance dans la législation, dans le cadre de l’État de droit et des institutions démocratiques.

J’observe certaines tendances mondiales, bien qu’un accord global fasse défaut. Beaucoup s’éloignent désormais du modèle américain fondé sur le marché, comme en témoignent les enseignements de la révolution Internet. La confiance mal placée dans l’autogestion des entreprises technologiques a diminué, même aux États-Unis. Les centaine de pages du dernier décret présidentiel ordonnant à plus de 25 agences de réglementer l’IA en témoignent.

Même les États-Unis s’éloignent de leurs instincts techno-libertaires, tandis que le reste du monde penche vers une gouvernance accrue. La question clef est de savoir si ce changement s’aligne davantage sur le modèle de gouvernance chinois. Plusieurs pays autoritaires, n’appréciant pas ce que Brando Benifei et ses collègues du Parlement européen proposent, préfèrent l’approche chinoise. Ils se passent de ces droits et de la démocratie et regardent la Chine avec admiration.

La confiance mal placée dans l’autogestion des entreprises technologiques a diminué, même aux États-Unis. 

Anu Bradford

Il y a une vérité inconfortable que je dois reconnaître : il est difficile pour nous de contester le modèle réglementaire chinois. La Chine a démontré que la liberté n’était pas une condition préalable à l’innovation. Que cela nous plaise ou non, elle a construit une économie technologique florissante, y compris dans le domaine de l’IA, sans embrasser la liberté. Il est difficile pour nous de persuader le monde d’adopter notre modèle alors que la Chine a montré que son modèle permet un contrôle sans sacrifier la croissance économique et l’innovation. Ils ont réussi à équilibrer cela en appliquant un régime de censure pour maintenir le contrôle, limitant les données pour la formation de ces modèles. Bien que nous continuions à faire face à ce défi, nous ne devrions pas supposer que le modèle fondé sur les droits est la norme mondiale. Une part croissante du monde s’accommode de l’autoritarisme.

Vous avez écrit un article célèbre sur l’effet Bruxelles, comment voyez-vous ce phénomène se manifester ? Nous avons vu récemment la Californie, par exemple, adopter une approche très différente en matière de protection des données et se rapprocher de celle de l’Union européenne. La Californie a aussi adopté une approche très différente en ce qui concerne les droits des enfants en ligne. Comment ces évolutions se déroulent-elles sur les différents marchés, dans les différents pays ?

Anu Bradford

Si l’on suit l’idée qu’il se renforce un élan mondial en faveur de la réglementation, un exemple notable est celui de l’Union européenne, un législateur respecté qui a fait preuve d’une gouvernance efficace de l’IA. L’Union européenne a défini un ensemble complet de règles et de dispositions, offrant ainsi un modèle reproductible aux gouvernements du monde entier. Les pays qui cherchent à réglementer l’IA disposent désormais d’un modèle de législateur démocratique comme alternative au modèle chinois. Cela présente un potentiel important pour l’effet Bruxelles, où l’approche de l’Union pourrait être adoptée par plusieurs gouvernements.

L’Union européenne a défini un ensemble complet de règles et de dispositions, offrant ainsi un modèle reproductible aux gouvernements du monde entier.

Anu Bradford

De plus, il pourrait y avoir un effet Bruxelles émanant des entreprises d’IA. Cherchant à se conformer à l’AI Act, ces entreprises pourraient choisir d’étendre leurs obligations en matière de gouvernance des données à d’autres marchés. Bien qu’il ne s’agisse pas d’un effet Bruxelles complet, il existe des cas où les entreprises pourraient être influencées, notamment en raison du discours politique actuel qui met l’accent sur les choix qu’elles font pour façonner leurs pratiques éthiques en Europe. À mesure que les attentes évoluent, nous pourrions assister à une extension des mesures de conformité à l’échelle mondiale.

Lors du sommet britannique sur la sécurité de l’IA, le décret présidentiel de Joe Biden a été promulgué le lundi et le sommet a commencé deux jours plus tard : on avait l’impression d’une course qui tirait tout le monde vers le haut. Lorsque j’ai dit à un haut fonctionnaire que je trouvais cela formidable, il m’a répondu qu’il ne s’agissait pas d’une course, mais que tout était coordonné : les efforts étaient planifiés. Qu’en est-il de l’AI Act dans ce cas ? Que penses-tu du rôle mondial qu’elle pourrait jouer ? Comment s’inscrit-il dans les différentes questions géopolitiques en jeu ? 

Brando Benifei

Premièrement, notre démarche consiste à transformer les codes de conduite existants et les recommandations en lois obligatoires. Par exemple, le code de conduite du G7 sur l’IA générative est en phase avec le règlement sur l’AI Act, mais la différence majeure réside dans notre capacité à faire appliquer ces règles, plutôt que de simplement solliciter la conformité des grandes entreprises technologiques. Notre objectif est de gouverner, surveiller et appliquer ces réglementations.

Je tiens aussi à souligner le cas de l’Amérique du Sud, qui constitue un exemple intéressant. Plusieurs pays sud-américains entrent dans des débats sur la protection des données et la réglementation de l’IA. Toutefois, les législateurs y rencontrent des défis, notamment en raison de l’absence d’un marché intégré. Les grandes entreprises technologiques exercent une pression sur les marchés nationaux, ce qui risque de nuire aux économies. Il faut reconnaître que disposer d’un marché unique nous confère la capacité de définir les règles, malgré l’opposition de certaines grandes entreprises technologiques.

Notre démarche consiste à transformer les codes de conduite existants et les recommandations en lois obligatoires. 

Brando Benifei

L’évolution du débat sur l’IA se manifeste clairement dans le cas du watermarking des contenus générés par l’IA, initialement considéré comme impossible par les géants technologiques. Aujourd’hui, ce principe est largement accepté et le débat s’est orienté vers les questions de droit d’auteur, ce qui montre que les positions peuvent évoluer. Il est essentiel de souligner que le marché intégré renforce notre position face aux géants technologiques. Bien que la loi sur l’IA propose un modèle d’innovation, son application immédiate ailleurs peut s’avérer difficile en raison des différences culturelles en matière de protection des données et des consommateurs.

Je remarque que l’on insiste de plus en plus pour avoir une législation plus concrète. Il pourrait y avoir des variations et des niveaux différents dans sa mise en œuvre. J’ai eu de nombreuses discussions avec des fonctionnaires et des législateurs canadiens, explorant divers degrés d’évaluation de la conformité obligatoire et d’évaluation de l’impact sur les droits fondamentaux. Il semble y avoir une certaine frustration face à l’approche des recommandations inefficaces et de l’engagement volontaire, qui ne marche visiblement pas.

J’espère qu’il sera possible d’évoluer globalement dans notre sens plutôt que dans une direction autoritaire. Un grand nombre de personnes présentes savent que nous avons consacré beaucoup de temps et d’efforts à la question de la surveillance biométrique. Il s’agissait d’une préoccupation centrale lors des négociations pour empêcher l’émergence soudaine d’une société de surveillance en Europe sans que les citoyens le sachent et s’en rendent compte. Cet aspect est crucial et nous distingue véritablement de l’approche chinoise.

Anne Bouverot

Après le sommet britannique sur l’IA, la France accueillera le prochain, et je trouve cela passionnant. C’est quelque chose que quelques-uns d’entre nous ont défendu. La date exacte n’est pas encore confirmée, mais ce sera probablement vers la fin de l’année. Étant donné l’écart d’un an entre les sommets, notre objectif est d’explorer ce que nous pouvons accomplir entre-temps, en particulier dans le domaine de la gouvernance de l’IA. Il y a déjà cinquante initiatives en cours, comme nous l’avons déjà entendu, y compris le rapport de l’UNESCO auquel Gabriella Ramos a participé.

Une fois que la l’AI Act sera officiellement adopté, ce qui ne saurait tarder, nous prévoyons d’étudier la façon dont il pourra étendre son impact à l’échelle mondiale. Il y a un équilibre délicat à trouver entre divers événements et groupes, comme l’a fait le G7 en influençant la loi sur l’IA. Il est crucial d’explorer la collaboration basée sur des valeurs partagées, car je suis d’accord avec les sentiments exprimés plus tôt. Parvenir à un accord puissant devient un défi avec des valeurs diverses. Avant le sommet français, nous avons l’intention de rassembler des propositions, et je suis certain que de nombreuses personnes présentes dans cette salle contribueront à cet effort.

Gabriela Ramos

Permettez-moi de partager avec vous la recommandation de l’UNESCO. Il s’agit d’une loi non contraignante, axée sur les droits de l’homme, la dignité humaine et la durabilité — des principes sur lesquels tout le monde semble s’aligner. La clef n’est pas seulement d’avoir ces différents accords ; à l’UNESCO, nous avons facilité la création d’un instrument, le premier du genre, qui interdit la surveillance de masse et le scoring social et empêche d’accorder une personnalité juridique à un développement. Cependant, l’efficacité de ces accords repose sur leur traduction en politiques concrètes.

Nous avons mis au point une méthode d’évaluation de l’état de préparation en collaboration avec 50 pays. En réponse à la mention faite par Brando de l’Amérique latine et des Caraïbes, ces pays ont créé un conseil pour mettre en œuvre la recommandation de l’UNESCO. L’étape cruciale consiste pour les pays à comprendre comment ils peuvent améliorer leurs cadres juridiques et institutionnels pour guider l’IA de manière responsable. Je collabore avec des partenaires européens et les autorités néerlandaises car, dans la pratique, il est souvent difficile de savoir quel ministère est responsable — le ministre du Numérique ou le ministre de la Justice. 

L’efficacité des accords internationaux sur l’IA repose sur leur traduction en politiques concrètes.

Gabriela Ramos

Tous ces efforts n’auront un impact significatif que s’ils sont intégrés dans les structures juridiques et institutionnelles des différents pays. Comme il a été fort justement souligné, chaque pays a des préférences différentes, et le rôle de l’UNESCO n’est pas de dicter mais de fournir un cadre. Certains pays sont réticents à prendre des risques, tandis que d’autres en prennent, et l’objectif ultime est de donner aux gouvernements les moyens de gouverner ces technologies.

Vous avez parlé de l’importance cruciale de nos données et de leur impact collectif qui alimente le modèle économique et joue un rôle essentiel dans le business de l’intelligence artificielle. Quel est votre point de vue à ce sujet ? Quel est votre point de vue sur la gouvernance des données et sur la façon dont cela devrait changer ?

Gabriela Ramos 

Notre recommandation est très claire : les données ne devraient pas être la propriété de ceux qui les collectent ; elles devraient plutôt appartenir aux individus. Les gens devraient avoir le droit de décider comment leurs données sont utilisées, d’être informés de leur utilisation et d’avoir la possibilité de les effacer : c’est une préoccupation cruciale à long terme. Un autre problème contribuant aux préjugés est que les données sont principalement collectées dans le Nord, alors que la moitié du monde n’a pas d’accès stable à Internet. Il est vital de garantir la qualité des données et la transparence. Disposer d’un data trust dans des langues spécifiques, comme le fait la France, est essentiel.

Maintenant, plongeons dans quelque chose de plus ambitieux. D’un point de vue économique, ces plateformes agissent comme des monopoles naturels, à l’image de Bell et du téléphone. Répliquer une telle infrastructure plusieurs fois est inefficace. Le défi se pose lorsque ces plateformes contrôlent les données initialement mises sur le marché. Une solution proposée est la nationalisation : pourquoi ne pas l’envisager ?

Marc Faddoul 

Ton point sur le data trust est crucial, et il y a actuellement un clivage important sur le marché de l’IA générative entre les modèles ouverts et non ouverts. L’Europe semble pencher vers des modèles plus ouverts, ce qui semble être un choix judicieux non seulement sur le plan éthique, mais aussi sur le plan économique. Les entreprises peuvent hésiter à déléguer car, pour utiliser pleinement la puissance de l’IA générative, elles doivent intégrer leurs nouveaux modèles à leur base de connaissances interne. Confier tout cela aux propriétaires d’infrastructures américains sur des systèmes qu’ils ne contrôlent pas peut constituer un obstacle. Par conséquent, les gens peuvent choisir d’exécuter leurs modèles localement. L’approche open-source est susceptible de générer une valeur considérable dans ce contexte.

Il y a actuellement un clivage important sur le marché de l’IA générative entre les modèles ouverts et non ouverts.

Marc Faddoul

Les Européens possèdent également une grande richesse de données, comme on le voit en France avec l’INA, par exemple. Il ne s’agit pas seulement de la quantité mais aussi de la qualité du contenu. Créer une infrastructure de données, établir des communs et permettre aux modèles européens de puiser dans ces données et de les exploiter collectivement pourrait conduire à une valeur économique importante. Il y a beaucoup à explorer et à accomplir dans ce domaine.

Crédits
Cette publication s’inscrit dans la continuité de discussions menées dans le cadre du séminaire « Les sciences humaines face aux transformations sociales », organisé conjointement par le Groupe d’études géopolitiques et le programme Management of Social Transformations (MOST) de l’UNESCO, auquel Gabriela Ramos a participé, à la fois en tant que directrice du programme MOST, et intervenante lors d’une séance consacrée à l’impact social de l’intelligence artificielle.