Notre série « Puissances de l’IA » reprend ce vendredi. Comme l’an dernier, nous vous proposerons régulièrement des études et des textes essentiels pour plonger intelligemment dans les innombrables chantiers ouverts par l’IA  : de la technologie actuelle à l’anticipation en passant par la géopolitique.

Retrouvez les épisodes précédents de la série.

Abonnez-vous pour recevoir l’intégralité de nos contenus en temps réel.

États-Unis

1 — Faire converger vision stratégique et gouvernance de l’IA 

Aux États-Unis, les discussions sur la régulation de l’IA se structurent autour de deux dimensions qui ont vocation à converger.

  • D’un côté, la gouvernance de l’IA traite des questions de gouvernance et des applications grand public (propriété intellectuelle, certifications, transparence et l’évaluation). 
  • De l’autre, les implications de sécurité nationale positionnent les États-unis face à leurs rivaux stratégiques  (IA militaire, avantage stratégique et domination technologique).

Contrairement à l’IA Act européen qui exclut de de son cadre des applications militaires sur lesquelles l’Europe ne possède pas de compétence, la compétition géopolitique oriente le développement technologique américain et chinois. Face à la Chine qui a théorisé une doctrine de fusion militaro-civile (les dimensions politique, économique et sécuritaire doivent s’intégrer dans une vision cohérente), le sénateur démocrate Chuck Schumer a appelé à un « sursaut américain », notamment dans la bataille de la standardisation de l’IA générative. Les États-Unis doivent « prendre l’initiative et définir les règles régissant une technologie aussi transformatrice, et ne pas permettre à la Chine de prendre la tête de l’innovation ou de définir les règles du jeu ». Très concrètement, si l’administration américaine souhaite restreindre l’accès aux systèmes les plus avancés pour des questions de sécurité nationale, elle a besoin de définir ce que sont les capacités à la frontière de l’innovation, et de se doter d’un mécanisme pour les évaluer. Dès lors, la discussion stratégique se confond avec celle sur la gouvernance de l’IA. 

Face à la Chine qui a théorisé une doctrine de fusion militaro-civile, le sénateur démocrate Chuck Schumer a appelé à un « sursaut américain », notamment dans la bataille de la standardisation de l’IA générative.

Victor Storchan

2 — L’endiguement américain au défi de l’IA générative

La nouvelle stratégie d’endiguement américain vis-à-vis de la Chine est mise au défi par la dynamique de développement de systèmes d’IA à usage toujours plus généraux. Précisée il y a un an par Jake Sullivan, la doctrine consiste pour les États-Unis à conserver une avance aussi grande que possible par rapport à la Chine : « Auparavant, nous […] ne devions avoir qu’une ou deux générations d’avance, mais ce n’est pas l’environnement stratégique dans lequel nous nous trouvons aujourd’hui. Étant donné la nature fondamentale de certaines technologies, telles que les puces logiques et de mémoires avancées, nous devons maintenir une avance aussi grande que possible ». 

En avril, la secrétaire au trésor Janet Yellen ajoutait que les États-Unis se concentraient sur les sujets de sécurité nationale, et non sur l’obtention d’un avantage concurrentiel par rapport à Pékin. Cependant, la mise en œuvre concrète de cette stratégie se heurte à la réalité technologique et pose un défi majeur à Washington. En Août, l’executive order signé par Joe Biden pour imposer des restrictions sur les investissements en Chine, devait limiter les capitaux américains dans les entreprises du complexe militaro-industriel chinois. En pratique, la frontière entre développement pour un usage civil ou militaire est rendue toujours plus floue par une dynamique technologique qui unifie les approches. La nature duale de l’IA rend complexe l’identification des entreprises développant l’IA pour un usage strictement militaire. Au-delà même des large language models comme ChatGPT1, qui illustre parfaitement ce double usage,  la plupart des systèmes d’IA sont concernés : les mêmes types de systèmes qui pilotent des voitures pourraient piloter des chars d’assaut ; des systèmes d’IA utilisés pour la découverte de médicaments peuvent être réemployés pour créer de nouvelles armes biochimiques2  ; certains algorithmes du programme GIS Arta utilisés par l’armée ukrainienne pour identifier l’unité d’artillerie la mieux placée pour traiter une cible sont assimilables aux algorithmes d’Uber pour mettre en contact utilisateurs et conducteurs. 

En pratique, les entreprises d’IA qui fournissent l’armée chinoise peuvent se retrouver en mesure d’accéder à des équipements, des données ou des financements américains. Les règles proposées par le Trésor américain (chargé de spécifier la portée et les exigences du décret) sont prudentes et ne concernent pour l’instant que l’IA explicitement développée pour des applications militaires, de cybersécurité, de renseignement ou de surveillance3.

3 — Se former avant de réguler : le forum sur la sécurité de l’IA au Congrès américain

L’IA générative a fait irruption à Washington mais l’asymétrie d’information entre décideurs publics et l’industrie n’a cessé de se creuser dans la période récente. Pour le sénateur Ted Cruz, le constat du début de l’été est sans appel : « le Congrès ne sait pas ce qu’il fait en matière de régulation de l’IA ». Scott Schumer a annoncé une série de neuf forums de réflexion bipartisans pour aider les sénateurs à se former à la complexité des enjeux liés à l’IA. L’approche se veut plurilatérale pour permettre des échanges avec les dirigeants des géants technologiques américains, des représentants de la société civile et des chercheurs indépendants. Contrairement aux auditions plus classiques et publiques, l’idée de ces forums est de permettre aux sénateurs de poser des questions de base et de se familiariser avec le sujet à huis clos. Cette série de forums pourrait déboucher sur quelques gains rapides mais rien de comparable à l’IA Act européen dans son ambition. Elle pourrait permettre de faire avancer les discussions pour clarifier la position américaine sur le modèle de réglementation qu’il veulent adopter, une condition préalable à tout dialogue ou négociation internationale sur le sujet. 

Pour le sénateur Ted Cruz, le constat du début de l’été est sans appel : « le Congrès ne sait pas ce qu’il fait en matière de régulation de l’IA ».

Victor Storchan

Europe

4 — La régulation européenne au défi de l’IA générative

La période récente a illustré de façon emblématique la difficulté pour une régulation très horizontale comme l’IA Act de s’adapter à un domaine en évolution rapide. Introduit par la Commission Européenne en 2019-2020, le projet initial de régulation de l’IA (AI Act) s’est trouvé dépassé par l’irruption de l’IA générative début 2023. Les grands modèles à usage général tels que les large language models pourtant en développement depuis des années dans les laboratoires de recherche, ne peuvent par définition pas s’insérer dans un cadre basé sur des niveaux de risques dépendant du cas d’usage4. Sauvé par son long processus réglementaire, le Parlement européen a pu voter une version amendée dans l’urgence pour intégrer à la dernière minute des modifications qui ont soulevé la réprobation d’une grande partie de l’écosystème5. La philosophie générale du texte fondée sur le risque, est maintenant concurrencée par des règles spécifiques et uniformes pour les systèmes d’IA à usage général et très contraignantes voire inapplicables pour les acteurs de l’opensource. 

Au lieu d’une approche réglementaire « unique » qui imposerait instinctivement une charge réglementaire à tous les modèles de fondation, des acteurs de l’écosystème ont proposé d’adopter une approche plus graduelle6 : établir une distinction entre un ensemble d’obligations de base qui devraient s’appliquer à tous les foundation models mis en service, tout en limitant les obligations les plus exigeantes à un sous-ensemble de modèles commerciaux à la frontière technologique (décrite par des critères qui pourraient être revu périodiquement par l’UE). Au-delà du cas particulier de l’IA générative apparu durant l’examen du texte, les prochaines vagues d’innovation risquent de disrupter encore davantage l’IA Act qui ne s’appliquera pleinement qu’à partir de 2026, date à laquelle les modèles d’IA auront significativement progressé.

5 — La France, engagée dans la course à l’IA générative

Depuis le plan Villani de 2018, la stratégie française en IA s’appuie sur des préoccupations géopolitiques, contrairement à celle de la plupart des autres pays européens. Le rapport Villani disait déjà que « la France et l’Europe doivent faire entendre leur voix et s’efforcer de rester indépendantes. Mais la concurrence est rude : les États-Unis et la Chine sont à la pointe de cette technologie et leurs investissements dépassent de loin ceux réalisés en Europe. […] Parce qu’à bien des égards, la France et l’Europe peuvent déjà faire figure de colonies numériques ». Cinq ans plus tard, de grands acteurs de l’écosystème français ambitionnent de devenir des leaders de l’IA et de faire de la technologie un levier de souveraineté nationale et européenne. La startup parisienne Mistral, dirigée par d’anciens ingénieurs de chez DeepMind et Meta et qui a levé 105 millions d’euros souligne dans une note que l’Europe « n’a pas encore su faire émerger de concurrent sérieux » dans la construction de foundation models (notamment les large language models que la startup se propose de développer), et ajoute « qu’il s’agit d’un enjeu géopolitique majeur compte tenu de la puissance (et des dangers) de cette nouvelle technologie ». 

La stratégie française en IA s’appuie sur des préoccupations géopolitiques, contrairement à celle de la plupart des autres pays européens. 

Victor Storchan

Dans la foulée, Poolside, startup cofondée par Jason Warner, ex-CTO de Github, a annoncé se relocaliser à Paris après une levée de 126 millions de dollars. Il faut cependant noter que beaucoup de ces pépites de l’IA sont soutenues par des fonds de capital-risque américains. Les investissements annoncés dans le cadre du forum Vivatech de juin 2023 par le président Emmanuel Macron (supercalculateur, plan de formation, fonds d’amorçage pour les startups de l’IA génératives, communs numériques pour l’IA générative, etc..) s’inscrivent dans le vaste plan France 2030 dont l’ambition affichée est également de soutenir la souveraineté technologique et numérique. Ce repositionnement avait également été initié dans le plan stratégique de l’INRIA (ou « contrat d’objectifs et de performance avec l’Etat pour 2019-2023 ») qui définit la mission principale de l’Institut. Il assumait d’en faire « un bras armé de l’État pour construire la souveraineté numérique de la nation engagée dans la dynamique européenne, par la recherche ». 

«  The Death  » par James Lee Byars. © James Lee Byars/Mirco Toniolo/AGF/SIPA

Concernant l’attractivité des talents internationaux, la marge de progression reste encore significative : une étude récente de Sequoia révèle que Londres possède près de quatre fois plus de talents en IA (12,29 % des talents disponibles en Europe) que Paris (3,81 %). D’autres part, OpenAI a choisi la capitale britannique comme lieu d’implantation de son premier bureau en Europe. Quant à TSMC, l’entreprise taïwanaise, leader mondiale des semiconducteurs indispensables au développement de l’IA, a choisi l’Allemagne pour implanter sa première usine en Europe.

[Lire plus : L’Europe peut-elle entrer dans la course à l’IA ?]

Chine

6 — L’économie socialiste de marché au défi de l’IA générative

Le caractère stratégique de l’IA générative fait évoluer l’approche traditionnelle du gouvernement chinois en matière de financement de la recherche, lui qui s’est donné pour objectif de devenir le leader mondial de l’IA d’ici 2030. Historiquement, le mode de financement consistait à octroyer des subventions de recherche de manière très verticale par l’intermédiaire de la Natural Science Foundation of China, l’organisme étatique chargé de planifier et de gérer les subventions pour la recherche fondamentale et appliquée « conformément à l’économie socialiste de marché »7. Le développement de l’IA générative majoritairement orientée par le secteur privé, très consommatrice de capitaux, a poussé la Chine à diversifier ses modes de financement en faisant davantage appel aux ressources de l’industrie pour constituer des partenariats public-privé et académiques au sein de laboratoires de recherche : Les entités parrainées par le gouvernement et les laboratoires de recherche ont joué un rôle important dans le développement récent de l’IA en Chine. La BAAI (Beijing Academy of Artificial Intelligence ) a ainsi pour mission « de publier des modèles linguistiques sous la direction de la Chine ». 

7 — Aligner l’IA sur la doctrine du Parti Communiste Chinois

Contrairement à l’approche très horizontale de l’IA Act européen, la Chine a adopté une approche verticale de la régulation de l’IA adoptant des textes encadrant des domaines spécifiques ou des types d’algorithmes (régulation des médias sociaux, des systèmes de recommandation, de l’IA générative etc..). Si cette approche permet d’être spécifique, elle demande une coordination importante entre les différentes agences et des mises à jour régulières. Après un premier texte encadrant la génération de contenus synthétiques, le nouveau texte présenté en avril 2023 a pour ambition de positionner la Chine dans la bataille de la standardisation de l’IA générative. Certaines clauses, comme celle exigeant des fournisseurs qu’ils « garantissent la véracité, l’exactitude, l’objectivité et la diversité des données », restent assez vagues et techniquement inapplicables. L’article 4 du nouveau texte mentionne explicitement que les contenus générés par l’IA doivent être « conformes aux valeurs fondamentales du socialisme et ne doivent pas contenir d’éléments de subversion contre le pouvoir de l’État ».  Elles pourraient avoir pour effet de freiner les groupes chinois dans la constitution des énormes jeux de données dont ils auraient besoin pour suivre le rythme de leurs concurrents internationaux.

La nouvelle législation chinoise mentionne explicitement que les contenus générés par l’IA doivent être « conformes aux valeurs fondamentales du socialisme et ne doivent pas contenir d’éléments de subversion contre le pouvoir de l’État ». 

Victor Storchan

Royaume-Uni

8 — Le sommet sur la sécurité de l’IA

Le premier ministre britannique a annoncé un Sommet international sur la sécurité de l’IA à l’automne. Le sommet se tiendrait à Bletchley Park, lieu iconique où furent cassés les codes d’Enigma lors de la Seconde Guerre mondiale. Son objectif affiché est de positionner la Grande-Bretagne au centre des réflexions sur la régulation de l’industrie en IA et comme un possible point d’équilibre entre les États-Unis et la Chine (dont l’invitation au sommet a fait l’objet d’intenses discussions). Elle s’imagine en recours à l’approche unilatérale autoritaire de l’Union européenne. 

Une implication étroite des géants de l’IA générative comme Google Deepmind, OpenAI ou Anthropic est au programme. Leur proposition de « donner un accès prioritaire à leurs modèles pour la recherche sur la sécurité de l’IA » est une condition nécessaire aux développement d’outils d’évaluation et de gestion des risques mais non suffisante. Les modalités techniques et le cadre de gouvernance d’une telle ouverture restent à définir pour s’assurer qu’une telle initiative ne se traduise pas par une forme de capture régulatoire. Si une telle collaboration est indispensable, l’agenda de recherche, l’examen des différents composants de l’IA ou la priorisation des thèmes ne peuvent être délégués à l’industrie. Comme le note Marietje Schaake, « de l’industrie du tabac en passant par celle du pétrole, les décideurs et la société ont à ses dépens que les entreprises sont rarement en mesure d’établir des réglementations désintéressées. Elles ne sont ni indépendantes ni capables de créer des contre-pouvoirs à leurs propres intérêts »8.

La Grande-Bretagne s’imagine en recours à l’approche unilatérale autoritaire de l’Union européenne. 

Victor Storchan

Malgré la volonté de s’ériger en leader sur les enjeux de gestion des risques et de sécurité de l’IA, le gouvernement britannique envoie des signaux contradictoires. Sa réécriture d’une version allégée du RGPD européen (Data Protection and Digital Information Bill) a abaissé le niveau de protection des données des utilisateurs (en réduisant les protections lorsqu’elles sont soumises à des décisions automatisées ayant un impact significatif et/ou juridique par exemple). Le Ada Lovelace Institute recommande dans une note au Royaume-Uni de « repenser les éléments du projet de loi sur la réforme de la protection des données  qui sont susceptibles de compromettre la sécurité du développement, du déploiement et de l’utilisation de l’IA »9.

Monde

9 — L’IA générative aux menu des forums intergouvernementaux

Le G7 a lancé en mai le processus d’Hiroshima pour réguler l’IA générative. La question du calendrier anime notamment les discussions transatlantiques entre l’Union et les États-Unis : faut-il agir immédiatement ? Bien que l’Union travaille sur l’IA Act, il faudra encore deux ans (six mois de négociations interinstitutionnelles et de votes au sein du trilogue, puis une période de transition pour que les entreprises et les gouvernements puissent s’adapter). En raison des risques potentiels de l’IA et de la nécessité économique de faire converger les cadres réglementaires, les gouvernements du G7 s’interrogent sur la bonne manière d’avancer. En août, les BRICS ont lancé un groupe d’étude sur l’IA dans le cadre d’une démarche stratégique annoncée par le président Xi Jinping. Alors que ce dernier a souligné les convergences idéologiques dans son discours de Johannesburg, l’IA générative est aussi perçue comme un moyen de projection de puissance culturelle et de valeurs10

Le Secrétaire général de l’ONU, Antonio Guterres, a soutenu en juin la proposition visant à créer un organisme international de surveillance de l’IA, à l’instar de l’Agence internationale de l’énergie atomique (AIEA). Mais l’analogie avec le nucléaire comporte deux différences essentielles avec l’IA : la première est qu’une gouvernance mondiale de l’IA aurait besoin d’un cadre qui englobe non seulement les pays qui ne font pas partie des quelques nations leaders en IA, mais également qui encadre ce que les pays puissants en IA font les uns envers les autres. La deuxième différence est le désalignement des états leaders en IA. Pendant la guerre froide, les pays du P5 à l’ONU avaient des  intérêts très similaires concernant les armes nucléaires. Ils pouvaient réfléchir au sein de l’AIEA à ce qu’ils voulaient pour le reste du monde. Ce n’est pas le cas aujourd’hui avec l’IA. Enfin, pour être efficace, un organisme de gouvernance mondiale de l’IA serait confronté à plusieurs défis, certains identifiés dans un récent article de Yo Shavit11 : alors que l’IA joue un rôle géopolitique important, il pourrait devenir impératif que (1) « les gouvernements puissent appliquer des règles sur le développement de l’IA à l’intérieur de leurs frontières », et (2) « que les pays puissent vérifier entre eux la conformité de chacun avec d’éventuels futurs accords internationaux ». Vérifier qu’aucun acteur ne dépasse un seuil de puissance de calcul qui violerait des règles convenues est complexe et pourrait se heurter aux récentes avancées technologiques qui permettent d’entraîner de façon décentralisée un modèle d’IA lorsque des machines personnelles sont simplement connectées à internet. Cela pourrait à terme impliquer une surveillance des ordinateurs personnels. 

[Lire plus : une introduction en 10 points clefs à notre série Puissances de l’IA]

10 — L’IA open source, enjeu essentiel de la compétition technologique mondiale

L’interprétation et la place données à l’open source par les régions leaders en IA vont façonner les rapports de force futurs dans la gouvernance globale de l’IA. L’IA open source est un avantage stratégique pour diffuser et partager efficacement des modèles. La recherche chinoise dépend actuellement encore largement de l’open source américain selon les données fournies par le service d’hébergement de gestion de logiciel Github12. Le nombre de logiciels open source développés par des américains et appréciés des chercheurs des deux pays (ils peuvent voter en donnant une note avec des étoiles comme sur Amazon) est vingt fois plus élevé que celui des logiciels open source développés par les chercheurs chinois. La Chine cherche à s’émanciper de la plateforme américaine et à mener son propre agenda d’open source. C’est pour elle le moyen d’avoir une stratégie d’influence vis-à-vis d’autres pays émergents. 

La recherche chinoise dépend actuellement encore largement de l’open source américain selon les données fournies par le service d’hébergement de gestion de logiciel Github. 

Victor Storchan

En Europe, les développeurs d’IA open source ont dénoncé une contrainte réglementaire trop lourde prévue par l’IA Act qui pourrait sensiblement freiner l’innovation et une position du Parlement européen qui « interdit de facto l’émergence de [grands modèles de langage] européens »13. En France, le président Emmanuel Macron a demandé que les règles de l’Union « n’empêchent pas la croissance de la technologie ». Les vertus de l’open source sont nombreuses. Scientifiquement, la publication de code open source est historiquement clef dans la plupart des avancées majeures en IA. Économiquement, l’open source permet de réduire les asymétries entre les acteurs : dans une industrie très concentrée où très peu d’acteurs sont capables de rassembler les ressources nécessaires à l’entraînement des plus grands modèles, le développement de l’open source peut favoriser la concurrence et l’innovation des nouveaux entrants. Pour le régulateur, l’open source permet souvent davantage de transparence et de compréhension car il rend possible l’implication de davantage de parties prenantes, il permet d’augmenter la réactivité face aux risques et la vitesse des cycles d’itération dans la construction d’outils et de technologies d’IA plus responsables. 

Sources
  1. Katrina Manson, « The US Military Is Taking Generative AI Out for a Spin », Bloomberg, 5 juillet 2023.
  2. Urbina, F., Lentzos, F., Invernizzi, C. et al. « Dual use of artificial-intelligence-powered drug discovery. » Nat Mach Intell 4, 189–191 (2022).
  3.  Office of Investment Security, Department of the Treasury, « Provisions Pertaining to U.S. Investments in Certain National Security Technologies and Products in Countries of Concern », 2023.
  4. https://arxiv.org/abs/1706.03762
  5. Javier Espinoza, « European companies sound alarm over draft AI law », Financial Times, 30 juin 2023.
  6. « Supporting Open Source and Open Science in the EU AI Act », Open Future, juillet 2023. Ryan Heath, Ashley Gold, « AI leaders : Please regulate us », Axios, 17 mai 2023.
  7. « National Natural Science Foundation of China 2022 Annual Budget », une traduction du Center for Security and Emerging Technology.
  8. Marietje Schaake, « We need to keep CEOs away from AI regulation », Financial Times, 4 juin 2023.
  9. Matt Davies, Michael Birtwistle, « Policy briefing : Regulating AI in the UK », Ada Lovelace Institute, 18 juillet 2023.
  10. https://arxiv.org/pdf/2203.07785
  11. https://arxiv.org/abs/2303.11341
  12. https://arxiv.org/pdf/2009.09071
  13. Javier Espinoza, « European companies sound alarm over draft AI law », Financial Times, 30 juin 2023.