Alors que les grandes percées de l’IA, comme ChatGPT, font la une des journaux, l’Europe s’inquiète d’être à la traîne dans la course mondiale au leadership en matière d’IA. Même avant la frénésie actuelle suscitée par l’« IA générative », les fonctionnaires de l’Union avaient prévenu que le continent ne faisait pas le poids dans le développement de l’IA, alors que les États-Unis et la Chine étaient aux commandes 1. La domination des géants américains de la technologie et les progrès rapides des entreprises chinoises spécialisées dans l’IA ont tiré la sonnette d’alarme, avec comme crainte principale que l’Europe ne devienne dépendante des technologies d’IA développées ailleurs.
Certes, l’Europe devrait s’efforcer de promouvoir ses propres innovations en matière d’IA et de construire des modèles d’IA qui reflètent ses propres valeurs et besoins sociétaux. Toutefois, le simple argument selon lequel l’Europe serait « à la traîne » ne tient pas compte des nuances dans le développement de l’IA ailleurs dans le monde : alors que les États-Unis et la Chine sont tous deux confrontés à des problèmes et de profondes insécurités, l’Europe est le chef de file mondial dans l’établissement de normes d’IA à long terme.
En outre, l’idée que le développement de l’IA est essentiellement une « course » à la domination est extrêmement dangereuse. De nombreux experts en IA s’accordent à dire que l’IA est un domaine où il est beaucoup plus important de bien faire les choses que de les faire rapidement. Le mantra classique de la Silicon Valley (move fast and break things) ne s’applique tout simplement pas à l’IA — les conséquences d’un échec sont trop importantes pour l’humanité pour que les développeurs d’IA soient aussi négligents.
Au lieu de se fixer sur le classement perçu des leaders de l’IA, l’Europe devrait réfléchir davantage au type d’IA qu’elle souhaite développer et mettre l’accent sur les pratiques éthiques et la réflexion à long terme. La détérioration des relations entre les États-Unis et la Chine et la formation de deux « blocs d’IA » distincts placent l’Europe dans une position unique pour façonner la gouvernance mondiale de l’IA et favoriser la collaboration internationale en ces temps difficiles.
Chaque pays a ses problèmes en interne
En matière d’IA, l’herbe n’est pas toujours plus verte dans le pré d’à côté. Malgré leur rôle de premier plan dans la technologie de l’IA, les États-Unis et la Chine rencontrent leurs propres difficultés à développer et à réglementer ce domaine qui évolue rapidement.
Paradoxalement, alors qu’ils sont à la pointe du développement de l’IA, les États-Unis sont à la traîne par rapport à l’Union et à la Chine en matière de réglementation. La publication de puissants modèles d’IA, en particulier de grands modèles de langage (LLM) tels que ChatGPT d’OpenAI et Bard de Google, a poussé le gouvernement américain à chercher un cadre réglementaire pour faire face aux risques liés à l’IA. Les États-Unis traversent une période délicate où les acteurs de l’industrie supplient le gouvernement de renforcer la réglementation, mais où les décideurs politiques ne sont pas préparés à régir des systèmes d’IA de plus en plus complexes 2. Les États-Unis se retrouvent ainsi dans une position vulnérable où leurs progrès technologiques dépassent de loin leur capacité à régir des technologies aussi avancées.
Pendant ce temps, la Chine subit une pression énorme pour rester à la pointe de la technologie de l’IA développée par les États-Unis. Si la sortie de ChatGPT a inquiété les Européens qui craignent d’avoir pris du retard dans le domaine de la technologie 3, ils sont loin de se douter que leurs homologues chinois se sentent bien plus inquiets. L’indisponibilité des modèles d’IA américains en Chine et les mesures délibérées prises par Washington pour couper la Chine de l’informatique avancée font craindre aux développeurs chinois d’être confrontés à un véritable « blocus de l’IA ». Pire encore pour les laboratoires d’IA chinois, la grande majorité des LLM sont formés sur des GPU Nvidia, ce qui les rend dépendants de l’Europe et des États-Unis pour l’approvisionnement en calcul et vulnérables aux sanctions américaines. Malgré le battage médiatique dont font l’objet les LLM chinois tels que Wudao 2.0 et le bot Ernie de Baidu, les performances des modèles d’IA chinois accusent un retard de deux à trois ans par rapport aux meilleurs modèles américains.
Dans l’étude que j’ai menée avec Jeffrey Ding, professeur à l’université George Washington, sur 26 LLM chinois, nous avons constaté que les développeurs chinois ont du mal à suivre l’évolution rapide de l’Occident 4. Nombre d’entre eux en sont venus à emprunter des modèles américains à code source ouvert et même à modifier leurs mesures de performance, simplement pour ne pas avoir l’air d’être à la traîne. Ces problèmes affectent même les consortiums bien financés et dirigés par le gouvernement, tels que l’Académie d’intelligence artificielle de Pékin (BAAI), qui a été impliquée dans un incident de plagiat très médiatisé en 2022.
L’argument selon lequel l’Europe serait « à la traîne » dans le domaine de l’IA reflète donc bien une vision trop idéaliste du paysage de l’IA aux États-Unis et en Chine. Les États-Unis ont incontestablement une longueur d’avance, mais la position de la Chine est beaucoup plus précaire que ne le pensent la plupart des Européens. Toutefois, dans un domaine aussi puissant et potentiellement dangereux que l’IA, la rapidité n’est pas toujours un avantage.
Les clefs d’un monde cassé.
Du centre du globe à ses frontières les plus lointaines, la guerre est là. L’invasion de l’Ukraine par la Russie de Poutine nous a frappés, mais comprendre cet affrontement crucial n’est pas assez.
Notre ère est traversée par un phénomène occulte et structurant, nous proposons de l’appeler : guerre étendue.
Faire vite ou faire bien ?
À la mise en ligne de ChatGPT, des experts et des praticiens de l’IA du monde entier ont exprimé leurs inquiétudes quant aux dangers du développement rapide de l’IA. Elon Musk, cofondateur d’OpenAI — qui a depuis quitté l’entreprise — est devenu l’une des principales voix à mettre en garde contre les risques existentiels de l’IA 5. Ses préoccupations font écho à celles d’éminents chercheurs en IA, tels que Geoffrey Hinton, le « parrain de l’IA » qui a démissionné de Google en mettant en garde contre les dangers à venir 6, et Gary Marus, pionnier de l’IA et professeur émérite à l’université de New York 7. Ces experts sont allés jusqu’à préconiser une pause de six mois dans le développement de l’IA pour permettre l’établissement de meilleures réglementations 8.
Ce qui est moins connu, c’est que ces sentiments sont partagés par de nombreux chercheurs chinois de premier plan dans le domaine de l’IA. Zhang Yaqin, professeur à l’université de Tsinghua, et Zeng Yi, éminent chercheur à l’Académie chinoise des sciences, sont tous deux signataires de la proposition de pause de six mois lancée par le Future of Life Institute. Ces dernières années, de nombreux experts chinois en IA, dont Zhu Songchun, professeur à l’université de Pékin, et Gao Wen, académicien à l’académie chinoise d’ingénierie, se sont inquiétés des risques liés à l’intelligence générale artificielle (AGI), une forme d’IA avancée qui atteint le niveau d’intelligence humaine.
Les médias occidentaux ne manquent pas d’informations sur le technonationalisme chinois. Mais ce que l’on oublie souvent, ce sont les préoccupations de la Chine concernant le développement de l’IA avancée. Certes, le « Plan de développement de l’intelligence artificielle de nouvelle génération » publié en 2017 par la Chine expose les projets du pays pour devenir un leader mondial en matière d’IA 9. Les développeurs chinois d’IA expriment également leur fierté à l’égard de ce qu’ils prétendent être des LLM « plus grands et plus performants » qu’ils ont mis au point. Ce dont personne ne parle, cependant, c’est que la Chine a récemment accueilli une réunion du Politburo au cours de laquelle les risques liés à l’IA ont été mis sur la table pour la première fois.
De nombreux experts s’accordent à dire que l’IA est un domaine où la réflexion est plus importante que la rapidité. La bonne nouvelle pour l’Europe, c’est que les États-Unis et la Chine s’inspirent de l’Union pour gouverner l’IA. Lors de l’audition du Sénat américain sur la réglementation de l’IA en mai 2023, Sam Altman, PDG d’OpenAI, et Christina Montgomery, responsable de la protection de la vie privée et de la confiance chez IBM, ont appelé les gouvernements à adopter des exigences de sécurité et des réglementations fondées sur les risques. 10 Ces propositions s’inspirent fortement de la loi sur l’IA de l’Union, qui adopte une approche fondée sur les risques, réglementant plus strictement les cas d’utilisation à haut risque.
Le projet de loi chinois sur l’IA générative met l’accent sur la protection des données personnelles, exigeant que les données de formation impliquant des informations personnelles soient obtenues avec le consentement de l’utilisateur. 11 Cette disposition est conforme au règlement général sur la protection des données (RGPD) de l’Union. En outre, la loi chinoise sur l’IA générative exige que les fournisseurs d’IA générative assument les obligations légales des « entités de traitement des informations personnelles », ce qui équivaut essentiellement aux « contrôleurs de données » en vertu du RGPD.
Au-delà des exemples anecdotiques montrant que l’Europe est à la pointe de la réglementation en matière d’IA, les chercheurs ont constaté un « effet Bruxelles » 12 généralisé dans la gouvernance de l’IA, selon lequel les normes et les politiques réglementaires de l’Union sont adoptées sur les marchés et dans les juridictions au-delà de ses frontières. Les progrès rapides de la technologie de l’IA donnent en fait à l’Europe l’occasion de façonner les normes et les pratiques mondiales.
Une IA à l’échelle pertinente
Plutôt que de se concentrer uniquement sur la course à l’IA, l’Europe devrait profiter de son avantage réglementaire et de son engagement en faveur d’un développement éthique de l’IA. Elle devrait notamment promouvoir sa réflexion à long terme en matière de gouvernance, qui fait souvent défaut dans un monde où les pays se laissent séduire par l’engouement pour l’IA. Bien qu’imparfaite, la loi européenne sur l’IA constitue une étape vers la mise en place d’un cadre réglementaire qui pourrait s’appliquer à des systèmes beaucoup plus avancés que les chatbots déjà impressionnants que nous voyons aujourd’hui 13.
Au milieu des efforts déployés par les États-Unis et la Chine pour obtenir l’IA la plus performante possible, l’Europe pourrait constituer une alternative prometteuse, en offrant un environnement plus ouvert et plus inclusif pour les talents et les entreprises du monde entier. Depuis l’administration Trump, le gouvernement américain a par exemple rendu plus difficile l’obtention de visas par les étudiants chinois diplômés en informatique pour étudier aux États-Unis, allant parfois jusqu’à révoquer leurs visas de manière inattendue 14. De même, la Chine a mis en place des réglementations plus strictes pour les entreprises étrangères, ce qui a conduit de nombreuses entreprises mondiales à quitter leurs frontières. L’Europe a donc la possibilité de devenir un pôle d’attraction pour les talents et les entreprises de premier plan dans le domaine de l’IA si elle facilite l’accès aux visas et adopte une approche plus favorable aux entreprises concernées.
Mais surtout, alors que les relations entre les États-Unis et la Chine se détériorent, l’Union se trouve dans une position unique pour combler les fossés, prôner la coopération mondiale et fixer des normes élevées en matière de gouvernance de l’IA. Elle pourrait être le meilleur espoir du monde pour éviter une « course vers le bas » en matière de réglementation, où les pays rognent sur les coûts pour prendre de l’avance — elle demeure également la meilleure plateforme pour les discussions mondiales et la collaboration internationale. Le monde a besoin d’elle pour conduire un effort collectif visant à faire face aux menaces à long terme de l’IA et à exploiter son potentiel de transformation au profit de l’humanité.
Sources
- « Artificial intelligence : MEPs want the EU to be a global standard-setter », Parlement européen, 3 mai 2022.
- Ryan Heath, Ashley Gold, « AI leaders : Please regulate us », Axios, 17 mai 2023.
- Lionel Laurent, « ChatGPT shows just how far Europe lags in tech », Washington Post, 21 février 2023.
- Jeffrey Ding, Jenny Xiao, « Recent Trends in China’s Large Language Model Landscape », Centre for the governance of AI, 28 avril 2023.
- Cade Metz, Ryan Mac et Kate Conger, « Elon Musk Ramps Up A.I. Efforts, Even as He Warns of Dangers », The New York Times, 27 avril 2023.
- Cade Metz, « ‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead », The New York Times, 1er mai 2023.
- Steven Levy, « Gary Marcus Used to Call AI Stupid—Now He Calls It Dangerous », Wired, 5 mai 2023.
- « Pause Giant AI Experiments : An Open Letter », 22 mars 2023.
- Voir le texte du Plan de développement à cette adresse.
- Joshua P. Meltzer, « The US government should regulate AI if it wants to lead on international AI governance », Brookings, 22 mai 2023.
- « How will China’s Generative AI Regulations Shape the Future ? A DigiChina Forum », 19 avril 2023.
- Charlotte Siegmann et Markus Anderljung, « The Brussels Effect and Artificial Intelligence », 16 août 2022.
- « AI Act : a step closer to the first rules on Artificial Intelligence », Parlement européen, 11 mai 2023.
- Evan Burke, « Trump-Era Policies Toward Chinese STEM Talent : A Need for Better Balance », Carnegie Endowment for International Peace, 25 mars 2021.