De Sam Altman à Giuliano da Empoli en passant par Anu Bradford, notre série hebdomadaire « Puissances de l’IA » explore les grandes questions posées par l’intelligence artificielle. Abonnez-vous à la revue pour lire et recevoir les nouveaux épisodes.

Nous réalisons cet entretien en marge du Sommet du Grand Continent où les discussions rapprochent naturellement la transition numérique de la transition géopolitique. Le fait que l’Union n’ait pas la compétence stratégique nécessaire alors que les grandes puissances de l’IA font converger les discussions commerciales et de sécurité nationale constitue-t-il un problème ? 

C’est en effet le principal problème pour l’Union. Souvent, dans les débats que j’entends, nous avons tendance à penser que nous ne sommes pas compétitif à cause de notre régulation. Je n’y crois pas vraiment : ces règles dont nous discutons, dont l’AI Act, ne sont pas réservées aux entreprises européennes, mais s’appliquent à toutes les entreprises et à tous les utilisateurs qui exercent leur activité en Europe. Ainsi, ce débat sur la compétitivité — qui est souvent axé sur le fait que nous réglementons et que d’autres ne le font pas — est à mon avis un peu hors sujet. 

Le problème que nous avons est celui de la répartition des compétences. Pour l’AI Act, nous avons dû avoir une lecture élargie de la compétence européenne du marché qui est utilisée comme base pour cette loi pour traiter de questions de sécurité ou de protection des travailleurs. Le fait que l’échelle européenne ne se voit pas attribuer la compétence nécessaire pour prendre des décisions en matière de stratégie industrielle est un problème ; tout comme l’est le manque d’un réel pouvoir budgétaire et d’une réelle marge de manœuvre en matière fiscale. Car le débat sur l’action budgétaire et fiscale au niveau européen ne devrait pas être traité comme une question distincte du débat sur la réglementation de l’IA. Il en va de même en ce qui concerne la sécurité nationale ou le fait que l’Union ne soit pas compétente sur la réglementation des cas d’usages de défense. Cette fragmentation des compétences européennes est à mon avis notre grand désavantage concurrentiel par rapport à la Chine ou aux États-Unis.

Le problème que nous avons est celui de la répartition des compétences. Cette fragmentation des compétences européennes est à mon avis notre grand désavantage concurrentiel par rapport à la Chine ou aux États-Unis.

Brando Benifei

Avec l’AI Act, l’Union envoie-t-elle de nouveau le signe qu’elle réglemente une technologie avant de créer les produits et les champions technologiques ? Le premier livre blanc de la Commission européenne reposait sur un équilibre entre régulation et propositions d’investissement dans la politique industrielle : manquons-nous d’une initiative européenne forte de la part de la Commission dans ce sens ?

Il est d’abord important de rappeler qu’il n’y a pas de contradiction dans les termes entre la réglementation et l’innovation. Avec une bonne réglementation, on peut mieux innover : le problème est de savoir ce qui nous manque — ou ce dont nous avons besoin. Il y a évidemment des dimensions sur lesquelles nous avons encore beaucoup de lacunes. Je pense par exemple que nous devons encore progresser pour donner plus d’opportunités à nos développeurs d’IA d’utiliser plus de données. Mais je considère toujours que le problème principal est l’absence d’un véritable marché intégré de capitaux ainsi que le manque d’investissement à l’échelle européenne sur la recherche et les infrastructures au niveau nécessaire. Les investissements actuels ne sont pas comparables à ce qui se fait dans d’autres parties du monde. Une des causes à cela est le manque d’une véritable compétence stratégique européenne. Actuellement, on assiste par exemple à une concurrence entre États membres pour attirer les meilleurs chercheurs : cela nous empêche de nous concentrer sur l’attraction de talents internationaux extra-communautaires pour travailler sur notre compétitivité. C’est ce qui devrait être le plus au centre de la discussion. 

Il n’y a rien dans la réglementation sur l’IA que nous avons approuvée qui empêchera le développement de modèles de langage européens. Aujourd’hui, être en mesure de rattraper  l’écart de compétitivité que nous avons avec les États-Unis ou la Chine sur certains aspects du développement de l’IA, est davantage une question de priorisation politique au niveau européen et de gouvernance.

Actuellement, on assiste par exemple à une concurrence entre États membres pour attirer les meilleurs chercheurs : cela nous empêche de nous concentrer sur l’attraction de talents internationaux extra-communautaires pour travailler sur notre compétitivité. 

Brando Benifei

L’AI Act distingue les modèles les plus avancés pour leur imposer des règles plus importantes. Cette approche par seuil n’introduit-elle pas un double standard entre les entreprises en place — qui peuvent se développer parce qu’elles ont les moyens de faire face à de lourdes exigences de conformité — et les nouveaux entrants — qui ne le peuvent pas parce qu’ils n’ont pas les armées de juristes et les ressources nécessaires ?

Les obligations renforcées pour les modèles les plus avancés sont liées à une chose très  simple : nous considérons que ces modèles présentent un risque systémique. Leur polyvalence présente des dangers spécifiques et notre première préoccupation concerne les entreprises qui utiliseront les modèles les plus puissants. Les obligations de transparence s’imposeront à tous les modèles mais nous voulons être sûrs que, pour les plus puissants, des contrôles supplémentaires sur la sécurité, la cybersécurité, l’impact environnemental ou la gouvernance des données sont mis en place.

Les modèles les plus puissants doivent donc, indépendamment du cas d’usage, se conformer à certaines des obligations de la catégorisation à haut risque.  Aujourd’hui, le seuil que nous avons fixé pour identifier ces modèles de niveau supérieur est relatif à la capacité de calcul utilisée pour entraîner ces modèles. Il est fixé à 10^25 flops. Cela inclurait pour l’instant GPT-4 et certainement Gemini. Nous avons également donné la possibilité à un comité d’experts — le Bureau de l’IA — qui suivra l’application du texte, de déterminer d’autres critères possibles. Pas seulement la puissance de calcul, mais une combinaison d’autres critères, comme le nombre d’utilisateurs ou la taille du modèle. C’est la partie la plus flexible du règlement parce que c’est la partie qui traite de la technologie la plus à la frontière de l’innovation. Nous avions donc besoin de garder de la flexibilité sur cette partie.

Les obligations renforcées pour les modèles les plus avancés sont liées à une chose très  simple : nous considérons que ces modèles présentent un risque systémique.

Brando Benifei

Ces obligations ne devraient pas désinciter le développement des modèles les plus avancés car cela s’appliquera aux modèles du monde entier. Ainsi, les modèles américains devront se conformer à ces réglementations lorsqu’elles seront en place.  Cette approche régulatoire est le fruit de nombreuses discussions avec le monde universitaire, avec les entreprises elles-mêmes, et entre les différentes institutions. On peut discuter du bien-fondé intrinsèque de ces règles, mais je ne vois pas en quoi elles constitueraient une distorsion de concurrence entre les Européens et les États-Unis. En outre, ces règles entreront en vigueur dans plus d’un an. Entre-temps, l’Europe aura eu le temps de développer plus de modèles avancés. Nous percevons un risque systémique pour ce type de modèles d’IA à la frontière technologique. En ce sens, nous sommes fidèles à l’esprit originel du texte basé sur les niveaux de risques. 

Si l’on considère l’ensemble du parcours législatif initié en 2020, avez-vous identifié des lacunes ou des améliorations possibles dans le processus de fabrication de la réglementation ? Quelles leçons tirer sur la manière de réguler une technologie qui évolue rapidement ?

L’évolution rapide de l’IA nous oblige à conserver autant que possible une approche basée sur les cas d’usage réels plutôt que de réglementer la technologie, car le contexte des cas d’usage ne changera pas.

Que ce soit dans les écoles, sur le lieu de travail, dans les tribunaux, dans les hôpitaux, le contexte est indépendant de l’évolution de la technologie. Nous devons reconnaître que lorsque ce travail a commencé, c’est-à-dire lorsque la proposition de la Commission a été présentée, il n’y a pas eu suffisamment d’attention sur le rôle prééminent des grands modèles de langage qui sont désormais des éléments constitutifs de l’IA et de son passage à l’échelle. L’IA, via ces modèles de langage, devient de plus en plus généraliste alors que l’esprit initial du règlement était davantage organisé en niveaux de risques, eux-mêmes dépendants du cas d’usage visé. Nous avons donc ajouté des modifications en cours de route mais je pense que le texte sera résilient et restera pertinent à l’avenir parce qu’il a maintenu un certain degré de flexibilité et d’adaptation indispensable pour appréhender l’évolution rapide de l’IA.

Comment mieux développer et partager les capacités de calcul nécessaires à l’IA au sein de l’Union ? L’inégale répartition actuelle des programmes de formation aux infrastructures cloud ne risque-t-elle pas de créer une fracture au sein de l’Union ?

Il est essentiel que nous ayons plus de compétences partagées pour travailler sur l’accessibilité des capacités de calculs et le partage de la donnée. Cela peut passer par plus de projets clairs au niveau européen qui rendent cette infrastructure accessible à ceux qui en ont besoin. La présidente von der Leyen en a également parlé lors de son dernier discours sur l’état de l’Union. La puissance de calcul, l’infrastructure, l’accès aux données et le talent sont essentiels.  

L’anxiété augmente à l’égard de l’IA en général, mais la confiance dans cette technologie varie considérablement d’une région à l’autre. Elle est généralement beaucoup plus élevée dans les pays émergents que dans les pays développés. La confiance des citoyens dans la capacité des entreprises utilisant l’IA à protéger leurs données personnelles varie de 72 % en Thaïlande à seulement 32 % en France. Quelle réponse politique peut-on apporter ?

La façon dont l’AI Act est conçue porte une partie de la réponse à cette anxiété puisque nous protégeons les données en nous concentrant sur les systèmes d’IA à haut risque. Mais ce défi de pédagogie et de sensibilisation n’est pas seulement celui du régulateur : nous avons certes besoin des institutions mais l’éducation, la société civile — à travers notamment les organisations de consommateurs — ou les médias sont absolument clefs. Nous disposons du régime réglementaire le plus avancé pour la protection des données et pour la confiance en général : il faut s’en saisir.

Nous disposons du régime réglementaire le plus avancé pour la protection des données et pour la confiance en général : il faut s’en saisir.

Brando Benifei

La raison pour laquelle nous avons construit cette réglementation s’inscrit précisément dans cette idée de construire un environnement propice au développement de la confiance. Celle des consommateurs est cruciale pour la diffusion de l’IA dans notre économie et ainsi faire que l’Europe bénéficie de la croissance qui en résulte. Cet effort est d’autant plus exigeant dans nos démocraties ou, sans confiance, les gens rejetteront l’utilisation de l’IA. Par exemple, j’ai moi-même perçu une grande méfiance de nombreux actifs à l’égard de l’utilisation de l’IA sur le lieu de travail. Il nous faut la surmonter. C’est pourquoi, à cet égard, l’AI Act apporte des garanties supplémentaires pour les travailleurs.

Alors que nous entrons dans un cycle électoral très dense — la moitié de la planète est appelée aux urnes en 2024 — il semblerait que nous assistions aussi à l’émergence d’un nouveau mode d’utilisation massive de l’IA générative à des fins de désinformation. Comment pensez-vous que les développeurs en IA et les décideurs publics peuvent collaborer sur cette question ?

C’est un sujet en effet important mais qui reste encore trop confidentiel : nous devons y travailler. Il est essentiel de coopérer avec les développeurs et de trouver des solutions techniques pour poursuivre nos objectifs politiques de transparence et de lutte contre la désinformation, en vérifiant la faisabilité technique de ce que nous proposons avec les scientifiques et les développeurs eux-mêmes. Ces sujets techniques, mais nous devons aussi les pousser dans le débat public avec l’aide des acteurs de l’IA. Par exemple, pour rendre compréhensible notre effort sur le watermarking des contenus générés par l’IA, il est clair que nous avons besoin de formation et d’apprentissage pour les candidats qui se présentent aux élections, mais aussi pour tous les décideurs publics aujourd’hui en fonction.

L’IA constitue-t-elle un sujet clivant au sein du Parlement européen ? Peut-on imaginer que l’IA soit un sujet du débat des prochaines élections européennes ?

L’AI Act a fait l’objet d’un large consensus au sein des partis politiques sur de nombreux points. Néanmoins, il existe quelques points sur lesquels les clivages politiques apparaissent clairement. 

La question de l’imposition de règles aux grandes entreprises, en particulier concernant la transparence sur les contenus générés par l’IA, a été beaucoup débattue. Concernant la liberté d’expression et la modération de contenu, le débat n’a pas lieu uniquement aux États-Unis, lorsqu’on écoute Donald Trump. En Europe aussi, certaines forces politiques pensent que la nécessité de soustraire certains types de contenus à la libre circulation s’apparente à de la censure. Ce clivage influence nos échanges sur l’IA. 

En Europe aussi, certaines forces politiques pensent que la nécessité de soustraire certains types de contenus à la libre circulation s’apparente à de la censure.

Brando Benifei

On pourrait aussi mentionner tout ce qui a trait aux questions de surveillance et à la sécurité nationale. L’utilisation de caméras biométriques, de la police prédictive, ou du profilage biométrique sont des sujets sur lesquels les clivages politiques entre la droite et la gauche sont de plus en plus marqués.

Quels seraient vos trois vœux pour l’écosystème européen de l’IA en 2024 ?

Sans les hiérarchiser, je m’en tiendrais aux trois points suivants.

D’abord, je souhaite que nous commencions à voir la construction d’un corpus de droit international autour de l’IA qui se concentrerait particulièrement sur ses dangers systémiques qui ne peuvent pas être abordés uniquement par une législation nationale ou même européenne. Je pense par exemple aux questions de sécurité globale ou aux usages militaires de l’IA. J’espère que nous verrons l’année prochaine une avancée sur ce point.

Deuxièmement, dans le contexte de l’ONU, du G7 ou du G20, j’espère qu’il y aura plus d’attention de la part des institutions sur la nécessité de former les gens à l’intelligence artificielle, non seulement dans le cadre de la formation initiale, mais aussi pour la formation continue des travailleurs et des citoyens en général — car le risque d’être manipulé par l’IA existe si l’on n’est pas familiers de ses outils.

Mon dernier point est que le nouveau cycle législatif européen qui fera suite aux élections verra la mise en œuvre du texte que nous avons conçu. Il lui donnera vie car aujourd’hui, bien que tout le monde en parle, nous n’en voyons pas encore les effets. Il faudra également aller plus loin sur certains sujets notamment sur tous les aspects relatifs à l’impact de l’IA sur le lieu de travail qui n’ont pas été assez abordés par l’AI Act en raison de son cadre juridique. Tout ceci est également lié à un souhait plus large, celui d’avoir une Union européenne plus intégrée et, pour moi, une union fédérale afin que nous puissions être plus efficaces dans la gestion de tous ces grands changements qui se produisent.