Que vous nous lisiez régulièrement ou pour la première fois, découvrez nos offres pour approfondir et soutenir le Grand Continent en vous abonnant à la revue

English version available at this link

Partir du commun : plaidoyer pour une stack mondiale

Le président français Emmanuel Macron a récemment déclaré que l’Europe était en train de traverser un moment existentiel. Ce n’est pas une exagération. De fait, le monde entier y est plongé. Orienter — et, si nécessaire, freiner — le développement de l’IA est aujourd’hui la question la plus importante à laquelle nous sommes collectivement confrontés.

Alors que s’ouvre aujourd’hui le Sommet sur l’impact de l’IA à New Delhi, les États, les entreprises, la société civile et l’ensemble des parties prenantes ont l’occasion de créer un nouveau mouvement non aligné autour des principes fondamentaux d’une IA ouverte, résiliente et collaborative. S’inspirant du Mouvement des pays non alignés qui cherchaient à rester neutres pendant la guerre froide dans les années 1950 et 1960, cette initiative viserait à apporter une réponse à la question fondamentale de notre souveraineté technologique : qui contrôle et exerce une influence sur l’IA ? 

Avant de se demander où, quand et comment les pays peuvent exercer leur contrôle et leur pouvoir d’action pour créer et fournir une IA qui serve véritablement les intérêts humains et publics, il faut partir d’une notion clef : la stack

La stack de l’IA — qu’on pourrait traduire, bien improprement, par « empilement » — est la hiérarchie des composants nécessaires pour construire, exécuter et faire évoluer des applications d’IA.

On la décompose généralement de la manière suivante : 

  • la couche infrastructure : c’est-à-dire le matériel (par exemple les GPU) et les plateformes cloud sur lesquelles il fonctionne (par exemple des fournisseurs comme Amazon Web Services) ;
  • la couche modèle : c’est-à-dire les modèles de langage eux-mêmes (tels que GPT-4 ou Claude) et les outils permettant de les exploiter ;
  • la couche données : c’est-à-dire l’ensemble des informations utilisées pour entraîner et faire fonctionner les modèles ;  et enfin
  • la couche application : c’est-à-dire le point de jonction entre le modèle et ses utilisateurs — que le dispositif utilisé soit grand public ou professionnel.

Pour presque tous les pays, contrôler verticalement toutes les couches de cet empilement est impossible : au-delà du coût d’investissement extrêmement élevé, l’accès à la technologie, à l’expertise et à l’énergie reste inégalement réparti sur le globe. Un pays peut toujours déclarer souhaiter disposer souverainement de ses propres semi-conducteurs, centres de données, modèles et applications. Dans la pratique toutefois, les effets d’échelle nécessaires pour parvenir à la constitution d’une stack complète dissuadent.

Pourtant, les pays et leurs populations souhaitent une IA « souveraine », singulière, très spécifique à leur histoire, à leur culture et finement adaptée aux besoins et aux résultats d’intérêt public, qui sont intrinsèquement contextuels.

Comment y parvenir ? 

Il faut tout d’abord reconnaître que les stacks « ouvertes » sont plus intelligentes et plus résilientes. 

L’ouverture dans le domaine de l’intelligence artificielle — définie ici comme des modèles d’IA librement accessibles pour être utilisés, étudiés, modifiés et partagés, des modèles qui combinent des éléments de science ouverte, d’innovation ouverte, de données et de sources ouvertes — permet cette troisième voie. Les stacks ouvertes permettent aux puissances moyennes — c’est-à-dire en fait toutes les puissances qui y ont intérêt — de tirer parti de la valeur sociale, économique et politique de l’IA.  

Deuxièmement, il est clair qu’aucun pays, à l’exception de la Chine et des États-Unis, ne peut aspirer à disposer d’une stack entièrement souveraine — la souveraineté étant définie ici comme l’action et le contrôle sur tous les aspects de cette stack, les différentes étapes de la production d’applications clefs de l’IA.

Allons même plus loin : une telle approche n’est pas souhaitable. Et il est préférable d’en prendre conscience tout de suite et de l’accepter plutôt que de faire semblant. L’objectif ne doit donc pas être une stack nationale et souveraine, mais une stack mondiale, ouverte, résiliente, adaptable aux besoins uniques de chaque pays — et non alignée, c’est-à-dire indépendante de tout contrôle par un pays ou acteur tiers.

La France, l’Allemagne, le Nigeria, l’Inde et le Maroc ont, en matière d’IA, beaucoup plus de points communs que de sujets de division : de fait, toutes les puissances moyennes ont aujourd’hui plus en commun entre elles qu’avec les États-Unis ou la Chine.

Et c’est de ce commun qu’il faut partir.

Cem Sonel, Device V, 2023. © Cem Sonel

Une autre définition de la souveraineté

La plupart des discussions sur la souveraineté en matière d’IA sont basées sur de mauvaises prémices. En réalité, plus la stack est ouverte — c’est-à-dire diversifiée —, plus elle est résiliente ; moins elle est ouverte, plus elle dépend des choix de quelques acteurs — et plus la position d’un seul pays vis-à-vis de cette technologie cruciale est fragile.

Être souverain ne signifie pas nécessairement exercer un contrôle ou une propriété totale sur une technologie — surtout s’il ne s’agit là que d’objectifs rhétoriques qui ne peuvent jamais être atteints dans la pratique. Toute souveraineté implique la résilience, le partage des éléments qui peuvent être partagés et la propriété des éléments qui peuvent être possédés. Le problème n’est pas, en soi, d’accorder trop d’importance à la dimension « physique » de l’infrastructure IA, à travers la construction de centres de données. Ceux-ci sont une condition nécessaire mais non suffisante pour qu’une IA d’intérêt public puisse prospérer. La manière dont sont utilisées ces infrastructures, qui les utilise, la disponibilité et l’accessibilité de données de haute qualité pour les alimenter sont autant d’éléments tout aussi importants.

Prenons un exemple très concret. Si l’on veut un jour trouver un remède au cancer du sein — au-delà de l’amélioration des chances de détection et de prévention, où des progrès ont été réalisés — les modèles d’IA devront pouvoir accéder, dans le respect de la vie privée, aux données sur les résultats des traitements des patients et probablement aussi aux données génétiques des individus. Or pour que les patients acceptent de fournir ces informations, ils devront avoir confiance dans le fait que le système respectera leurs droits et n’utilisera pas ces données à leurs dépens dans leur vie quotidienne — pour augmenter leurs tarifs d’assurance, rabaisser leur note de crédit immobilier ou communiquer ces informations à leurs employeurs, par exemple. Or nous sommes très loin d’avoir atteint ce stade. Les centres de données auront justement besoin de ces données souvent personnelles, contextuelles et de confiance. 

La quête de souveraineté en matière d’IA est motivée par une impulsion légitime : la prise de conscience commune des gouvernements et du secteur privé que la dépendance vis-à-vis des grands acteurs technologiques étrangers constitue une vulnérabilité critique. Mais la souveraineté ne s’arrête pas là — et l’opinion publique l’a bien compris. 

Les populations exigent de leurs dirigeants de plus en plus de choix et d’autonomie en matière de technologies qui façonnent la vie quotidienne et le travail. Pour répondre à ces besoins, la souveraineté en matière d’IA doit aller au-delà de la sécurité nationale et de la compétitivité, en donnant la priorité à cette demande pour des technologies ouvertes, respectueuses de la vie privée et qui ne nous enferment pas dans un carcan mais nous donnent plutôt les moyens d’agir. Cette approche permettra aux utilisateurs quotidiens de bénéficier des mêmes contrôles et de la même autonomie sur les données les concernant que ceux que les entreprises technologiques offrent régulièrement aux utilisateurs professionnels. 

Les détracteurs diront que la souveraineté est un obstacle à l’innovation et que celle-ci érige des barrières qui rendent la technologie plus difficile à utiliser. Définir la souveraineté comme le contraire de l’innovation et la souplesse d’utilisation est un tour de passe-passe séduisant, qu’on entend de plus en plus. On rétorquera qu’acheter des produits à des propriétaires uniques, se retrouver prisonnier d’accords avec des fournisseurs que vous ne pouvez pas contrôler et qui pourraient tout à fait choisir, eux, de ne pas innover, ce n’est pas innovant : c’est monopolistique. Et les monopoles tuent l’innovation. 

Comment faire les bons choix ? 

Les modèles d’IA sont des denrées de base 

Après l’évolution extrêmement rapide de ces dernières années, les modèles d’IA sont en passe de devenir des produits de base.

À périmètre fonctionnel iso — qu’il s’agisse d’OpenAI, d’Anthropic ou de tout autre acteur du secteur — une certaine uniformité de qualité s’est imposée au cours de ces douze derniers mois. 

S’il existe des différences importantes à la frontière, pour la plupart des applications spécifiques et contextuelles d’intérêt public, le modèle est moins important que la couche produit : la différence se fait au niveau de la couche applicative, lorsque les produits destinés aux entreprises et au grand public sont développés. Pour l’instant, force est de constater que la valeur réside dans ces produits et services. Pour réussir et apporter des améliorations tangibles dans la vie des gens, tous les pays devront avoir accès à des ensembles de données nationaux et internationaux pertinents, accessibles et de haute qualité, ainsi qu’à des solutions prêtes à l’emploi sur une plateforme partagée, mondiale et ouverte. 

Au-delà de la force de calcul : données, sources ouvertes et modèles plus petits

Les lois d’échelle — qui postulent que plus les modèles sont grands, plus la puissance de calcul doit être importante et les données nombreuses, et donc plus le modèle sera puissant — ont fait de la puissance de calcul une obsession. 

Or depuis quelques mois, la question se pose de savoir si ce principe — en vertu duquel des investissements colossaux ont pu être réalisés — est toujours aussi pertinent aujourd’hui 1.

Pour la plupart des applications contextuelles, ce qui importe, c’est une certaine puissance de calcul bien sûr, mais aussi l’investissement dans les données et l’investissement dans l’open source 2.

L’innovation dans le domaine des données 

En matière de puissance de calcul, l’innovation a été stupéfiante au cours des dix dernières années. Le rapport prix/performance des GPU a doublé environ tous les deux ans au cours de la décennie qui s’achève.

En revanche, l’innovation en matière de données — comment accéder, mettre à disposition et utiliser les données, y compris les données personnelles, d’une manière que les gens trouvent sûre et fiable — a largement stagné.

Ce secteur nécessite aujourd’hui des investissements colossaux. Les experts débattent des approches collaboratives en matière de partage des données — qu’il s’agisse de trusts de données ou d’autres formes de gestion 3 — mais rares sont les acteurs qui ont atteint l’échelle nécessaire pour avoir un réel impact. Des investissements sont donc indispensables tant sur le plan technique — notamment sur la question clef de la séparation entre les données et le modèle de langage — que sur le plan de la gouvernance — comment garantir, notamment, que le partage des données de groupe inspire confiance à ceux qui les partagent. 

Cem Sonel, First Contact, 2019. © Cem Sonel

L’investissement dans l’open source 

Il en va de même pour l’open source.

Malgré tous les discours sur l’importance cruciale de l’open source pour la stack et l’écosystème IA, le secteur souffre d’un manque massif d’investissements.

Comme pour les logiciels ouverts, le développement de l’IA open source de haut niveau sera d’abord financé par les plus grandes entreprises utilisatrices, laissant de côté un niveau inférieur de dépendances critiques, presque entièrement soutenu par des bénévoles. Quelques groupes se distinguent, comme ROOST 4, une organisation à but non lucratif qui fournit des outils ouverts de confiance et de sécurité, mais ils restent l’exception qui confirme la règle. L’investissement dans ce domaine est donc essentiel.

Briser l’idole de la stack

Pour les puissances moyennes, la souveraineté ne consiste pas à recréer toute la chaîne de valeur de l’IA chez elles. En réalité, la souveraineté doit être pensée selon un axe allant de la fragilité à la résilience. Plus la stack est ouverte — c’est-à-dire diversifiée —, plus elle est résiliente ; moins elle est ouverte, plus elle dépend des choix de quelques acteurs — et plus la position d’un pays vis-à-vis de cette technologie cruciale est fragile.

Il s’agit de travailler ensemble et d’identifier quels éléments constitutifs de la stack IA — le matériel, l’infrastructure, le modèle, les applications — doivent et peuvent être ouverts 5, lesquels nécessitent une coopération internationale et comment, lesquels doivent réellement être développés chez elles et ce qui est nécessaire pour que ce développement national réussisse. 

Pour ce faire, les États doivent assumer leur rôle de façonneurs du marché en identifiant de manière proactive les éléments de la stack IA qui doivent et peuvent être souverains de manière réaliste, ceux pour lesquels il est acceptable ou peut-être temporairement inévitable qu’ils ne le soient pas — par exemple, lorsque le risque de dépendre de fournisseurs étrangers pour les services numériques est en réalité moindre que le coût de la réduction de cette dépendance — et ceux qui devraient être open source. Dans certains cas, l’État peut et doit exercer sa souveraineté en ouvrant le marché comme l’a fait le Royaume-Uni avec les données ouvertes et l’open banking 6, et non en le fermant. Développer une offre commerciale mondiale pour une stack souveraine de sorte que chacun puisse avoir accès aux outils et aux données nécessaires pour créer de nouveaux modèles, c’est la tâche qui attend le prochain sommet sur l’impact de l’IA.

Cem Sonel, Device VI, 2023. © Cem Sonel

Géopolitique de l’IA : vers un non-alignement

Pour que cela se produise, le domaine de l’IA a besoin de trois choses — et la bonne nouvelle, c’est que nous en avons déjà deux.

Tout d’abord, nous avons besoin de plateformes pour favoriser ces échanges internationaux, telles que Current AI 7, lancée il y a un an lors du Sommet Action IA à Paris, qui rassemble la communauté des développeurs, le secteur privé, gouvernements et fondations philanthropiques afin de construire une vision collective, collaborative et indépendante de l’IA. Celle-ci nécessite des ressources et des talents à la hauteur afin de développer une technologie qui serve l’intérêt public.

Deuxièmement, nous avons besoin d’outils et d’investissements dans l’open source et l’innovation en matière de données pour alimenter ce réalignement. Là encore, il existe déjà de nombreuses organisations qui se concentrent à l’origine sur les logiciels open source et qui peuvent apporter leur soutien.  

Enfin, troisièmement, les pays devront identifier de nouvelles formes de coopération internationale qui, plutôt qu’entretenir la rivalité et la concurrence, contribuent à aider les puissances moyennes à s’unir pour construire une stack résiliente, ouverte et non-alignée. Notre utilisation géopolitique du terme alignement a un sens différent du terme « alignement de l’IA » : une IA « alignée » est une terminologie propre au mouvement lié à la sécurité de l’IA, une technologie en phase avec ce que ses concepteurs veulent qu’elle fasse. Une IA proprement contextuelle, produisant des améliorations tangibles dans la vie des gens ne nous semble pouvoir être atteinte qu’en sortant à la fois de l’orbite monopolistique des géants de la technologie, qu’ils soient chinois ou américains, et en abandonnant le mythe d’une stack souveraine complètement nationale. En matière d’IA, pour produire une IA d’intérêt général avec des résultats et des finalités au service de l’humain, un non-alignement géopolitique est nécessaire.

En somme, il s’agit de montrer — et non simplement de dire — que l’IA peut être un nouvel outil pour rapprocher les pays plutôt que de les diviser.

À cet égard, la série de sommets sur l’IA a un rôle crucial à jouer. En se passant le relais d’une année à l’autre, en s’appuyant les uns sur les autres et en contribuant à la cohérence, plutôt qu’à la fragmentation de la gouvernance et des infrastructures mondiales en matière d’IA, une alliance est en train de voir le jour.

Dans le domaine de cette technologie, c’est une réponse à l’appel formulé par Mark Carney d’une alliance des puissances moyennes à Davos

Il ne s’agit pas de ne pas choisir un camp mais plutôt de créer des possibilités et des moyens d’action afin que de nombreux partenariats mutuellement bénéfiques puissent s’épanouir. La troisième voie actuelle en matière d’IA va plus loin que le non-alignement traditionnel : elle cherche à créer de multiples voies et connexions afin de construire une IA ouverte, résiliente et qui refuse toute forme d’emprise technologique sous le joug des grands monopoles.