Une transformation radicale est en cours. Il n’est pas trop tard pour garder le contrôle de l’IA — et nous avons encore le choix. Découvrez notre série « Puissances de l’IA » et soutenez la première revue européenne indépendante en vous abonnant au Grand Continent

À l’heure où le développement de l’IA semble mécaniquement conduire à renforcer la centralisation du pouvoir aux mains de quelques acteurs, lutter contre les monopoles est-il encore possible ? 

Pour répondre à votre question, je serais assez tentée de faire un détour historique pour prendre les choses à rebours de ce qu’on nous présente habituellement.

Le constat d’une concentration massive du pouvoir aux mains de quelques entreprises, dopée par l’IA, n’est pas une opinion : elle repose sur une analyse matérielle et une vision politico-économique de l’histoire de l’industrie technologique — que je connais de l’intérieur pour avoir travaillé dans ce domaine chez Google de 2006 à 2019.

Le début des années 2010 était une période très structurante pour l’entreprise, au cours de laquelle l’IA est en quelque sorte arrivée à bon port dans une forme stabilisée. C’est également au cours de cette période que le paradigme du deep learning a refait surface.

Pour comprendre ce dont on parle lorsqu’on évoque l’IA, il faut comprendre l’histoire du modèle commercial des plateformes et les raisons de la grande bifurcation d’Internet dans les années 1990.

Au cours des quatre-vingt dernières années, de nombreuses approches technologiques très hétérogènes ont été regroupées sous le terme générique d’« IA ».

Le deep learning est l’une de ces approches, aujourd’hui dominante.

Au cours des années 2010 s’est opéré à bas bruit un grand tournant dont peu ont alors vraiment compris l’ampleur. 

Le deep learning s’est imposé pour devenir synonyme de ce qu’on nomme aujourd’hui IA.

Pourquoi cette approche, assez marginale jusque dans ces années 2010, a-t-elle soudainement refait surface pour en venir à incarner seule la totalité de ce que nous considérons comme l’IA ?

Cela s’explique très simplement : à cause du modèle économique des plateformes.

Dans les années 1990, les plateformes numériques ont été incitées à se développer à tout prix selon une logique éprouvée : créer des réseaux de communication non réglementés, capturer l’effet de réseau, conquérir le marché, parvenir à des économies d’échelle et collecter autant de données que possible pour alimenter un modèle économique fondé sur la publicité et la surveillance.

Ainsi Facebook, Google, Amazon Marketplace, Microsoft avaient au début des années 2010 déjà calibré leurs capacités de calcul pour stocker et traiter de grandes quantités de données. Les infrastructures étaient en place pour l’IA : elles étaient les mêmes que celles qui avaient porté leur modèle économique.

En plus de ces capacités de calcul, ces acteurs disposaient également de plateformes massives au sein desquelles ils stockaient et traitaient des données en quantité colossale. 

À ce moment-là, ils ont compris que l’approche du deep learning — à partir de certains développements des années 1980 comme la rétropropagation sur laquelle Yann Le Cun avait travaillé par exemple — devenait à nouveau pertinente car il était désormais possible de tester ces algorithmes à l’échelle de ces modèles commerciaux.

Ce que nous appelons IA n’est en fait pas vraiment une innovation.

Meredith Whittaker

Comment expliquez-vous leur succès ?

Cela fonctionnait très bien pour optimiser un flux de réseaux sociaux qui repose sur l’engagement.

C’est frappant lorsqu’on regarde les choses plus concrètement. Si l’on met en parallèle par exemple les progrès de l’IA avec les changements apportés à l’algorithme de YouTube et les préoccupations concernant, par exemple, la radicalisation ou les raisons pour lesquelles on nous abreuve de vidéos qui suscitent la colère ou nous maintiennent devant les écrans, on se rend compte que les modèles d’IA — les modèles de deep learning — ont d’abord été testés sur des algorithmes comme celui de YouTube.

Autrement dit, leur première application — qui était aussi un premier test — a été d’optimiser les réseaux sociaux financés par la publicité.

Ce n’est qu’à partir de ce modèle basé sur l’engagement qu’un modèle commercial plus large, centré sur ce qu’on appelle désormais l’IA, a pu se constituer.

C’est pour cela qu’il me semblait important de faire ce détour par l’histoire des réseaux sociaux : elle permet de comprendre pourquoi ce que nous appelons IA n’est en fait pas vraiment une innovation.

Ce dont nous parlons, c’est d’une forme politique et économique de captation du marché fondée sur un modèle commercial de surveillance et une concentration du pouvoir qui s’appuie sur les effets de réseau. C’est ce modèle qui a rendu un certain type d’IA à nouveau pertinent.

L’IA a été faussement présentée comme une innovation scientifique, alors qu’elle est en réalité le résultat d’une concentration de pouvoir entre quelques acteurs historiques qui se sont imposés pendant la phase d’accumulation primitive de la commercialisation d’Internet.

Ne voit-on pas pourtant émerger des start-up de l’IA, des petites entreprises en passe de créer des modèles qui fonctionnent aussi bien que ceux des géants ? 

Il existe en effet un certain nombre de start-ups spécialisées dans l’IA.

En Europe, on pense à Mistral et à d’autres qui sont capables de construire de grands modèles performants.

Mais si l’on examine l’ensemble du processus — du développement d’un modèle à sa monétisation — on constate que le marché reste extrêmement concentré et que les hyperscalers auront toujours un avantage unique sur tous leurs concurrents. 

Ainsi, même si Mistral est capable de construire son propre modèle, l’accès au marché rend toujours ce modèle dépendant d’un hyperscaler. Une startup donne accès au modèle de Mistral via un serveur d’Amazon Web Services ou un autre fournisseur d’infrastructure.

L’accès au marché est donc contrôlé par ceux qui possèdent des serveurs cloud, qui concèdent des licences d’accès et commercialisent sous différents noms et avec différentes marques le protocole d’un modèle donné, ou par ceux qui disposent de plateformes dans lesquelles ils peuvent intégrer un modèle d’IA.

Or il n’existe aujourd’hui aucun autre marché aussi complet que celui des États-Unis en termes de domination du secteur de l’IA. 

Si l’on gratte un peu sous la surface, on constate qu’un certain nombre de start-ups ne font en fait que commercialiser Chat GPT sous différents noms, en combinant une série de codes en libre accès et en créant une nouvelle interface utilisateur. 

Le jour où Open AI — ou Microsoft, qui semble être en train de vouloir en prendre le contrôle — voudra changer son modèle, sa tarification ou ses autorisations, ou qu’il se verra infliger des sanctions par la puissance publique, les plus petits acteurs en subiront directement les effets — et devront s’aligner.

L’IA a été faussement présentée comme une innovation scientifique alors qu’elle est en réalité le résultat d’une concentration de pouvoir entre quelques acteurs historiques.

Meredith Whittaker

À vous entendre, l’IA serait donc au mieux une bulle…

C’est évident : il y a une bulle de l’IA.

Les entreprises sont valorisées, mais ne font pas de bénéfices — elles ne parviennent même pas au seuil de rentabilité. 

Les dépenses d’investissement sont fantaisistes et les promesses de plus en plus difficiles à croire. Beaucoup d’air entre dans ce ballon, la bulle de l’IA n’en finit plus de gonfler. Mais on ne voit pas encore à quoi pourrait ressembler le retour sur investissement.

On voit en revanche beaucoup de schémas de dettes circulaires.

Un exemple récent était l’investissement de Nvidia dans Open AI. Le cours de l’action d’Open AI augmente. Mais la valorisation de Nvidia dépend aussi de celle d’Open AI. Cela stimule donc aussi leur action et ils récupèrent leur argent. 

Ces investissements dans les start-ups de l’IA n’étaient par ailleurs pas faits sous forme d’argent mais sous forme d’accès aux infrastructures de ces hyperscalers pour que les modèles servent à les améliorer — ce qui conduit à faire grimper le cours des actions des hyperscalers.

En parallèle, les promesses faites sur le marché s’éloignent de plus en plus de la réalité matérielle du fonctionnement de ces systèmes, de leurs limites et de leurs seuils réels. 

Donc oui : il y a une bulle.

Je nuancerais toutefois cela par une dimension non négligeable : au plan géopolitique, l’IA est un outil de contrôle stratégique.

Qu’entendez-vous par « contrôle stratégique » ?

70 % du marché mondial des infrastructures cloud est contrôlé par trois entreprises américaines.

Le gouvernement américain et le secteur privé en sont profondément conscients.

C’est un avantage géopolitique extraordinaire. 

Je n’ai pas de concept tout fait pour cela, mais je suis sûr qu’on pourrait en trouver un…

« Vassalisation heureuse » ?

Voilà, par exemple. 

Vous pouvez modifier les outils, les protocoles, la structure tarifaire, cela ne changera pas un fait essentiel : les gouvernements, les institutions et toutes les start-ups européennes spécialisées dans l’IA continuent de fonctionner principalement sur l’infrastructure américaine ou ont à tout le moins besoin d’accéder à certaines parties de cette infrastructure.

On le voit très concrètement dans nos vies quotidiennes. Lorsque le cloud d’Amazon tombe en panne, 30 % d’Internet est hors service — et ces coupures nous affectent tous.

Si vous utilisez une infrastructure cloud européenne, vous utilisez probablement Amazon DynamoDB ou l’un de ces services hébergés sur Amazon Web Services, où les outils, les normes et tout le reste sont gérés par Amazon.

La position dominante et hégémonique de ces acteurs a des conséquences.

Elle est stratégique pour le gouvernement américain.

Avec une question : si la bulle éclate, l’État fédéral la regonflera-t-elle en renflouant les caisses de ces entreprises ?

Je n’ai pas la réponse.

Que devrait faire l’Europe dans cette situation ?

Elle devrait déjà commencer par appliquer de manière stricte le RGPD.

C’est un règlement qui existe déjà et qui, interprété de manière conservatrice, pourrait conduire à interdire la publicité de surveillance — coupant les flux de données vers les acteurs historiques de l’IA et disruptant réellement cette concentration de pouvoir. La solution est là. 

Il y a toutefois un problème de volonté politique et d’état d’esprit : chacun veut s’attribuer le mérite d’avoir réglementé sans véritablement utiliser les leviers à disposition.

En quel sens ? 

Je ne suis pas une responsable politique. Je passe mes journées à réfléchir au développement et à la maintenance d’infrastructures critiques pour les communications privées.

Mon hypothèse est que beaucoup de gens aiment être proches du pouvoir mais que ceux qui veulent vraiment s’y opposer sont moins nombreux. 

S’opposer fait peur ; et c’est coûteux.

Il est difficile de montrer que l’on est prêt à s’opposer au pouvoir en place sans perdre sa place à la table des négociations.

En ce qui concerne les mesures à prendre, il me semble important de souligner un aspect très pratique : il existe une convergence d’intérêts massive. Nous devrions être capables de trouver une incitation commune parmi des acteurs aussi divers que les organisations de défense des droits de l’homme, tous les gouvernements et toutes les armées, pour dénoncer certaines des applications de l’IA — car la manière dont ces modèles et systèmes IA sont intégrés dans les infrastructures critiques est très risquée.

Les règles élémentaires de la cybersécurité ont été totalement oubliées. Des choses qui auraient fait rire tout le monde chez Google il y a huit ans sont aujourd’hui acceptées sans sourciller.

Si la bulle éclate, l’État fédéral la regonflera-t-elle en renflouant les caisses de ces entreprises ? Je n’ai pas la réponse.

Meredith Whittaker

À quoi pensez-vous précisément ? 

La volonté désespérée de trouver le marché qui satisfera les investisseurs et d’atteindre le seuil de rentabilité conduit à des choix de plus en plus imprudents : nous sapons nos infrastructures de base en nous en remettant partout à des modèles de langage (LLM) qui ne sont pas sûrs. 

Une étude récente d’Anthropic a montré qu’il suffisait de 250 documents « contaminés » dans la base de données d’un LLM, quelle que soit sa taille — ils peuvent parfois contenir plusieurs milliards de datapoints — pour créer une faille permettant des manipulations poussant les LLM à des actions malveillantes.

C’est un peu abstrait dit comme cela, mais pour comprendre il suffit de se dire qu’il est impossible de nettoyer une masse informe de données qui a été récupérée en vrac sur l’ensemble d’Internet.

Nous avons aussi affaire à des escrocs qui vendent l’accès aux API — les interfaces entre les modèles et les applications — et aux LLM à nos militaires pour prendre des décisions.

Nous avons intérêt à dénoncer cette situation et à mettre fin à l’hémorragie. 

Il est également dans notre intérêt de dénoncer l’intégration des « agents » — qui est en fait un terme de marketing désignant des robots qui effectuent des tâches complexes à notre place sans nous demander la permission. Pour réserver un billet pour aller au cinéma, prévenir vos amis, faire une réservation au restaurant, ces « agents » ont besoin d’accéder à une énorme quantité de données d’une manière très peu sécurisée. « L’agent » a besoin d’accéder à votre carte de crédit, à votre navigateur pour rechercher un restaurant, à votre historique de navigation, à votre calendrier, à tous vos événements — même à votre messagerie Signal, que vous utilisez pour pouvoir communiquer avec vos amis.

C’est une faille dans l’architecture de sécurité sur laquelle nous nous appuyons. Elle est en partie présupposée par une croyance erronée mais encore très répandue : les développeurs et les utilisateurs ont confiance dans le fait qu’il s’agit de plateformes neutres qui feront ce que nous leur demandons. Or ces plateformes sont instrumentalisées par des agents IA très peu sûrs, qui utilisent des commandes en langage naturel très difficiles à sécuriser, des données presque impossibles à assainir, et qui créent une porte dérobée dans des applications telles que Signal — où notre cryptage n’a plus d’importance puisqu’il suffit de profiter de cet agent qui dispose d’un accès interne à votre appareil pour accéder à vos données Signal.

Il s’agit d’une menace existentielle pour la sécurité et la confidentialité au niveau de la couche des applications — une sécurité et une confidentialité sur lesquelles s’appuient toutes les armées, tous les gouvernements et toutes les organisations de défense des droits de l’homme.

Toute personne ayant des connaissances techniques de base ne peut nier cette analyse.

À nous de la faire connaître le plus largement possible pour mettre fin à cette folie.