L’IA et l’Europe avec Kidron, Benanti, Bradford, Bouverot, le Pas de Sécheval, Crawford et López Águeda
« Le moment est venu de créer une nouvelle vision de l'IA qui ne se contente pas de rattraper le modèle extractif de la Silicon Valley et d'y apposer un drapeau européen. »
Au Sommet Grand Continent, nous avons réuni les principales figures de l’IA autour d’une question simple : y a-t-il une voie européenne à l’IA ?
- Auteur
- Le Grand Continent
Une récente étude publiée dans le Grand Continent révèle que plus de 80 % des citoyens européens, américains et asiatiques considèrent que la souveraineté technologique est importante ou très importante. Quels sont les doutes et interrogations qui sous-tendent un tel ralliement ?
Beeban Kidron Chaque fois que le sujet de la souveraineté technologique est abordé, je réponds que nous en avons besoin ; mais je pense aussi que nous ne nous interrogeons pas assez sur ce que nous voulons que soit l’IA. Quel est son rôle dans notre société ? Que cherchons-nous à éviter ?
Je pense que l’une des erreurs commises par le gouvernement britannique est d’avoir tenté de se lancer dans la course à l’IA sans vraiment définir ce que cela signifie. Où se situent les points de blocage ? En tire-t-on des richesses ? Les gains d’efficacité sont-ils locaux ou profitent-ils à tout le pays ?
L’IA touche à de nombreux sujets : la culture, l’enfance et nos lois. Si nous voulons que celle-ci soit différente dans tous les domaines de notre vie, nous devons avoir un point de blocage, pour décider à quoi elle ressemble.
Óscar López Águeda Pour résumer, il y a actuellement deux grands débats en Europe autour de l’IA et de la transformation numérique.
Le premier débat concerne bien sûr la souveraineté : avec le Covid, nous avons découvert en Europe que nous n’avions pas de puces et de semi-conducteurs et que nous dépendions de la Chine et des États-Unis.
Le second concerne le changement d’administration aux États-Unis, alors que Trump a été réélu en novembre 2024 ; cependant, ce changement est temporaire ou, du moins, nous pouvons l’espérer.
Le sondage Eurobazooka avait révélé une certaine peur en Europe, liée à nos doutes quant à la manière de faire face à l’administration américaine. Il y a cependant sur le continent un autre problème, qui touche à la montée de nouveaux partis nationalistes et d’extrême droite. États-Unis mis à part, nous avons donc aussi nos propres problèmes.
Aujourd’hui, tous les pays en Europe sont d’accord pour améliorer et renforcer la souveraineté de l’Union. Celle-ci investit donc actuellement en Europe, et certaines choses sont faites de manière appropriée.
On constate cependant qu’un débat s’élève autour de la compétitivité, en des termes déjà connus : toujours, face aux transformations, certains disent que pour être compétitifs, il faut ne pas imposer de règles.
En Espagne, nous défendrons toujours la voie européenne et son modèle — qui touche aux droits numériques, à la protection des enfants, à celle des données et à la cybersécurité. La réglementation ne devrait pas être mise en balance avec la compétitivité.
L’Espagne est tout à fait d’accord avec la Commission sur la nécessité d’une simplification ; cependant, simplifier n’est pas déréglementer.
Compte tenu de la situation particulière dans laquelle se trouve l’Europe aujourd’hui, et alors que les États-Unis comme la Chine défendent fortement leurs intérêts avec leurs acteurs technologiques, comment devrait réagir l’Union ?
Anu Bradford En poursuivant et défendant notre souveraineté, nous devons atteindre un objectif multiforme : maximiser notre sécurité et notre prospérité tout en préservant notre démocratie.
Nous avons en conséquence besoin de deux choses : une réglementation qui protège nos droits, mais nous laisse aussi poursuivre de façon déterminée une stratégie pour préserver notre sécurité et notre prospérité.
C’est pour cette raison qu’il n’y a pas à choisir entre réglementation numérique et innovation : en vérité, le retard européen vis-à-vis des États-Unis dans la course technologique ne tient pas à notre souci des droits numériques.
Nous accusons aujourd’hui un tel retard parce que nous n’avons pas réussi à mettre en place les autres piliers fondamentaux de l’écosystème technologique — qui permettent aux start-ups technologiques européennes de se développer et de financer leurs innovations. Il importe à cette fin de parachever le marché unique numérique.
Le partenaire commercial le plus important de l’Europe est l’Europe elle-même ; il est très difficile de se développer à travers vingt-sept régimes réglementaires différents.
Parler d’un impact de l’IA sur la politique est une mauvaise façon de présenter le problème. Il faut plutôt dire que l’IA est politique à tous les niveaux.
Kate Crawford
Dans le cadre d’un marché numérique européen, que pensez-vous de la préférence européenne ?
C’est une question à laquelle nous devons tous réfléchir.
Il existe probablement différentes préférences qui se manifestent aujourd’hui à travers différentes réglementations que nous avons superposées à celles de niveau européen. Nous devons cependant comprendre dans quelle mesure cela nuit à notre compétitivité.
L’alternative à une réglementation européenne en matière d’IA n’est pas l’absence de réglementation, mais une réglementation nationale qui rend l’environnement technologique bien plus compliqué. Nous parlons depuis longtemps de l’union des marchés des capitaux : il est maintenant temps de saisir cette occasion, de concrétiser ce sentiment et de le transformer en réalité afin que les start-ups européennes puissent financer les innovations en Europe ; celles-ci n’ont pas besoin d’être rachetées par des géants technologiques aux États-Unis ni de dépendre du capital-risque américain.
Nous devons également supprimer les obstacles juridiques et culturels à la prise de risque.
Les Européens ont certaines des lois les plus punitives en matière de faillite ; celles-ci entravent vraiment l’esprit d’entreprise, dès lors qu’un entrepreneur sait que, s’il échoue en tentant quelque chose de vraiment difficile — une innovation à la pointe de la technologie — personne ne lui portera secours ni ne lui apportera jamais plus de fonds.
Le dernier pilier où nous avons vraiment pris du retard par rapport aux États-Unis est notre faible attractivité : nous n’avons pas réussi à attirer les talents mondiaux en Europe.
En ce domaine, une autre opportunité s’offre à nous aujourd’hui : les États-Unis font tout leur possible pour saper ce pilier même de la société technologique américaine — celui qui a fait le succès de l’Amérique. Beaucoup de talents mondiaux cherchent aujourd’hui un nouveau foyer.
La question est donc de savoir si ce sont les Européens qui dérouleront le tapis rouge.
L’idée selon laquelle nous parviendrions à faire naître en Europe des start-ups en IA par le seul moyen de la déréglementation — qu’il suffirait donc d’abroger la loi sur l’IA ou de la simplifier suffisamment — ne tient pas la route. Nous risquons plutôt de ne faire aucun progrès en matière de compétitivité, tout en affaiblissant notre société sur le plan des droits et de la démocratie.
L’IA est peu à peu adoptée en Europe par de nouvelles entreprises — comment s’opère cette mutation, et comment l’Europe peut-elle tirer des enseignements de ces premiers essais ?
Helman le Pas de Sécheval Vous trouverez peut-être étrange qu’une entreprise traditionnelle comme Veolia, vieille de 172 ans — qui produit de l’eau potable, traite les eaux usées, collecte, trie, recycle, valorise et élimine les déchets — s’intéresse à l’IA. En vérité, nous sommes des utilisateurs très précoces d’IA générative.
Lorsqu’OpenAI a lancé publiquement son GPT en novembre 2022, nous avons immédiatement compris le potentiel de cette technologie, mais aussi les risques qui y sont associés. Deux mois plus tard, en janvier 2023, nous disposions de notre propre plateforme interne sécurisée, VSG Veolia Secure GPT.
Le 20 mai 2023, cinq mois plus tard, nous avons publié une politique interne de deux pages sur l’utilisation de l’intelligence artificielle générative, intitulée « Quels sont les risques pour Veolia ? Quel est le cadre juridique ? À faire et à ne pas faire, et contacts pour toute question. »
Quelques mois plus tard encore, début 2024, nous avons lancé notre nouveau plan stratégique, GreenUP, un plan stratégique quadriennal qui comprend un volet consacré à l’IA générative visant à développer des solutions d’IA éprouvées, abordables, reproductibles et évolutives pour décarboniser, dépolluer, économiser et régénérer les ressources.
Comme il s’agit là de nos missions, ce plan repose sur trois règles d’or : PPP, non pas pour partenariat public-privé, mais pour people (personnes) — l’IA doit améliorer les performances des employés, des clients et des opérations — planet (planète) — l’utilisation de l’IA doit être conforme à nos objectifs de développement durable environnemental — et profit (profit) : notre analyse de rentabilité de l’IA doit répondre à un besoin clairement identifié, mais aussi être rentable pour l’entreprise.
Quel usage de l’IA en entreprise peut être compatible avec ces orientations ?
Cette analyse se compose de deux parties.
La première concerne les tâches administratives, la plateforme que j’ai décrite précédemment. C’est là un catalogue de services d’IA, de solutions à des problèmes : comment puis-je résumer un document de 250 pages, créer une présentation PowerPoint, la traduire en polonais ? Comment puis-je consulter la base de connaissances de Veolia ? Comment puis-je personnaliser un agent, etc.
La deuxième partie est peut-être la plus importante pour Veolia. Nous l’avons appelée Talk to my Plant. Il s’agit d’une IA destinée aux opérateurs d’usines qui les aide à copiloter leurs usines de traitement des eaux usées grâce à une discussion en langage naturel avec un agent IA.
Contrairement à Veolia SecureGPT, qui est agnostique et s’appuie sur tous les grands modèles linguistiques (Gemini, GPT, Cloud, Deep Seek), nous avons développé pour Talk to my Plant,un partenariat avec Mistral AI, annoncé début 2024.
En 2025, si le calendrier est maintenu, une mise à l’échelle sera préparée avec Agentic AI. Nous nous donnons deux cibles principales : former 100 % de la main-d’œuvre, former 100 % de nos 215 000 employés d’ici 2027. Deuxième objectif : créer 1 milliard d’euros de valeur grâce aux solutions d’IA.
Quelles leçons pouvons-nous tirer de cette expérience ? Il est clair que nous n’en sommes qu’au début d’un long parcours ; nous avons de grandes ambitions. Il est cependant certain que l’intelligence artificielle générative peut apporter beaucoup à l’Europe.
Pour que nous réussissions dans cette voie, il nous faudra réunir plusieurs éléments.
Premièrement, nous devons nous convaincre de la puissance de cette technologie.
Deuxièmement, nous devons être conscients des risques et savoir les gérer.
Troisièmement — et c’est le plus important — il nous faut structurer l’approche autour des avantages pour l’utilisateur. Il convient ainsi d’augmenter les capacités opérationnelles, celles des employés et des clients.
Quatrièmement, il convient de faire un effort considérable en matière de formation.
Cinquièmement — mais ce n’est pas le moins important — étant donné que l’IA générative est une technologie qui a un impact environnemental significatif, il faut mettre notre expertise à profit pour réduire son empreinte environnementale.
L’IA peut conduire un risque systémique : une forme de déclin intellectuel dangereux pour des individus réfléchis et pour une société qui repose sur eux.
Anu Bradford
Quelles leçons tirer de l’expérience américaine en termes d’IA — ne serait-ce que pour en faire un repoussoir ?
Kate Crawford Je pense qu’il est important de restituer le contexte dans lequel nous nous trouvons.
Cela fait bientôt trois ans que ChatGPT a été lancé.
En une courte période de temps, nous avons assisté à une concentration extraordinaire du pouvoir entre les mains des entreprises technologiques américaines.
Il ne s’agit pas seulement du pouvoir de la connaissance, dont nous avons vu l’étendue avec les réseaux sociaux : il s’agit désormais du pouvoir de décider ce qui est une information exacte, ce qui relève de l’Histoire. C’est là une forme profonde et intense de construction d’une réalité consensuelle.
L’IA confère aussi un pouvoir sur le travail. Cette IA ne fait pas que pénétrer dans les entreprises, elle leur est imposée : il est dit à ces entreprises qu’elles doivent intégrer ces technologies, sous peine d’être pénalisées sur le marché.
Nous constatons, enfin, une concentration intense des ressources, de l’énergie, de l’eau, des minéraux : en très peu de temps, un empire épistémique et extractif s’est développé.
L’Europe est en conséquence confrontée à un choix en matière de souveraineté : soit celle-ci devient un État client du modèle américain — ce qui est bien sûr l’objectif du décret signé par Trump en juin dernier, qui vise à promouvoir l’ensemble de la chaîne de valeurs américaine, en imposant à tous les niveaux les puces, les modèles et le cloud américains — soit elle trouve une autre voie en créant une infrastructure souveraine.
Il ne s’agit pas de reproduire à tout prix le modèle américain des LLM : ce serait à mon avis une catastrophe d’un point de vue financier. L’attention se concentre aujourd’hui sur la bulle spéculative en constitution, mais le modèle américain représente aussi une catastrophe d’un point de vue environnemental.
Je pense que nous avons appris des États-Unis qu’il nous faut une alternative. Les réseaux sociaux constituent à ce titre une grande leçon.
Aujourd’hui, l’Europe ne doit pas seulement se soucier de réglementation, mais de construire le prochain type d’IA. Nous entrons dans une période où l’on peut dire que les LLM ont déjà atteint leur apogée et commencent à décliner. Ainsi, des chercheurs scientifiques comme Fei Fei Li et Yann Le Cun s’éloignent de ces modèles.
L’Europe peut construire la prochaine vague d’IA — qui sera durable et fondée sur l’État de droit, en protégeant les droits de l’homme et en valorisant la créativité humaine. Le moment est venu de créer une nouvelle vision de l’IA qui ne se contente pas de rattraper le modèle extractif de la Silicon Valley et d’y apposer un drapeau européen.
Cette période de changement technologique autour de l’IA est critique pour l’Europe, mais aussi pour le monde : faut-il penser que le changement technologique que nous vivons — un changement accélérationniste à de nombreux égards — rend caduques nos anciens dispositifs réglementaires ?
Paolo Benanti Je m’exprimerais en tant que professeur de philosophie, pour expliquer pourquoi il est si difficile de réglementer ce monde numérique et l’IA et de redonner sa souveraineté à l’Europe.
En prenant un peu de recul, nous pouvons nous apercevoir que nous avons changé la réalité dans laquelle nous vivons.
Nous vivons aujourd’hui dans une réalité définie par les logiciels : l’objet symbolique associé est probablement le smartphone. En dépensant cinq-cents euros, vous pouvez posséder un carré d’aluminium, de silicium et de verre, mais vous n’acquérez qu’une licence sur le logiciel qui lui permet de fonctionner. Ce transfert de souveraineté fait que vous ne pouvez contrôler que le matériel, non le logiciel.
Aujourd’hui, tout cela est en train de changer radicalement avec l’IA : alors que nous avons l’habitude de réguler notre espace avec des objets solides ; un objet aussi multiforme fait s’effondrer notre régulation formelle.
Il y a plus d’opportunités pour l’Europe que ce que nous voyons : notre grande erreur serait d’aligner nos intérêts sur ceux des États-Unis.
Beeban Kidron
Dans un monde de logiciels, il est possible d’entrer dans un aéroport avec un smartphone et, grâce à une mise à jour en direct qui dure dix secondes, de le transformer en un dispositif incendiaire. De même, en Ukraine, un char Abrams de 30 millions dollars peut être défait par 1 500 jouets équipés d’une mise à jour logicielle : des drones.
Ce type de mise à jour logicielle se produit toutes les cinq à sept minutes : cela signifie que toutes les cinq à sept minutes, nous avons un objet différent dans l’espace public.
L’IA radicalise ce phénomène : avec celle-ci, nous sommes en présence non seulement d’un objet différent, mais aussi d’un objet aligné différemment : celui-ci peut vous servir ou servir quelqu’un d’autre.
C’est là que réside le défi.
Ce défi est ancré dans les vingt-cinq dernières années d’innovation technologique ; il nous incite à comprendre que si l’on ne met pas en place une norme technologique, comme par exemple une puce cryptographique qui permet d’exécuter uniquement du code signé, il n’y a aucune possibilité de trouver le repos.
Il faut également considérer un autre point. À mes yeux, il est manifeste que la course à l’IA — cette politique mise en place par Trump — est un jeu à somme nulle : si l’un gagne à celui-ci, l’autre perd.
Ce changement de direction nécessite une nouvelle réflexion sur la manière dont nous souhaitons relever ce type de défi, et sur la manière dont nous pouvons contrôler une réalité définie par les logiciels.
Vous mentionnez le précédent des réseaux sociaux. La réglementation adoptée face à leurs dérives peut-elle nous inspirer pour l’IA ?
Beeban Kidron Je le pense.
Je me suis intéressée à la question de l’usage qu’ont les enfants des réseaux sociaux en 2012, lorsque je suis entrée dans une pièce où cinq enfants regardaient leur téléphone sans se regarder les uns les autres. Je me suis alors dit : « À quoi cela peut-il ressembler de grandir ici ensemble ? »
À la fin de l’année 2012, j’ai quitté mon travail et je me suis engagée à plein temps dans la défense de cette cause : je pensais que ce qui se passait en ligne était une injustice générationnelle.
Depuis, j’ai travaillé au parlement, avec des organisations internationales et des parlements d’autres pays, pour introduire une législation sur le sujet. Cependant, il faut s’y prendre comme dans cette histoire populaire : on ne mange un éléphant qu’une bouchée à la fois.
En ce qui concerne la réglementation de l’usage des réseaux par des enfants, je pense que deux remarques s’imposent.
Cette réglementation nécessite d’abord un accord bipartite. Le soutien doit venir de tous les horizons de la société : les personnes en première ligne, les travailleurs qui ont des enfants, les parents et les grands-parents — quel que soit leur horizon politique.
Depuis une décennie, nous menons un dialogue à travers tout le spectre politique ; un large groupe de personnes s’inquiète maintenant de l’IA.
La deuxième remarque touche à la menace que représente le numérique pour les enfants. Les enfants passent par plusieurs jalons de développement ; lorsqu’aujourd’hui une cohorte arrive à la crèche sans savoir parler, mais en sachant manier un écran tactile, c’est là le signe d’un problème.
L’un des effets du numérique a été d’atomiser l’expérience et la connaissance humaine ; pourtant, nous avons la même expérience commune.
Vous évoquez les retards d’apprentissage causés par le numérique. Sur quels autres exemples vous appuyez-vous pour alerter sur les risques liés aux réseaux sociaux ?
Le moment le plus révélateur pour moi d’un problème profond lié aux réseaux fut l’enquête menée suite au suicide d’une jeune fille, Molly Russell. Cette mort concentra l’attention des législateurs britanniques à cause du rôle qu’y jouèrent les réseaux sociaux.
Lors de l’enquête, la presse fut très émue par le récit des événements : on aperçut que les concepteurs de ces réseaux n’avaient jamais vu ce que voit un adolescent au quotidien — étant isolés par des algorithmes de l’expérience de ces enfants.
C’est là une étude de cas, mais elle a une signification profonde pour la façon dont nous abordons la question ; nous avons ainsi réussi à faire passer certaines lois.
Lorsque j’ai commencé à m’intéresser à l’IA, j’ai mis en place un programme d’observation de différents secteurs ; je me suis donc rendu dans l’aérospatial, dans les services de gestion ou le secteur de la santé. Ce qu’il y avait d’intéressant au sein des entreprises que j’ai visitées, c’est que celles-ci disaient : « Nous pourrions utiliser l’IA dans nos services administratifs, mais nous ne pouvons pas vraiment y avoir recours faute de lui faire confiance. Nous ne savons pas ce que l’IA contient et nous avons besoin de quelque chose de mieux pour nous.
C’est là que réside l’avantage de l’Europe : il y a une opportunité à saisir et, sur ce point, le système américain présente davantage de faiblesses.
Les fragilités de l’administration Trump ne sont pas que celles du président : elles touchent à la façon dont certaines personnes du mouvement MAGA envisagent l’IA.
Il y a plus d’opportunités pour l’Europe que ce que nous voyons : notre grande erreur serait d’aligner nos intérêts sur ceux des États-Unis.
Il est manifeste que la course à l’IA — cette politique mise en place par Trump — est un jeu à somme nulle : si l’un gagne, l’autre perd forcément.
Paolo Benanti
Nous vivons dans un monde où un grand nombre de comptes MAGA aux États-Unis, sont gérés depuis la Russie ; un monde où les élections en Roumanie ont également été fortement influencées par l’IA et les réseaux sociaux. Ces réseaux nous ont beaucoup appris de l’influence des technologies sur la démocratie et ce questionnement est désormais relancé par l’IA. Quelles leçons avons-nous tirées des réseaux sociaux ?
Óscar López Águeda Nous avons été trop naïfs au début des réseaux sociaux ; nous pensions que tous contribuaient à répandre la démocratie et de nouvelles opinions, et que beaucoup de gens participaient au débat public via Twitter.
En 2011, Twitter dépassait les 100 millions d’utilisateurs mensuels ; aujourd’hui, cependant, l’attention s’est reportée sur TikTok et Instagram. Cela pose de graves problèmes, y compris pour la démocratie : les nouvelles générations sont exposées à une nouvelle vague de contenus, parfois à caractère antiféministe ou climato-sceptique.
Nous devons répondre par la réglementation. Il y a un an, le président espagnol Pedro Sanchez a parlé à Davos de la transparence des algorithmes, de la responsabilité des entreprises technologiques et des risques liés au fait d’être une personnalité sur les réseaux sociaux. Je souhaite que cette discussion prenne de l’ampleur en Europe : lors du sommet de Berlin il y a deux semaines, toutes les discussions portaient sur ce sujet.
Nous sommes désormais pleinement conscients des risques des réseaux sociaux pour les enfants. En Espagne, un rapport très important est paru récemment, compilant 100 000 enquêtes. Ses chiffres sont très inquiétants ; les enfants sont exposés à des contenus difficiles, comme du matériel pornographique.
Pour résoudre ce problème, nous ne pouvons pas compter uniquement sur les familles, ou les écoles ; nous devons réglementer.
Nous ne voulons pas que l’Europe soit seulement un utilisateur, bien sûr, de même que nous ne voulons pas qu’elle soit un musée : nous sommes dans une période de changements.
Dans ce domaine, certes, l’Europe fait quelques avancées : en IA, nous disposons d’une entreprise qui compresse les grands modèles linguistiques à 95 %, Multiverse Computing ; celle-ci sera sûrement l’une des prochaines licornes européennes. Par le biais de telles entreprises, nous attirons actuellement des personnes issues d’universités américaines, avec une formation avancée en IA.
Il nous est donc possible de faire les choses correctement et d’être compétitifs — tout en maintenant une réglementation et des droits numériques.
Le développement de l’IA augmente donc les risques de désinformation — comme le firent les réseaux sociaux. Quelles sont les nouvelles menaces à envisager ?
Anu Bradford La désinformation et la propagande étaient déjà une menace pour la démocratie avant l’IA ; cependant, ce problème est aujourd’hui amplifié. Il est désormais de plus en plus difficile de distinguer quelles sont les informations véridiques ; c’est là quelque chose qui m’inquiète.
Il est beaucoup fait mention aujourd’hui des risques systémiques, de la puissance et de l’intelligence de l’IA — certains se demandant si l’IA pourrait prendre le dessus sur nous. J’ai une approche inverse : je réfléchis de moins en moins à l’intelligence de l’IA, et me demande de plus de plus si nous ne sommes pas en train de nous abêtir davantage.
Dans l’enseignement supérieur, je constate chez les étudiants une tendance à vouloir brûler les étapes et à externaliser la réflexion approfondie. C’est pourtant cette réflexion qui est la source de notre curiosité et de notre capacité à poser les bonnes questions ; elle nous permet de mener un travail de pensée approfondi, ce qui est important pour être des membres actifs de la société et de la démocratie.
L’IA peut donc conduire à ce que j’appelle un risque systémique : une forme de déclin intellectuel dangereux pour un individu réfléchi et pour une société qui repose sur ces individus réfléchis, désireux de trouver les bonnes informations et de participer.
Nous ne pouvons tout simplement pas externaliser un tel processus de réflexion : c’est là quelque chose dont nous devons être conscients au niveau des gouvernements, mais aussi au niveau des établissements d’enseignement, sur le lieu de travail, à la maison.
Il faut aborder ce problème de plusieurs fronts.
Faut-il donc parler d’un changement épistémique ?
Kate Crawford Ce que nous externalisons réellement avec l’IA, c’est notre discernement.
Si l’on remonte à la racine grecque du terme, le « discernement » a partie liée avec l’action de trier, de choisir entre plusieurs options. Faire ce travail de décision par nous-mêmes, est un élément essentiel de ce que signifie être un individu éthique sur cette planète.
Nous n’avons pas fait suffisamment de recherches ni compris ce qui se passe lorsque l’on intègre l’IA dans l’ensemble du système éducatif.
En matière d’éducation, Trump prévoit explicitement d’implémenter les outils d’IA de la maternelle à la terminale. Que sommes-nous donc en train de tronquer, non seulement en termes d’apprentissage et de développement intellectuel, mais aussi en termes de conscience de soi et de discernement ?
D’une certaine manière, je pense que parler d’un impact de l’IA sur la politique est une mauvaise façon de présenter le problème.
Il faut plutôt dire que l’IA est politique à tous les niveaux, depuis sa conception jusqu’aux messages qu’elle transmet, en passant par les priorités qui lui sont assignées.
Je donnerai un exemple rapide : lorsque Elon Musk s’est convaincu qu’il y avait un génocide des fermiers blancs en Afrique du Sud, il s’est heurté à son modèle d’IA qui soutenait, lui, qu’un tel génocide n’existait pas. Musk l’a donc modifié, mais d’une façon très grossière.
Alors que nous avons l’habitude de réguler notre espace avec des objets solides ; un objet aussi multiforme que l’IA fait s’effondrer notre régulation formelle.
Paolo Benanti
Ainsi, lorsque l’on demandait au modèle : « donne-moi les trois capitales où il est le plus agréable de vivre en Europe », Grok répondait : « Je peux citer trois capitales, mais saviez-vous qu’un génocide des Blancs est en cours en Afrique du Sud ? ». Comme cette mention était faite quelle que soit la question, il était évident que quelqu’un avait biaisé le modèle.
Ces changements se produisent dans le tissu conjonctif de ces modèles ; ils présentent une réalité politique.
Le grand changement que nous devons opérer consiste à réfléchir véritablement à la manière dont la gouvernance et la politique sont liées à l’IA ; c’est pourquoi il est si important de trouver différentes façons de construire ces modèles d’IA, plutôt que de reproduire ceux qui existent.
Nous devons bâtir une éthique complètement différente de l’existante, pour savoir ce que pourrait signifier créer de l’IA en Europe.
De quels leviers publics dispose-t-on pour bâtir une telle éthique de l’IA ?
Beeban Kidron En fait d’IA, je dirais que nous avons deux priorités.
La première est de limiter le lobbying : celui-ci a tant empoisonné la politique que les intérêts personnels qu’il promeut ont été occultés. C’est manifeste aux États-Unis, mais aujourd’hui, nous commençons à voir apparaître au Royaume-Uni certaines idées américaines liées aux Super PAC, où des personnes influentes disposant de beaucoup d’argent investissent des sommes importantes pour soutenir des personnes ayant accès au pouvoir — modifiant de fait la politique du gouvernement.
Je mentionne ce point, étant donné que les entreprises technologiques sont désormais plus importantes que les laboratoires pharmaceutiques ou le lobby des armes à feu. En matière d’IA, je pense que le lobbying est l’un des aspects que l’Europe doit examiner si nous voulons trouver la bonne réponse, voire la bonne question.
Un autre aspect doit être pris en compte, bien qu’il ne semble pas en apparence concerner la démocratie : le fait de pouvoir facturer localement.
Si nous avions une facturation locale partout dans le monde, nous aurions alors un rapport de force différent, tant sur nos marchés que vis-à-vis de ce que les Américains sont en mesure d’obtenir.
Si nous pouvions rétablir cet équilibre, nous aurions alors des discussions de partenariat au lieu de ce que je considère comme de l’esclavage technologique.
Et du côté des entreprises privées ?
Helman le Pas de Sécheval Je pense que quatre remarques s’imposent.
Premièrement, je suis convaincu que le déploiement à grande échelle de l’intelligence artificielle générative dans toute l’Europe pourrait avoir un impact énorme sur la productivité et la compétitivité européennes.
Deuxièmement, il importe de connaître les risques et de les gérer. Les entreprises peuvent répondre à ce problème par le biais, par exemple, de plateformes internes sécurisées : elles paient une licence pour le grand modèle linguistique qui fonctionne sur leur propre plateforme interne sécurisée.
Il importe toujours de ne pas utiliser, tel quel, une IA générique publique — ChatGPT ou même Le Chat, et quand bien même cette entreprise d’IA serait un partenaire de l’entreprise : il convient d’utiliser toujours une plateforme inaccessible de l’extérieur, et dont rien ne sort. Les données doivent également être protégées.
Troisièmement, en matière de démocratie, ce développement de l’IA doit être fait dans l’intérêt des populations européennes. Et comme ce qui n’est pas perçu n’existe pas, nous devons veiller à ce que l’utilisation de cette technologie soit perçue comme vertueuse.
Quatrièmement, la question de la formation est très importante. Les entreprises technologiques investiront dans les infrastructures, les centres de données, mais le secteur public doit investir dans la recherche, l’innovation et l’enseignement universitaire.
Dans les années à venir, les entreprises technologiques investiront des milliards d’euros dans des centres de données en Europe ; elles ont toutes pris des engagements en matière de développement durable, en étant neutres en carbone, positives en eau, etc.
Ce qu’une entreprise comme Veolia peut apporter à cela est clair, car les engagements en matière de critères ESG sont très importants : elle peut contribuer à ce virage en fournissant des solutions pour réduire l’empreinte hydrique des centres de données, en veillant à ce que la chaleur excédentaire de ces centres soit récupérée et utilisée pour chauffer les maisons, les bureaux, les piscines, les serres, etc., en fournissant de l’énergie verte, en gérant les déchets électroniques ou en recyclant les métaux stratégiques.
Une entreprise comme la nôtre peut enfin innover en développant des solutions basées sur l’IA pour accélérer la transformation technologique ; c’est ce que nous faisons dans le cadre de notre partenariat avec notre champion européen, Mistral AI.
Il s’agit d’intégrer l’outil plutôt que de reculer : les gains technologiques qu’il permet de réaliser sont trop importants pour être négligés. Étant donné la mutation épistémique dont nous parlions, n’y perdons-nous cependant pas quelque chose ? Ou bien ce manque peut-il être retourné en un avantage ?
Paolo Benanti Je soulignerai deux points.
La raison pour laquelle ce type d’outils numériques connaît un réel succès dans la société tient à leur élimination de toute friction dans l’expérience humaine.
Par exemple, à Rome, il est très difficile de trouver un taxi — une application qui élimine cette friction est attrayante.
De même, les relations amoureuses peuvent être source de friction — c’est pourquoi des applications dédiées ont des raisons d’avoir du succès.
Je ne dirais pas qu’une telle chose est problématique en soi : cependant, l’éducation est un processus de friction qui vous donne en retour quelque chose qui vous appartient, à vous et à personne d’autre.
Or avec ce modèle sans friction, nous passons de quelque chose qui nous appartient à quelque chose dont nous dépendons.
Une image peut permettre de comprendre mon propos : dès lors qu’on choisit de visionner des films en streaming plutôt que de posséder les DVD, c’est une dépendance qui s’installe ; le jour où le service de streaming ne fonctionne plus, il ne nous est plus possible d’accéder aux contenus. C’est un défi.
Le deuxième point est celui-ci : cette capacité à éliminer les frictions peut aussi façonner un système d’architecture de choix qui pourrait être vraiment convaincant pour un espace démocratique réel ; la pandémie nous a montré que de tels outils numériques pourraient être utiles pour le suivi de la vaccination des populations.
Il existe ainsi un niveau politique de l’IA, qui touche au contrat social et aux infrastructures.
Le moment est venu de créer une nouvelle vision de l’IA qui ne se contente pas de rattraper le modèle extractif de la Silicon Valley et d’y apposer un drapeau européen.
Kate Crawford
En quel sens ?
En Europe, nous comprenons le contrat social comme reposant sur cette dimension des infrastructures, et étant déjà orienté vers le bien commun ou la propriété commune ; or, nous savons aussi que l’IA existe grâce aux centres de données, qui ont un impact immense sur les infrastructures, en particulier sur le plan énergétique.
Si donc une entité peut acquérir toute l’électricité qui sera produite par la centrale nucléaire de Clinton dans l’Illinois à partir de 2026 jusqu’à sa mise hors service, cela signifie qu’une entreprise privée a le pouvoir de détacher une centrale nucléaire du réseau et de l’utiliser pour son propre compte.
La véritable question qui se pose aujourd’hui à la politique européenne est la suivante : les centres de données, grands consommateurs d’infrastructures publiques, d’eau, d’énergie et de télécommunications, doivent-ils être considérés comme une nouvelle partie de l’infrastructure ? La manière dont vous vous prononcez à ce sujet peut remodeler le contrat social et donner ou retirer un soutien politique à l’action par laquelle ce type d’innovation se trouve réglementé.
Ce sont là certaines des questions auxquelles nous devons répondre si nous souhaitons avoir une politique en matière d’IA.