L’intelligence artificielle sur la ligne de crête

Pour entamer une réflexion approfondie sur le rôle actuel et futur de l’intelligence artificielle (IA) dans les systèmes démocratiques contemporains, il faut commencer par deux clarifications1. Tout d’abord, nous évoluons sur une ligne de crête. À propos de l’IA, la communauté scientifique exprime des avis divergents, parfois radicalement. Certains suggèrent qu’elle pourrait permettre aux gouvernements démocratiques d’élaborer des politiques plus efficaces et vraisemblablement plus inclusives. Les décideurs politiques qui utilisent l’IA pour analyser et traiter de grands volumes de données numériques seraient en bonne position pour prendre des décisions plus proches des besoins et des attentes des communautés de citoyens. Selon l’avis de ceux qui voient favorablement le « gouvernement par les algorithmes » l’IA crée les conditions d’une interaction démocratique plus efficace et plus régulière entre les acteurs publics et les acteurs de la société civile.

De plus, insistent les promoteurs de l’IA, elle pourrait être utilisée par les acteurs civiques eux-mêmes. Par exemple, au sein des assemblées de citoyens, l’IA pourrait faciliter la discussion, la collecte d’informations, la génération d’idées et l’aboutissement à un consensus. En 2019, pour ne citer qu’un cas, Youth For Climate Belgium a utilisé l’IA pour transformer les 1700 idées, 2600 commentaires et 32000 votes soumis à une plateforme en ligne par les citoyens en des données concises et exploitables2. Selon Hélène Landemore, l’hybridation de l’IA et de l’intelligence collective jouera un rôle de plus en plus important dans l’avenir, en augmentant les capacités humaines en matière de recherche et de résolution de problèmes3

L’IA crée les conditions d’une interaction démocratique plus efficace et plus régulière entre les acteurs publics et les acteurs de la société civile. 

Gianluca Sgueo

D’autres auteurs, en revanche, mettent l’accent sur les nombreuses questions critiques que soulève l’« implantation » d’une technologie aussi complexe dans des systèmes politiques et sociaux déjà très complexes et problématiques.

Tout d’abord, ils craignent que l’IA ne puisse donner aux gouvernements un pouvoir de surveillance sans précédent sur les citoyens. Parmi les quatre scénarios produits par la simulation « The Future of Government », financée par la Commission européenne entre 2018 et 2019, l’un d’entre eux imaginait que des services publics pilotés par l’IA seraient proposés de manière individualisée et prédictive aux citoyens, mais au détriment de leurs libertés4

Selon l’avis d’autres auteurs, l’IA pourrait exacerber la désinformation et les « deepfakes ». Avec l’IA, nous serions rentrés dans une phase d’« effondrement de la réalité » — ou mieux, de la réalité synthétique. Certains qualifient déjà l’élection présidentielle de 2024 aux États-Unis de « deep fake election », dopée à l’IA générative5

D’aucuns estiment même que l’IA pourrait miner jusqu’aux valeurs démocratiques, en perpétuant et en amplifiant les inégalités sociales et la défiance dans les institutions démocratiques — fragilisant ainsi les fondements du contrat social. Dans le classement des principaux risques pour 2023 établi par Eurasia Group, les « armes de perturbation massive » — c’est-à-dire les algorithmes et les réseaux sociaux accusés de déchirer le tissu de la société civile tout en maximisant les profits — se classent en troisième position6

Certains qualifient déjà l’élection présidentielle de 2024 aux États-Unis de « deep fake election », dopée à l’IA générative. 

Gianluca Sgueo

En bref, comme le souligne Yuval Noah Harari, l’interdépendance croissante entre la société, la politique et la technologie, notamment algorithmique, pourrait accélérer l’obsolescence des institutions et des procédures démocratiques. Au cours du siècle à venir, celles-ci pourraient être remplacées par des « techno-tyrannies », en particulier si les technologies de l’information étaient associées aux neurosciences, permettant à leurs algorithmes d’accéder à la pensée humaine et d’agir sur elle7.

Tout cela nous amène à la deuxième clarification préliminaire pour comprendre l’impact de l’IA sur la démocratie participative : il nous manque aujourd’hui une vision précise des bénéfices et des risques qu’elle génère au sein de nos systèmes démocratiques. Ainsi, au moins en principe, ceux qui nous mettent en garde contre les risques de la démocratie algorithmique ont raison, tout comme ceux qui en célèbrent les vertus. 

Mais si tout le monde a raison, alors personne n’a raison ? Pas forcément. Ces deux conceptions antagonistes permettent de réfléchir à la relation entre algorithmes et démocraties.

Une révolution économique 

En 2021, la valeur globale de l’IA était estimée à soixante-sept milliards de dollars américains. D’ici 2025, cette valeur devrait atteindre cent quatre-vingt-dix milliards de dollars8. À la fin de 2022, le métavers valait huit cents milliards de dollars ; Meta à lui seul a investi dix milliards de dollars dans ce domaine en 20219

Mikael Hvidtfeldt Christensen, fondateur de Syntopia, est un physicien passionné par la chimie computationnelle, l’art génératif et les systèmes complexes en général. Ses images sont créées à l’aide de Structure Synth et de Fragmentarium, deux projets open source qu’il développe actuellement. Mikael Hvidtfeldt Christensen, « Cubic », 2011, CC BY 2.0

Or dans le débat public sur la montée en puissance des algorithmes dans les systèmes démocratiques, l’aspect économique passe souvent au second plan. C’est une erreur colossale. C’est précisément la dynamique économique qui définit le point de pivot dans la relation délicate entre la technologie et les droits. Une relation qui, dans l’état actuel des faits, semble se caractériser davantage par des asymétries que par des convergences. 

Le nomadisme digital encourage la concurrence entre les pays et les institutions pour attirer et retenir les talents.

Gianluca Sgueo

Plus précisément, il s’agit d’asymétries flagrantes dans trois dimensions : état et citoyens ; secteur public et secteur privé ; grands et petits opérateurs privés. La première asymétrie a bien été décrite par Victor Storchan qui parle du « techno-nationalisme » émergent de l’IA. La seconde asymétrie voit la confrontation des entreprises dont les ressources et, par conséquent, la capacité d’influence sur les décisions publiques, dépassent le produit intérieur brut des économies nationales de nombreux pays industrialisés. Quelques exemples sont frappants : si la capitalisation boursière d’Apple était égale au PIB annuel d’un pays, la marque pourrait presque faire partie du G7. De la même manière, Microsoft serait le dixième pays le plus riche du monde. La capitalisation boursière d’Amazon est supérieure à 92 % du PIB de plusieurs pays occidentaux10. Troisième et dernière asymétrie : s’il est vrai qu’il existe un petit groupe de grands opérateurs technologiques capables, comme nous l’avons dit, de peser financièrement et politiquement sur les régulateurs publics, il existe en revanche un grand nombre d’opérateurs privés dont la capacité à pénétrer les gouvernements et les dynamiques démocratiques reste très limitée. Un exemple : dans la seule Europe, il y a plus de 100 fournisseurs dans le secteur de la participation, de la délibération et du vote en ligne. Le marché européen des technologies de participation et de délibération pour le secteur public représentait moins de 100 millions d’euros en 202211.

Par ailleurs, en plus du capital financier, c’est le capital humain qui est sollicité par la diffusion de l’IA. Nous revenons ici à la géopolitique. Le nomadisme digital encourage la concurrence entre les pays et les institutions pour attirer et retenir les talents. 53 % de tous les meilleurs chercheurs en IA sont des immigrés ou des ressortissants étrangers travaillant dans un pays différent de celui où ils ont obtenu leur diplôme. L’Europe continentale attire 10 % de ces chercheurs — 12,29 % des talents en AI se trouve à Londres, 3,81 % à Paris — tandis qu’elle en « exporte » 18 % vers des pays tiers, principalement vers les États-Unis qui représente 11 % des chercheurs européens en dehors du continent12. La concurrence pour attirer, retenir et bénéficier des meilleurs talents crée de nouvelles tensions entre les économies nationales et régionales. Parallèlement, derrière les assistants virtuels et l’entraînement des intelligences artificielles se cache une armée des micro-travailleurs situés pour la plupart dans les pays émergents et payés à peine 1 centime par tâche.

L’IA contre la démocratie ? 

Nous avons dit que, pour certains auteurs, l’IA est source de marginalisation et de nouveaux fossés sociaux, économiques et politiques, alors que pour d’autres elle représente une opportunité d’inclure plus d’intérêts dans la dialectique démocratique. Il s’agit de réponses antithétiques à la même question : la qualité des interactions démocratiques provoquées par l’IA, et plus généralement par les technologies numériques, est-elle égale, voire supérieure, à celle des interactions analogiques ?

Ceux qui répondent à cette question de manière négative partent de l’hypothèse que l’« économie de l’attention »13 n’est pas uniquement l’apanage des technologies marchandes. Pour certains de ses critiques, l’IA lui permet de développer son biais politique. La « psycho-politique » — pour reprendre les mots de Han Byung-Chul14 — est centrée sur la séduction : au lieu de commander et d’interdire aux individus et aux citoyens, elle fonctionne par le plaisir et l’épanouissement. Elle semble permettre aux électeurs d’acheter ce qu’ils souhaitent quand ils le souhaitent, de devenir ce qu’ils veulent et de réaliser leurs rêves

Les conséquences sont évidentes. Tout d’abord, les clivages politiques de fond ne sont plus les déterminants absolus du vote si une promesse politique faite par un homme a la même valeur que celle que pourrait faire une machine. Cette approche, poussée à l’extrême, a déjà produit des résultats provocants — ou  grotesques. C’est le cas du Parti synthétique, né au Danemark en 2022, dont le représentant est une intelligence artificielle et dont les politiques sont dérivées de l’IA15. D’autre part, la population en général, en particulier des jeunes générations, mais aussi des organisations de la société civile, est peu formée à l’usage des canaux participatifs.

Les défenseurs de l’IA comme outil démocratique affirment que nous avons toujours été distraits. Gloria Mark, entre autres, a déconstruit les idées reçues sur notre attention, notamment celles selon laquelle nous devrions toujours nous efforcer de nous concentrer lorsque nous travaillons sur nos ordinateurs, et que le défilement sans fin de nos écrans est contre-productif16. C’est un argument fondamental : si notre attention n’est pas entièrement conquise par la technologie de l’IA, ou plutôt si elle est mieux utilisée grâce à l’IA, alors la qualité de la participation citoyenne à la construction des décisions publiques pourrait également en bénéficier. Certaines évaluations préliminaires de l’impact des applications d’IA, focalisées sur la manière dont les gens apprennent et utilisent les outils et les institutions démocratiques, suggèrent qu’elles peuvent soutenir les interactions entre les citoyens au sein des espaces démocratiques numériques de plusieurs manières — notamment en assemblant des informations complexes dans des textes plus simples, ou en personnalisant et en éditant les réponses17.

La technologie a provoqué des changements linguistiques qui conduisent à la « paresse cognitive », ce qui empêche la langue de saisir avec précision les nuances et les clairs-obscurs. 

Gianluca Sgueo

Revenons maintenant du côté des sceptiques. Parmi eux, outre l’argument de la perte d’attention, deux argumentations prévalent. D’abord, la technologie a provoqué des changements linguistiques qui conduisent à la « paresse cognitive », ce qui empêche la langue de saisir avec précision les nuances et les clairs-obscurs. En substance, la simplification du langage causée par l’utilisation massive de la technologie est une source d’appauvrissement culturel, y compris en ce qui concerne les valeurs démocratiques. Deuxièmement, l’utilisation des technologies de l’information et de la communication est un processus complexe qui peut se traduire par un élargissement des barrières existantes entre les citoyens polyglottes et ceux qui ne maîtrisent pas une deuxième langue  : en particulier l’anglais pour les non-anglophones. Il faut dire que l’IA a mis à notre disposition des outils de traduction automatique très performants, grâce auxquels il est désormais possible d’avoir des dialogues multilingues. Par exemple dans la campagne « EurHope » promue par les Jeunes Européens Fédéralistes, les utilisateurs accèdent à une plateforme numérique qui leur présente des contenus déjà traduits dans la langue de leur choix18. Toutefois, cela n’exclut pas totalement la marginalisation de certains groupes sociaux. Will Kymlicka suggère que les personnes dont l’anglais n’est pas la langue maternelle peuvent être exclues de manière significative des conversations en ligne, de la participation à des sondages sur le web ou de l’engagement dans toute autre forme de participation en ligne19.  Comme l’a suggéré Lorenzo Casini,  cela conduire jusqu’à la crise de l’idée même de l’État20.

Un retard juridique structurel ? 

La protection des droits par des normes juridiques est le cœur du problème. Nombreux sont ceux qui pensent que les problématiques que nous avons rencontrées jusqu’à présent peuvent être dénoués grâce à l’utilisation de règles : de « nouvelles règles », lorsqu’elles n’existent pas, ou de « meilleures règles », lorsqu’elles existent. 

En Europe — mais aussi dans d’autres systèmes juridiques — d’importants dossiers réglementaires sur les technologies numériques sont actuellement discutés. Ils concernent les services et les marchés numériques, la cybersécurité, la gouvernance des données et, bien sûr, la réglementation de l’IA. Sur ce dernier point, il faut dire que le projet réglementaire européen repose sur l’idée d’une classification des risques, de l’inacceptable au contrôlable.

Mikael Hvidtfeldt Christensen, fondateur de Syntopia, est un physicien passionné par la chimie computationnelle, l’art génératif et les systèmes complexes en général. Ses images sont créées à l’aide de Structure Synth et de Fragmentarium, deux projets open source qu’il développe actuellement. Mikael Hvidtfeldt Christensen, « Sphere Dot Sphere », 2011, CC BY 2.0

La question fondamentale est la suivante : dans quelle mesure l’instrument juridique garantissant les droits est-il compatible avec des systèmes technologiques qui évoluent de plus en plus rapidement, générant de nouveaux risques liés à leur utilisation ?

Le fait que le droit progresse beaucoup plus lentement que l’innovation technologique peut être considéré comme la principale raison de l’échec des nombreuses tentatives visant à la réglementer de manière efficace. La cybersécurité et les crypto-monnaies n’en sont que deux exemples. Toutes les deux se caractérisent par une technologie en constante évolution et des défis complexes, partiellement traités par une série de réglementations, de normes juridiques et de « soft law ». L’« hypertrophie » normative  » est un problème bien connu à l’échelle de l’Union21.

Il existe néanmoins une autre façon d’aborder le même problème, qui consiste à souligner les avantages potentiels qui découlent de l’expansion rapide des approches informatiques dans la création et la mise en œuvre du droit. La théorie du « dynamisme juridique » suggère qu’une loi, au moyen d’outils informatiques, peut être exprimée soit comme un énoncé de règle statique, soit comme un objet dynamique qui comprend des objectifs de performance du système, des mesures de succès et la capacité d’adapter la loi en réponse à sa performance. Le dynamisme juridique propose des cadres de conception pour les systèmes homme-machine basés sur cinq éléments : l’explication détaillée des objectifs de performance du système ; les tests ; la conception de systèmes adaptatifs robustes ; l’audit continu ; et le signalement des transactions suspectes. Cela permet également de mieux saisir et d’apprécier les variations des perceptions des acteurs politiques sur ce qui compte comme preuve22.

Depuis Pierre Lévy, la technologie est décrite comme un vecteur permettant de nourrir des formes d’intelligence collective qui offrent aux institutions publiques des solutions appropriées à des problèmes globaux et facilitent l’adaptation de l’action publique à la contemporanéité23

C’est la théorie. Dans la pratique, cependant, le potentiel d’intelligence collective qui émanerait de la participation numérique est étouffé par de graves problèmes d’accessibilité et de représentativité. À ces problèmes, l’IA n’offre pas encore de solutions certaines. Pire, elle crée de nouvelles perplexités, que nous avons en partie mentionnées dans cet article. Trois éléments de réflexion demeurent, sur lesquels il serait pertinent de se pencher brièvement. 

Le potentiel d’intelligence collective qui émanerait de la participation numérique est étouffé par de graves problèmes d’accessibilité et de représentativité. 

Gianluca Sgueo

La première, c’est que l’IA transforme la société à toutes les échelles. Mais cette transformation n’accélère pas l’évolution des droits participatifs, ni dans un sens — plus de droits — ni dans l’autre — moins de droits. Elle semble plutôt avoir déclenché une transformation subtile et à bien des égards incertaine sur l’osmose entre les sphères individuelles et collectives.

Ensuite, l’ambition encore inachevée d’impliquer plus et mieux tous les citoyens dans la prise de décision collective grâce à l’IA est avant tout une question de représentation. Cela ne résout pas la crise démocratique, qui vit aussi, et peut-être surtout, d’autres problèmes : la relation public-privé ; le déclin démographique ; l’analphabétisme numérique ; la mobilité sociale — pour ne citer que les plus importants.

Dernier point : le mérite — ou le démérite, selon le point de vue — du progrès technologique, y compris l’IA, est qu’il a confronté les structures démocratiques contemporaines aux questions de la rareté et de la prévoyance. La rareté, principalement due à la perception généralisée d’une diminution des possibilités de promotion sociale, ainsi qu’aux risques perçus de marginalisation et de contrôle provoquée par l’évolution technologique, semble du même coup contrebalancée par l’émergence de l’IA, qui projette ceux qui l’utilisent dans l’avenir en leur donnant l’illusion de la prévoyance. Les structures démocratiques et les institutions politiques s’efforcent de gérer ces deux forces opposées. Cela provoque des tensions qui ébranlent les systèmes démocratiques. Le résultat est frappant : le citoyen numérique, comparé à son homologue analogique, se voit offrir des perspectives éblouissantes — mais s’il peine à les réaliser, c’est d’abord parce qu’il n’est pas préparé à les cultiver.

Sources
  1. Je voudrais remercier Giulia Cibrario, Lorenzo Ancona et Lorenzo Mineo pour leurs remarques sur des versions antérieures de cet article. Les erreurs ou omissions sont sous ma seule responsabilité.
  2. https://www.citizenlab.co/blog/civic-engagement/youth-for-climate-case-study/.
  3. https://hai.stanford.edu/events/helene-landemore-can-ai-bring-deliberation-masses.
  4. Vesnic Alujevic L. et al. (2019) The Future of Government 2030+, EUR 29664 EN, Publications Office of the European Union, Luxembourg.
  5. The Washington Post, You asked : How will deepfakes and AI affect the 2024 election ?, 2023 – https://www.washingtonpost.com/politics/2023/04/17/ai-deep-fake-technology-election-2024/.
  6. Eurasia Group, Top risks for 2023, https://www.eurasiagroup.net/issues/top-risks-2023.
  7. Harari J.N. (2016) Homo Deus, Vintage, London.
  8. United States of America – Department of Commerce, Top global Artificial Intelligence Markets, 2022, https://www.trade.gov/sites/default/files/2022-05/Top%20Global%20AI%20Markets%20Report%204.20%20%282%29%20%281%29.pdf.
  9. The Verge, Facebook is spending at least $10 billion this year on its metaverse division, 2021, https://www.theverge.com/2021/10/25/22745381/facebook-reality-labs-10-billion-metaverse.
  10. https://www.visualcapitalist.com/the-tech-giants-worth-compared-economies-countries/.
  11. https://democracy-technologies.org/report-2023/.
  12. Global AI Talent Tracker https://macropolo.org/digital-projects/the-global-ai-talent-tracker/.
  13. Zuboff S. (2019) The Age of Surveillance Capitalism : The Fight for a Human future at the New Frontier of Power, Profile Books, London.
  14. Byung-Chul H. (2017) Psychopolitics : Neoliberalism and New Technologies of Power, Verso, London/New York
  15. https://detsyntetiskeparti.wordpress.com
  16. Mark G. et al. (2008) The Cost of Interrupted Work : More Speed and Stress, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems.
  17. Democracy Technology, How ChatGPT Could Be Useful for Democracy Technologies, Democracy  Technologies, December 2022 (https://democracy-technologies.org/opinion/the-team-tested-how-chatgpt-could-be-useful-for-democracy-technologies/?utm_source=Democracy+Technologies&utm_campaign=8c4cc3a192-EMAIL_CAMPAIGN_2022_11_29_03_04_COPY_01&utm_medium=email&utm_term=0_-48b74a5386-%5BLIST_EMAIL_ID%5D).
  18. https://jef.eu/eurhope/
  19. Kymlicka W., Shapiro I and C. Hacker-Cordon C. (eds), (1999) Citizenship in an era of globalization, Democracy’s Edge, Cambridge University Press, Cambridge.
  20. Casini L. (2020) Lo Stato nell’era di Google. Frontiere e sfide globali, Mondadori, Milano ; Casini L. (2022) Lo stato (im)mortale, Mondadori, Milano.
  21. Vesnic Alujevic L. and F. Scapolo F. (2019) The Future of Government 2030+ : Policy implications and recommendations, EUR 29853 EN, Publications Office of the European Union, Luxembourg.
  22. MacKillop E. and Downe J. (2022) « What counts as evidence for policy ? An analysis of policy actors’ perceptions », Public Administration Review : 1-14
  23. Lévy P. (1997) L’intelligence collective pour une anthropologie du cyberspace, La découverte, Paris.