Votre histoire du sentiment de réticence vis-à-vis de la technologie introduit le concept de « techno-négativité ». Pourquoi forger cette nouvelle expression ?

Elle me sert à exprimer un sentiment diffus, omniprésent à notre époque : l’impression que nombre de technologies contemporaines ne tiennent pas leurs promesses d’améliorer notre bien-être personnel ou collectif. Dans nos sociétés, beaucoup ne sont plus convaincus que le progrès technologique puisse être synonyme d’épanouissement social ou économique. Ils sont frustrés par la façon dont l’IA automatise les tâches au point de pousser les gens au chômage, par le fait que les réseaux sociaux alimentent des addictions et une perte générale de l’attention, par l’empreinte carbone monstrueuse des centres de données, et par le fait que l’avenir de tout cela semble être largement déterminé par un petit nombre de grandes entreprises technologiques sans la participation des gouvernements démocratiques ou de la population en général. 

Par extension, « techno-négativité » est aussi le terme que j’utilise pour désigner le désir qui en résulte de détruire les objets technologiques, de les bannir de nos vies, de nos communautés ou de nos lieux de travail. 

Ce désir n’a rien d’anodin. C’est un phénomène global, ancien, qui gagne aujourd’hui en intensité et en ambition — que ce soit par des attaques réelles contre les infrastructures technologiques ou simplement par le refus des gens d’utiliser certaines plateformes ou certains appareils. Ce qui m’intéresse, c’est d’essayer de comprendre ce qui se cache derrière ce désir — et d’où il vient.

Thomas Dekeyser, «  Techno-Negative  : A Long History of Refusing the Machine  », Minnesota University Press, 2026.

Vous soulignez aussi qu’historiquement, les motivations de ce que vous appelez la techno-négativité sont très diverses.

En effet. Au XVIIIe siècle en Europe, par exemple, les gouvernements ont à plusieurs reprises cherché à interrompre l’émergence de nouvelles technologies, allant jusqu’à poursuivre les inventeurs et à brûler des machines sur les places publiques. L’une des raisons principales était qu’ils croyaient que les machines remplaceraient les ouvriers, ce qui conduirait à des révoltes. Pour ces élites, la techno-négativité était un moyen de conserver leur pouvoir politique. 

Quelques décennies plus tard, au Royaume-Uni, la technophobie allait au contraire devenir un outil pour attaquer le pouvoir de l’élite : les luddites — des tisserands qui voyaient leurs moyens de subsistance et leur artisanat menacés par l’arrivée des métiers à tisser automatisés — incendièrent des usines, détruisirent les machines et menacèrent les directeurs d’usine.

Quelques siècles plus tard encore, un groupe radical — le « CLODO » pour « Comité Liquidant ou Détournant les Ordinateurs » — a émergé à Toulouse dans les années 1980. Ses membres s’introduisaient dans des entreprises informatiques et incendiaient des cartes magnétiques et d’autres matériels informatiques primitifs, exposant leurs motivations dans des communiqués énigmatiques. À l’instar des luddites avant eux, ils cherchaient à s’en prendre aux entreprises et aux États tirant profit du progrès technologique. Mais contrairement aux Anglais, leurs motivations allaient bien au-delà des droits des travailleurs et étaient bien plus profondes : les ordinateurs favorisaient un resserrement des liens entre les industries technologiques, la guerre et le maintien de l’ordre, tout en appauvrissant plus généralement la vie quotidienne pour en faire un système prévisible et dépourvu de surprises. 

Aussi différents soient-ils en termes de motivations et de méthodes, ces moments mis bout à bout constituent une histoire commune centrée sur le rejet des objets technologiques. Les étudier permet de donner un sens à la période de techno-négativité que nous traversons et d’explorer ce que nous pourrions en tirer pour tenter de construire des futurs alternatifs.

Face aux politiques et aux discours marketing qui présentent l’intelligence artificielle comme une technologie révolutionnaire profitable à tous, on assiste à une montée de l’angoisse et de la colère dans l’opinion. Votre histoire de la techno-négativité peut-elle nous aider à comprendre le moment que nous traversons à l’ère de l’IA ?

Tout d’abord, la techno-négativité n’est pas uniquement une question d’« angoisse » ou de « colère ». En réduisant la critique technologique à de tels sentiments, on court le risque de la présenter comme non rationnelle et dépourvue d’une logique solide. Ce serait faire fausse route et cela rendrait plus facile de simplement écarter ou ignorer la critique technologique, aussi bien fondée et articulée soit-elle.

Ce que je retiens de cette histoire pour tenter de donner un sens à l’engouement actuel pour l’IA, c’est d’abord que la croyance largement répandue selon laquelle l’IA serait inévitable est erronée. Et c’est de là, précisément, qu’il faut partir.

Dans le discours dominant, l’IA ne serait que l’aboutissement d’un progrès technologique qui, comme une grande vague immaculée, emporterait tout sur son passage et ne pourrait être arrêté. Ses thuriféraires présentent un processus naturel qui éloigne les sociétés d’un passé supposément sauvage pour les mener vers un présent ou un avenir civilisé, invention après invention. 

Historiquement, c’est tout simplement faux : le progrès technologique n’a jamais été un processus linéaire. Il n’y a pas une même vague nette jusqu’à nous : seulement des courants chaotiques, des tourbillons, des marées, des rochers. L’histoire de la technologie est un champ de bataille politique, où de nombreux acteurs se disputent les voies de l’innovation.

Vous rappelez d’ailleurs que la techno-négativité est en fait aussi ancienne que la technologie elle-même.

Absolument, chez les Grecs la technè n’était pas acceptée aveuglément. Le mot a une connotation négative et Archimède, inventeur de divers dispositifs techniques, fut également le premier destructeur de machines au monde, détruisant ses propres créations dans l’espoir d’en empêcher leur utilisation future. Le mythe grec sur l’origine de la technique dans lequel Prométhée vole le feu aux dieux pour le donner à l’humanité s’accompagne d’un sombre avertissement : Zeus enchaîne Prométhée à un rocher au sommet d’une montagne, où il est exposé aux éléments et à un aigle qui lui dévore les entrailles. Pour les Grecs, la technè était donc aussi ce qui portait quelque chose de sombre — et peut-être de sinistre — au cœur du monde des humains. Pour cette raison, elle devait être tenue à distance.

Tout au long de l’histoire et jusqu’à nos jours, les technologies sont inventées, attaquées, retardées, abandonnées ; elles apparaissent, disparaissent, réapparaissent ailleurs, puis sombrent à nouveau… Certaines émergent et finissent aux oubliettes en l’espace de quelques mois. D’autres ne parviennent pas à s’imposer puis, des décennies plus tard, se retrouvent soudainement au premier plan. 

Prendre ces soubresauts au sérieux permet d’abandonner l’idée que les prédictions du futur formulées par les mages de l’IA ne sont rien de plus qu’un discours instrumentalisé et une tentative de manifester, par les mots, un avenir qui leur est profitable.

En touchant directement à notre conception de l’humain, l’émergence de l’IA ne crée-t-elle pas une rupture dans cette histoire ? Les principaux dirigeants des entreprises de la tech agitent d’ailleurs la peur que leur invention pourrait rendre l’humanité obsolète…

L’IA n’est ni la première, ni la seule technologie à remettre en question les idées existantes sur ce que signifie être humain. 

En dépouillant les archives, on constate que les avancées technologiques les plus influentes ont souvent eu tendance à modifier ce que nous considérions comme un sujet véritablement humain. En chaque époque et en chaque lieu, la technologie est l’une des forces capables de modifier les conceptions du monde et de l’être humain. 

La bataille pour ou contre l’adoption d’une technologie se joue d’ailleurs souvent, précisément, à un niveau presque philosophique. L’adoption ou non par un groupe particulier ou par une société tout entière d’une technologie donnée est moins déterminée par ses avantages pratiques, sa valeur économique ou sa dimension moralement acceptable que par la conception de la vie humaine qu’elle permet ou remet en question.

Avec l’IA, la dévalorisation de la vie humaine fait partie intégrante de la manière dont la technologie est présentée et promue.

Thomas Dekeyser

À quels exemples historiques pensez-vous ?

Dans la Grèce antique, la perspective de voir des machines automatisées posséder des qualités jugées proprement humaines — telles que la capacité de se déplacer, d’agir, de penser — était considérée comme menaçante pour les humains. On pourrait même dire que la résistance à la technologie s’articulait souvent précisément autour de la volonté de préserver une conception de l’humanité.

Dans l’Europe médiévale, certaines technologies furent rejetées car on craignait qu’elles ne remplacent la position dominante de Dieu vis-à-vis des humains : elles pouvaient leur permettre de devenir à leur tour des créateurs. L’ordre monastique cistercien voyait ainsi dans l’humanité technologiquement avancée une tentative de modeler le monde qui l’entourait comme s’il n’avait pas déjà été parfaitement façonné par Dieu. Même les luddites considéraient que l’arrivée des outils automatisés pourrait avoir pour conséquence de transformer l’humain en un simple appendice de la machine.

Dans chaque cas, la technologie et son rejet s’affrontent autour d’une conception particulière de l’humain.  

De ce point de vue, l’IA fonctionne de manière très similaire : elle privilégie simplement certaines conceptions de l’être humain au détriment d’autres.

D’une part, l’IA cherche à estomper la frontière entre l’humain et la machine pour créer un être supérieur, technologiquement avancé. Avec l’IA, cet effacement prend également la forme de la création de technologies telles que les chatbots et les robots qui agissent, écrivent et parlent comme s’ils étaient bel et bien humains. Ils sont conçus précisément pour imiter l’humanité, et ainsi remettre en cause les distinctions antérieures entre l’humain et le non-humain. 

D’autre part, et de manière plus radicale, elle positionne l’humain comme inférieur à la machine. Quand Elon Musk décrit l’humanité comme « un chargeur d’amorçage biologique pour la superintelligence numérique », il affirme en substance qu’elle aurait moins de valeur que la technologie. Le rejet contemporain de l’IA est une lutte contre cette promesse d’un type particulier de vie humaine subordonnée à celle de l’intelligence artificielle.

La nouveauté serait donc moins dans la technologie que dans la formulation de la promesse ?

Ce qui est distinct en effet — et vous avez raison de le souligner —, c’est à quel point le discours promotionnel sur l’IA embrasse explicitement la rupture que cette technologie opère avec les idéaux qu’on associe généralement à l’humanité. 

Par le passé, les perturbations introduites par les nouvelles technologies étaient plus cachées. Elles n’apparaissaient qu’à des moments très précis, dans des écrits et des actions particuliers, de manière relativement subtile. Avec l’IA, la dévalorisation de la vie humaine fait partie intégrante de la manière dont la technologie est présentée et promue : le remplacement de l’humain par la machine n’est plus présenté comme un danger mais comme le but et l’argument de vente de l’IA. 

On pourrait compléter : le remplacement d’une partie seulement de l’humanité…

Cette dévalorisation de la vie humaine est en effet sélective. Certains humains — c’est-à-dire les groupes majoritairement masculins et fortunés dont font partie les PDG des géants de la tech — non seulement conserveraient leur humanité mais seraient même en mesure de l’étendre activement. 

Dans leurs discours, ils se présentent comme des élus — les seuls à pouvoir nous mener vers un avenir marqué par la superintelligence. En d’autres termes, l’IA renforcerait leur humanité, tandis que d’autres humains sont présentés comme remplaçables (les travailleurs qui perdent leur emploi par exemple) ou comme des dommages collatéraux (ceux qui vivent dans des zones épuisées sur le plan énergétique et polluées par les centres de données ; ou encore ces travailleurs mal payés contraints d’étiqueter des images horribles pour contribuer à l’entraînement des données) dans la poursuite d’un avenir imaginaire et radicalement différent. 

Il y a dans le discours sur l’IA une dimension eugéniste assez nouvelle.

L’histoire de la techno-négativité offre-t-elle des ressources pour résister ?

L’exemple des luddites porte un enseignement clef : le refus de la technologie s’exerce mieux collectivement. La décision individuelle de ne pas utiliser un outil ou une plateforme particulière peut avoir un sens sur le plan personnel, mais elle ne parvient pas à modifier l’économie politique plus large qui a donné naissance à cet outil ou à cette plateforme. Or on réduit trop souvent la question de la technologie à la simple question de savoir si, en tant qu’individus, nous voulons y adhérer ou non. 

Les luddites ont acquis leur pouvoir précisément parce qu’ils ont suivi une voie différente : l’organisation collective. Ils considéraient l’automatisation du travail comme un problème commun plutôt qu’individuel. Leur effort collectif était si puissant que la décision fut prise d’envoyer l’armée pour écraser le mouvement — ce que fit le gouvernement britannique, faisant plusieurs morts. 

Les luddites nous invitent également à faire preuve d’un peu plus d’imagination. Aujourd’hui, notre manière de résister aux technologies néfastes se résume souvent à tenter d’en limiter les méfaits en adoptant de nouvelles lois et des mesures de sécurité, ou en actualisant celles qui existent déjà. Ces interventions d’ordre légal peuvent certes être utiles, mais on a parfois l’impression que cette approche est prédéterminée d’avance, quels que soient le problème ou le préjudice auxquels nous sommes confrontés. Les luddites visaient d’abord une réforme juridique, mais lorsque leurs revendications n’ont pas été prises au sérieux, ils ont introduit d’autres méthodes. Ils ont commencé à se rassembler, se sont engagés dans des échanges syndicaux et ont décidé de détruire les machines. 

Mon propos n’est pas de dire que la destruction matérielle est nécessairement souhaitable. Mais il est évident qu’il faut prendre au sérieux l’envie d’explorer diverses façons de répondre aux dangers d’un régime technologique donné, en refusant de se limiter uniquement à la réforme juridique. À mon sens, les luddites nous encouragent à être plus expérimentaux, à explorer des moyens alternatifs de rejeter les technologies qui nous semblent nuisibles ou violentes. 

Le remplacement de l’humain par la machine n’est plus présenté comme un danger mais comme le but et l’argument de vente de l’IA.

Thomas Dekeyser

Traversons-nous un moment « techno-négatif » ?

Notre « moment IA », avec les destructions qu’il commence à engendrer, fait écho à la diversité des modes d’action techno-négatifs dans l’histoire. Alors que l’IA représente, pour certains, une menace pour leurs moyens de subsistance ou l’introduction de moyens plus efficaces de surveiller les populations, pour d’autres, le problème central de l’IA réside dans les ressources extrêmes — minéraux rares, eau, charbon, etc. — dont elle dépend. Pour d’autres encore, le problème est l’arrivée présumée d’une « superintelligence » et le risque existentiel que cela pourrait entraîner. Pour d’autres encore, la préoccupation porte sur l’impact qu’aura un datacenter sur la valeur de leur propriété.

En conséquence, les groupes désireux de mettre un frein à la généralisation de l’IA vont des syndicats et des militants écologistes aux « doomers », en passant par les propriétaires fortunés et les organisations artisanales traditionnelles, et tout ce qui se trouve entre les deux. Le refus de l’IA n’a pas de couleur politique unique.

L’une des raisons de cet attrait très large de la résistance anti-IA réside dans l’incroyable étendue des domaines qu’elle touche. Une technologie aussi globale, qui affecte tant de domaines différents — notamment l’environnement, les droits des travailleurs, l’artisanat traditionnel, la valeur des biens immobiliers — ne peut que susciter le mécontentement à tous les niveaux politiques.

Dans votre perspective, est-ce une bonne chose ?

Il est positif que des groupes divers soient, en théorie, capables de se rassembler autour d’un ensemble de préoccupations communes, quelle que soit leur affiliation politique stricte. Cela peut être très enrichissant et signifie que les orientations politiques n’ont pas à faire obstacle à la collaboration. Nous nous rassemblons malgré nos différences, ce qui peut permettre une collaboration saine au-delà des divergences.

Mais toutes les formes de techno-négativité ne sont pas de nature émancipatrice. Nous avons besoin d’outils pour distinguer les formes de techno-négativité qui visent à améliorer la vie de tous de celles qui ne concernent qu’un groupe restreint de la société.

À quelles formes de résistances pensez-vous ?

Il existe par exemple des groupes éco-fascistes pour lesquels les technologies contemporaines comme l’IA constituent une menace pour des modes de vie et des relations entre les genres très traditionnels. Leur résistance est au service du rétablissement des normes patriarcales sur la « femme au foyer » et à réintroduire la ségrégation raciale sous la forme de communautés à dominance blanche voire exclusivement blanches. À l’instar des militants écologistes, ils peuvent s’opposer à l’implantation d’un nouveau centre de données, mais pour des raisons totalement différentes, voire opposées.

Il faut donc toujours se poser la question suivante : à qui profitera la résistance proposée contre les technologies ? Quelles vies et quels modes de vie souhaitent-ils voir s’épanouir ? Ce n’est pas seulement une question d’intentions, mais des types de systèmes de valeurs et de mondes que ces formes de résistance veulent concrétiser dans le cadre de leur attaque contre la technologie. Il me semble que c’est l’une des tâches urgentes pour ceux qui sont insatisfaits de notre présent technologique.

Comment expliquez-vous le fossé existant entre l’opinion publique et ce qui semble être la conviction de nombreux responsables politiques sur l’IA, notamment aux États-Unis ?

Aux États-Unis et ailleurs, les gouvernements locaux et nationaux semblent avoir adhéré au discours sur l’inévitabilité que leur ont présenté les PDG des géants de la tech. 

Ils pensent que s’ils ne soutiennent pas directement et ne contribuent pas au déploiement d’immenses infrastructures d’IA et de centres de données, ils seront perdants tant sur le plan économique que géopolitique. Les entreprises d’IA ont très bien réussi à convaincre les gouvernements que s’ils n’adoptaient pas la superintelligence que — selon elles — ces entreprises sont les seules à pouvoir produire, ils prendraient inévitablement un retard considérable.

Ce cadre narratif a fonctionné : pourquoi se soucier des sentiments et des inquiétudes des gens face à l’IA alors qu’il en irait de la survie de la nation ? Il y a une certaine arrogance dans cette attitude : « vous ne savez pas ce qui est bon pour vous. Contre votre gré, nous irons de l’avant. »

Il est essentiel de prendre conscience du déficit démocratique lié au développement de l’IA : la représentation finit par fonctionner en grande partie de manière symbolique, comme un moyen de signaler la responsabilité, mais sans la volonté (ou parfois même les structures) de la mettre en œuvre et de la faire respecter.

Marietje Schaake parle à ce propos de « coup d’État permanent » de la Silicon Valley. Partagez-vous ce diagnostic ?

Il est clair que le déficit démocratique de l’IA doit beaucoup à l’alignement croissant entre les gouvernements et les intérêts capitalistiques, en particulier aux États-Unis : ces dernières années, les géants de la tech se sont sentis de plus en plus à l’aise à l’idée de se rapprocher des tendances autoritaires de Trump. Palantir en est l’exemple le plus flagrant, mais des entreprises comme Google, Meta et Tesla — chacune avec ses propres investissements et applications d’IA — ont abandonné leurs prétentions antérieures d’œuvrer à l’amélioration de la vie des gens et de leur capacité à tisser de nouveaux liens à travers le monde. Après la façade progressiste des premiers temps, ces entreprises se sont depuis longtemps engagées à construire des machines de guerre et à accroître leur puissance géopolitique. Cela faisait partie intégrante de leur expansion commerciale depuis le début. 

Ce qui a changé, c’est l’abandon actif de cette façade progressiste au profit d’une acceptation beaucoup plus ouverte d’un lien étroit entre les intérêts de l’État et ceux des entreprises. Cette transparence semble avoir permis aux entreprises comme aux autorités de se soustraire plus facilement à leurs engagements démocratiques. Qui écoute aujourd’hui les communautés locales touchées par le développement des data centers ? Ou même la population au sens large qui exprime ses profondes inquiétudes face aux avancées de l’IA.

Il faut donc commencer par trouver les moyens de détruire l’aura d’inévitabilité de l’IA.

Thomas Dekeyser

Pensez-vous que cette frustration pourrait conduire à une action directe contre les infrastructures ?

Les infrastructures d’IA portent en elles une brutalité intrinsèque.

Les dommages environnementaux causés par l’IA — localement par sa consommation d’eau et globalement par la crise climatique que sa consommation d’énergie contribue à alimenter — constituent indéniablement une forme de violence. 

Le travail mal rémunéré dans des conditions épouvantables nécessaire à l’extraction des minéraux dont dépend l’IA en est une autre. 

Les préjudices subis par les personnes touchées par l’utilisation de l’IA par les forces frontalières à des fins de surveillance et d’expulsion, et par les armées pour les bombardements par drones, une autre encore.

Or la violence engendre la violence : on a récemment assisté à des attaques violentes contre les infrastructures de l’IA, voire contre les domiciles de PDG du secteur comme Sam Altman en réponse aux guerres menées par les entreprises de l’IA. À moins que la bulle de l’IA n’éclate, il est à craindre que nous assistions à une recrudescence de ce genre d’attaques matérielles. C’est l’histoire des luddites : face à l’impossibilité apparente de modifier le cours du développement technologique, ils se sont tournés vers des moyens violents.

De la même manière, le déficit démocratique de l’IA aujourd’hui engendre un sentiment d’impuissance chez les gens et favorise les pulsions violentes. Peu importe l’intensité de nos campagnes en faveur de technologies moins nocives ; peu importe les appels en faveur de la réglementation de l’IA. Le contexte qu’on nous présente est toujours le même : nous marcherions vers un futur inéluctable. 

À une époque où l’IA semble inévitable et omniprésente, les agressions matérielles contre les infrastructures peuvent servir d’exutoire temporaire à ce sentiment d’impuissance. 

Les luddites ont perdu : comment ne pas subir le même sort face aux entreprises de l’IA ?

Cette question est délicate puisqu’il est difficile d’imaginer une relation radicalement différente avec la technologie à partir de notre contexte technologique actuel. 

Si nous voulons davantage qu’une IA simplement moins biaisée, ou des réseaux sociaux légèrement moins addictifs ou davantage détenus par le secteur public, il faut s’atteler à une tâche fastidieuse : se défaire de nos habitudes technologiques existantes. Autrement, nous risquons simplement de prolonger les problèmes auxquels nous sommes confrontés aujourd’hui.

Pour chacun de nos usages, nous devrions pouvoir être en mesure de nous demander : à quoi, exactement, la technologie devrait-elle servir ? Pour qui et dans quel but ? Comment pourrait-elle soutenir la vie collective plutôt que de l’exploiter ou de la détruire ? Comment pourrait-elle avoir un impact positif sur l’environnement plutôt que de l’épuiser ? Tout cela nécessite une réflexion collective sérieuse. 

Parce que les technologies ne sont pas neutres, nous pourrions décider d’abandonner celles qui, dans leur essence, reposent sur des principes de nuisance, d’exploitation et de surveillance, tout en préservant celles qui se prêtent à des usages radicalement différents.

Vous écrivez qu’« on ne déteste pas assez ce monde technologique » : est-ce le début d’un programme ?

Nous devons être capables de canaliser tout le ressentiment charrié par la techno-négativité pour le convertir en ce que je nomme un techno-abolitionnisme.

Le techno-abolitionnisme consiste à rejeter la réalité technologique dans laquelle nous vivons aujourd’hui.

Pendant trop longtemps, la question a été de savoir comment rendre un peu plus supportables les technologies que nous imposent les entreprises les plus riches et les plus puissantes entreprises, et qui ont souvent été conçues dès l’origine à des fins de surveillance et de guerre. On passe ainsi à côté de la question bien plus importante : quelles technologies serviraient réellement les intérêts du plus grand nombre ?

L’abolition ne signifie pas nécessairement détruire littéralement les machines.

Il faut commencer par trouver les moyens de détruire l’aura d’inévitabilité de l’IA telle qu’on nous la présente. Alors, nous pourrons peut-être commencer à imaginer un futur désirable.