Volodymyr Solovian aime se comparer à un artisan 1. Docteur en philosophie, il dirige le Hybrid Warfare Analytical Group (HWAG), la cellule qui suit, depuis Kyiv, les campagnes d’influence russes par lesquelles Moscou tente de faire basculer les scrutins européens, comme dernièrement en Roumanie, en Moldavie, en Allemagne, en Pologne ou en République tchèque. Appuyé par deux stagiaires, il lit quotidiennement des canaux Telegram russes dans six langues. On pourrait croire qu’il anime un énième centre sur la désinformation. Pourtant, en France et dans le reste de l’Union européenne, son métier n’existe pas. Nous savons que face à la Russie, il faut mener une contre-offensive informationnelle organisée en mobilisant les imaginaires démocratiques. Nous savons qu’il est temps de reconnaître que nous ne sommes déjà plus en paix mais dans un état que l’Europe n’a pas encore nommé, que ses institutions ne savent pas désigner, et pour lequel elle n’a, par conséquent, aucune doctrine. 

Mais pour les « artisans » comme Volodymyr Solovian, la situation est différente : il n’y a plus de « zone arrière » pour se préparer en conceptualisant. Il n’y a plus d’espace de paix intérieure d’où l’on pourrait tranquillement et collégialement phosphorer sur l’état de la menace et théoriser sur la bonne manière d’y répondre.

Pendant une rencontre au cours de laquelle il présente ses outils et sa méthode, des sirènes se mettent à retentir : un MiG-31 russe a décollé, peut-être porteur d’un missile hypersonique Kinjal. L’alerte durera onze minutes. Dans la salle, personne ne se lève ; l’entretien se poursuit comme si de rien n’était. Volodymyr Solovian termine sa phrase, jette un œil rapide à l’application sur son téléphone, et reprend. 

En Ukraine, la guerre informationnelle se combat sous les bombes. Nous n’avons pas compris comment en tirer les leçons.

Un angle mort doctrinal

Face aux ingérences étrangères, la France a des détecteurs : Viginum, créé en 2021, fait un travail reconnu y compris par des Ukrainiens comme Volodymyr Solovian, même si beaucoup regrettent de ne pas avoir d’homologue permanent avec qui coopérer au quotidien. Le SGDSN coordonne ; l’ANSSI défend les systèmes ; la DGSI suit le terrorisme ; les armées le cinétique ; le Quai d’Orsay parle aux ambassades et a récemment pris, sous l’impulsion de Jean-Noël Barrot, des initiatives positives tissant autour de @frenchresponse une communauté qu’il étaye avec une « réserve diplomatique » pour « agir dans la bataille des récits ». Depuis Bruxelles, le DSA régule les plateformes, le Rapid Alert System couvre le partage d’alertes, le SEAE a même une cellule FIMI, pour Foreign Information Manipulations & Interference. Derrière cette myriade d’acronymes, il y a un effort sincère mais qui n’est pas à l’échelle. En France, la lutte contre la désinformation mobilisait l’année passée entre vingt et vingt-cinq millions d’euros par an, un montant qui devrait tripler ou quadrupler en 2026. Dans le même temps, la Russie dépense pour sa seule machine de propagande internationale plus de deux milliards de dollars par an, soit vingt-cinq fois plus que nous. Malgré cette asymétrie colossale de moyens et face à une réalité hybride, chaque institution gère son silo seulement et aucune ne couvre réellement la zone grise entre le moment de l’action cinétique et le moment où son interprétation devient une bataille cognitive.

En Ukraine, la guerre informationnelle se combat sous les bombes.

Benoît Thieulin et Pierre Vallet

Cette fragmentation institutionnelle n’est pas une spécificité française. Elle est structurelle en Europe. Nos doctrines de sécurité ont été bâties à une époque où les domaines de conflictualité étaient séparés : la terre, la mer, l’air, puis l’espace, et enfin le cyber. Si la guerre cognitive est parfois qualifiée de « sixième domaine », cette typologisation est trompeuse. Il n’est pas « à côté » des cinq autres : en constituant une couche d’interprétation des actions militaires, il est aujourd’hui le domaine qui les détermine. De même qu’un sabotage de câble sous-marin ne devient un acte politique que par le récit qui l’accompagne, de même une campagne de désinformation ne produit d’effet durable que si elle s’ancre dans des faits physiques. Or alors que nos adversaires ont appris à articuler ces deux registres en permanence, nous continuons à les traiter séparément.

Pour comprendre pourquoi nos dispositifs ne captent pas cette menace, il est utile de distinguer les formes que prend aujourd’hui la guerre cognitive. On peut schématiquement la subdiviser en plusieurs « écoles », définies par des pratiques de lutte informationnelle à visées spécifiques.

L’école américaine

La première, l’école « américaine », prend pour cible neurologique le système limbique : elle joue sur l’émotion, l’indignation, la peur, la colère — parfois même aussi un spectre plus large comme Facebook le propose depuis 2016 avec ses sept réactions : « j’aime », « j’adore », « haha », « wow », « solidaire », « triste » et « en colère » — appuyées par un mécanisme d’activation émotionnelle en temps réel de l’algorithme. 

Les travaux de Soroush Vosoughi et de son équipe au MIT 2, ont documenté ce que tous les praticiens savaient déjà : les contenus qui provoquent peur ou colère se propagent six fois plus vite que les contenus neutres et les plateformes sont optimisées pour amplifier une telle activation émotionnelle. À l’origine, ce phénomène est moins une doctrine étatique de guerre cognitive qu’un effet systémique de l’économie de l’attention analysée par exemple dans les travaux de Shoshana Zuboff 3. Sous Trump, ce phénomène algorithmique a toutefois été explicitement et durablement arsenalisé. Le secrétaire d’État Marco Rubio a ainsi récemment donné l’ordre aux ambassades américaines de mener des campagnes coordonnées de contre-propagande via X (ex-Twitter), en recrutant des influenceurs locaux pour porter « de manière organique » des récits financés par les États-Unis 4. Le Global Engagement Center, qui traquait les opérations étrangères, a été fermé par le même Marco Rubio et remplacé par un dispositif offensif.

L’école chinoise

Par distinction avec cette méthode, la cible neurologique principale de l’école chinoise est le cortex préfrontal : l’attention, la concentration, la capacité de jugement. Elle vise principalement les jeunes générations pour engendrer une dégradation cognitive. Si elle n’a théoriquement rien inventé 5, TikTok en constitue la mise en œuvre canonique. Sa version chinoise, Douyin, propose du contenu éducatif avec des limites de temps d’écran pour les mineurs. La version exportée par ByteDance et connue dans le reste du monde comme TikTok est optimisée pour le scroll infini et la gratification instantanée 6.

Derrière cette asymétrie, il y a la doctrine des « Trois Guerres » (三战) adoptée par l’Armée populaire de libération dans le sillage de l’ouvrage séminal de Wang Xiangsui et Qiao Liang sur la guerre hors limite : la guerre psychologique (心理战), la guerre médiatique (舆论战) et la guerre juridique (法律战). S’y ajoute désormais la bataille pour la cognitive degradation  : l’affaiblissement progressif de la capacité d’attention et de jugement de l’adversaire, une arme qui n’est par ailleurs pas exclusive des outils plus courants de la désinformation dont la Chine continue de faire usage.

L’école russe

L’école russe cible à la fois le cadre de référence logique et le système limbique. Sa temporalité est le moyen terme. Son mécanisme est la contamination des prémisses, théorisée par Vladimir Alexandrovitch Lefebvre il y a soixante ans, couplée à la saturation informationnelle contemporaine à la Vladislav Sourkov

La particularité de la doctrine russe est qu’elle ne cherche pas à faire adopter à son adversaire ses conclusions mais à le faire raisonner à partir de prémisses qu’elle a posées. Roman Kulchynskyy, de l’ONG Texty.org.ua, le formule ainsi : « La Russie veut que la France quitte l’OTAN, mais même si elle n’y parvient pas, cela n’a pas d’importance pour Moscou. Ce qui compte, c’est de semer le chaos, de diviser la France. » Plutôt qu’un moyen, la polarisation est devenue une fin en soi.

Ces trois écoles se combinent et se renforcent : l’école russe utilise l’infrastructure algorithmique américaine comme vecteur de diffusion quand la dégradation cognitive chinoise prépare un terrain sur lequel les cadrages russes deviennent plus opérants. L’activation émotionnelle permanente des plateformes américaines fournit un « carburant limbique » que Moscou exploite. Ce que nous combattons aujourd’hui n’est donc pas un système de propagande étatique isolé mais un écosystème convergent.

Le Cygne d’Acier

Or c’est ici que se loge notre vide stratégique le plus préoccupant : en Europe, nos dispositifs ne couvrent qu’une partie du problème. Le Digital Services Act, dont il ne s’agit pas de minorer l’importance, a été pensé pour discipliner les plateformes et contenir les effets systémiques des écoles américaine et chinoise — gestion algorithmique, accélération, modération, transparence des recommandations, atténuation des risques. Il le fait certes imparfaitement, lentement, toujours a posteriori mais il a le mérite d’exister.

En revanche, il n’a pas été conçu pour répondre au type d’opérations d’influence d’un nouveau genre dans lequel la Russie est devenue maître : le Cygne d’Acier.

Le piège de Gorgone

Ancien recteur de l’Institut militaire S. Korolov de Jytomyr, ancien directeur du Centre éducatif et scientifique des hautes technologies, vétéran des combats, le major-général Yuriy Danyk est aujourd’hui professeur à l’Institut polytechnique Igor-Sikorsky de Kyiv. En 2023, sous les bombes russes, il a écrit, avec Chad M. Briggs, un article académique dont peu de lecteurs francophones connaissent l’existence et qui introduit le concept de « Steel Swan » 7.

En pleine invasion à grande échelle de l’Ukraine, Danyk et Briggs ont mis en mots un renversement théorique majeur que nous n’avons pas encore intégré.

Les modèles classiques de guerre informationnelle, hérités de la doctrine soviétique du contrôle réflexif théorisée par Vladimir Lefebvre dans les années 1960, fonctionnent sur un mode chirurgical : ils injectent un paquet d’information précis, à un moment défini, pour orienter une décision chez une cible. Les outils typiques de ce type d’opérations sont le faux document, la fuite organisée, le narratif ciblé. Tout au plus manipule-t-on des cadres de pensée en imposant un langage : parler par exemple de « négociation de paix avec Moscou », que l’on ait l’intention ou non de les mener sincèrement, c’est entrer dans l’idée que des compromis territoriaux seraient possibles et déjà avaliser certains buts de guerre russes. C’est une forme de manipulation discrète, efficace, documentée et qui fonctionne depuis des siècles. C’est aussi encore largement la grille avec laquelle nos services analysent les opérations d’influence.

Ce que nous combattons aujourd’hui n’est donc pas un système de propagande étatique isolé mais un écosystème convergent.

Benoît Thieulin et Pierre Vallet

Or selon Danyk et Briggs, cette grille est devenue obsolète. Les opérations modernes ne visent plus une décision ponctuelle mais s’attaquent à l’environnement cognitif lui-même : « le champ de bataille de ces guerres-là, écrivent-ils, leur territoire, c’est le cerveau humain ». Nous sommes passés de la balistique à la contamination, de l’opération chirurgicale à la pollution de l’atmosphère. L’adversaire ne cherche plus à nous faire prendre la mauvaise décision mais à rendre toute décision impossible. C’est pour cela que « la guerre cognitive moderne n’est pas une guerre au sens littéral du terme » dont le but serait « la conquête d’un territoire géographique ». Les armées nouvelles ne se battent pas pour soumettre l’adversaire à leurs volontés au sens d’une théorie classique, « clausewitzienne » de la victoire : « L’objectif n’est pas un changement de croyance mais de déchirer le tissu même de la croyance, de rendre la vérité indifférente. »

En 2026, ils ont publié un aggiornamento important de leur travail qui prolonge la métaphore du Cygne d’Acier par une autre : le piège de Gorgone 8. Ils définissent une nouvelle ère de la guerre, où les moyens militaires et hybrides mobilisés ont pour but de faire advenir une paralysie cognitive.

Leur innovation théorique est d’emprunter à la physique quantique le concept de matrice de densité. Pour eux, une société ne se modélise pas comme un vecteur d’opinion — un peuple qui pense ceci ou cela, qui vote pour ou contre — mais est mieux représentée comme un système capable de porter simultanément des croyances contradictoires. Il suffit, pour s’en convaincre, de regarder nos débats publics : les mêmes personnes peuvent, selon le sujet, selon l’heure, selon la plateforme, tenir des positions incompatibles sans en éprouver la contradiction. Cet état superposé de croyances n’a rien d’une pathologie, c’est au contraire une caractéristique de nos « sociétés Schrödinger » contemporaines. Or pour l’ennemi, c’est là que se loge la faille exploitable, car des états d’opinion consubstantiellement contradictoires mettent en péril la cohérence globale du système.

Le bruit noir et le bruit blanc

L’adversaire attaque cette matrice par deux leviers simultanés. Danyk et Briggs appellent le premier le White Noise. On pourrait le qualifier « d’expansion dimensionnelle » : il ne s’agit pas de mentir sur un sujet mais de créer une multiplication des versions sur tous les sujets. Chaque nouvelle source, chaque nouveau « point de vue », chaque nouvelle « vérité alternative » ajoute une dimension à l’espace des hypothèses. Le but n’est pas de faire en sorte que les cibles « croient » la version russe mais de créer un monde où elles ne puissent plus distinguer une version d’une autre. 

Le second levier est le Black Noise, c’est-à-dire la négation du signal et du référent. Il s’agit de discréditer les médias, les institutions, les experts, les fact-checkers, toute figure d’autorité, non pas en les contredisant, mais en les noyant dans le bruit. Quand tout le monde parle, celui qui dit la vérité n’est qu’une voix parmi d’autres ; et quand la visibilité est dictée sur les plateformes par l’émotion, toute émotion étant égale par ailleurs, alors tout se vaut et plus aucun sujet ne peut être légitimement hiérarchisé dans l’actualité, les débats, l’analyse, les conclusions.

Au terme d’un tel processus, le citoyen, le journaliste ou le décideur ne peuvent plus attribuer une probabilité de vérité à ce qu’ils lisent, entendent ou voient tant l’entropie de la matrice : le degré d’incertitude en son sein augmente de façon exponentielle. Pour l’ennemi, le but est de faire atteindre au système un seuil critique pour le faire basculer. C’est ce basculement que le major-général et ses co-auteurs appellent le « Cygne d’Acier ».

L’objectif de l’adversaire n’est pas la persuasion mais l’arsenalisation de la rationalité.

Benoît Thieulin et Pierre Vallet

Nassim Taleb a popularisé le Cygne Noir pour qualifier un événement prévisible mais que l’on avait exclu a priori et que personne n’avait vu venir. Les économistes parlent de Cygne Blanc pour désigner un phénomène visible de tous mais que tout le monde refuse de voir. Noir ou blanc, quand le cygne arrive, la société agit. Le Cygne d’Acier frappe autrement : il se matérialise quand la capacité même d’analyser, de décider, d’agir a été détruite en amont. L’événement est là mais le système ne peut pas y répondre : il a été anesthésié avant d’être touché.

En février 2022, tout le monde savait où étaient les chars russes : les satellites américains les montraient, les services britanniques alertaient depuis des semaines et les images étaient publiques, vérifiables, irréfutables. Pourtant, dans les chancelleries européennes, dans les rédactions, à l’Élysée, à Berlin, à Kyiv même — Volodymyr Zelensky l’a d’ailleurs reconnu — personne ne croyait vraiment à l’invasion. On parlait d’exercice, de pression, on disait que Poutine n’oserait pas et que l’OTAN le dissuaderait. Toutes ces interprétations coexistaient et toutes semblaient plausibles. Pourtant, aucune n’a déclenché d’action pour arrêter la Russie. Pendant des années, le Kremlin a produit tellement d’explications alternatives que la réalité plus évidente sur ses intentions était devenue une parmi d’autres. L’invasion préparée militairement, quasi certaine, n’était plus qu’une opinion parmi d’autres.

Arsenaliser la rationalité

On le voit, l’arme clef de ce dispositif n’est pas le mensonge mais la paralysie de la volonté. L’ennemi ne cherche pas à nous convaincre d’une contre-vérité mais à faire en sorte que toute réponse soit impossible non parce qu’elle n’existerait pas, mais parce que le système ne peut plus la formuler. 

Depuis Kyiv, Danyk martèle ce point, qui devrait désormais entrer dans notre vocabulaire stratégique : l’objectif de l’adversaire n’est pas la persuasion mais l’arsenalisation de la rationalité. Le besoin de comprendre avant de décider, qui est au fondement de nos démocraties, devient précisément la faille exploitée. En cherchant à vérifier, à nuancer, à attendre des preuves, tout acteur rationnel devient dès lors structurellement vulnérable.

Le Cygne d’Acier peut donc provoquer deux effets, chacun aussi dévastateur que l’autre. Le premier est la paralysie décisionnelle : le système se fige, personne ne décide parce que personne ne sait sur quelle base décider. Le second est ce que Danyk nomme la « nécrose institutionnelle »  : l’institution agit, mais contre ses propres intérêts, en réponse à un signal fabriqué, fallacieux ou cognitivement sans échappatoire : « L’institution ne se contente pas d’être confondue. Elle perd la capacité mécanique fondamentale de faire un choix. » 9

Dans ce schéma, l’institution ne reste pas immobile mais finit par se retourner contre elle-même : « dans un environnement à haute entropie, toutes les réalités contradictoires portent exactement le même poids. La foule se fige sur place, débat de la réalité, au lieu d’agir. C’est cela, la désorientation pathologique. »

En industrialisant la production de récits destinés à l’Occident, Poutine est devenu son propre sujet idéal : ces narratifs ont fini par le convaincre.

Benoît Thieulin et Pierre Vallet

C’est une démocratie qui réduit son aide à un allié agressé au prétexte de la prudence budgétaire ou que « ce n’est pas notre guerre ». C’est un média qui donne une tribune équivalente à un agresseur et à sa victime pour respecter le pluralisme. C’est un électorat qui sanctionne le parti qui alerte sur la menace pour punir les « va-t-en-guerre »… La nécrose est l’état avancé du Cygne d’Acier et certaines démocraties européennes y sont déjà tombées.

Mais il est possible d’en sortir

La physique connaît un phénomène singulier : la sublimation — le passage direct de l’état solide à l’état gazeux, sans phase liquide intermédiaire. Si le Cygne d’Acier est la solidification de la confusion en paralysie, la réponse ne peut pas être un simple retour en arrière par les mêmes étapes. On ne peut « débunker » une paralysie systémique, de même qu’on ne régule pas une nécrose institutionnelle et qu’un régime d’entropie maximale ne revient pas à la normale par du fact-checking. Il faut une transition directe et le seul agent possible pour la réaliser, c’est la confiance.

Doctrine de la vérité offensive

À Kyiv, dans l’écosystème « d’artisans » qui lutte contre la Russie au niveau informationnel, un consensus se dégage à travers différentes leçons convergentes : le debunking est nécessaire mais « plus ennuyeux que la fiction », explique Ruslan Deynychenko de StopFake ; il arrive « toujours trop tard », selon Vadym Miskyi de Detector Media ; il est encore « nécessaire mais insuffisant », selon Mariia Kovach du StratCom Center. Elle ajoute : « ce qui manque, c’est l’offensive de vérité ». Le Major général Yuriy Danyk le dit encore plus explicitement : « la défense doit cesser de gagner l’argument sur les faits. Elle doit briser le tempo de l’adversaire. En guerre cognitive, le camp qui s’explique est le camp qui perd. »

Quatre principes pour résister au Cygne d’Acier

Roman Pohorilyi est un étudiant en droit de vingt-six ans. Mais de manière moins anecdotique, il est aussi co-fondateur d’une des sites les plus consultés au monde sur la guerre en Ukraine.

DeepState n’est ni une ONG ni un média. Accessible librement sur deepstatemap.live, c’est une carte interactive qui documente en temps réel la ligne de front ukrainienne, alimentée par les soldats eux-mêmes, du simple conscrit au commandant de brigade. Cumulant un milliard de vues, elle est devenue la source de référence pour suivre l’avancée du front, utilisée par le New York Times, la BBC ou l’International Crisis Group. La deuxième carte ukrainienne la plus fiable après celle de l’état-major est collaborative, accessible à tous et tourne avec cent volontaires et un financement par donations et crowdfunding.

Mais ce n’est même pas le plus important. Ce qui compte, c’est qu’elle est aussi l’une des meilleures manières de faire face au Cygne d’Acier. Roman Pohorilyi l’a très concrètement expérimenté lors de la bataille de Pokrovsk à l’hiver 2025-2026. Les forces russes pénètrent alors en profondeur le dispositif ukrainien, menaçant de couper une route logistique vitale. Un commandant de brigade transmet au quartier général des informations fausses, affirmant que la situation est sous contrôle et que la défense tient. Le porte-parole de l’unité de commandement Khortytsia déclare même publiquement que « seulement cinq Russes » ont franchi la ligne. Mais via ses sources directes au front DeepState UA établit la réalité — toute autre. Il publie les cartes, les pertes et les positions des troupes. L’onde de choc est immédiate. Le commandant en chef se saisit de ce dossier, qui remonte jusqu’au président ukrainien. Des mesures sont prises, des renforts arrivent, la ligne se redresse. Deux à trois cents soldats russes sont neutralisés, le territoire finit par être repris. Le commandant de brigade est sanctionné pour avoir transmis de fausses informations à sa hiérarchie. 

Comme on le sait, cet effort sera insuffisant et la ville finit par tomber sous la pression et la masse russes quelques semaines plus tard. Mais entre-temps, Roman Pohorilyi a convaincu l’état-major et demeure persuadé que « la vérité, aussi corrosive soit-elle est plus forte que le brouillard de guerre. Elle est une arme stratégique, pas un luxe démocratique. »

Cette doctrine de la transparence totale se retrouve dans la bouche de certains de nos interlocuteurs ukrainiens sous le nom de « vérité offensive ». Face au Cygne d’Acier, le debunking, le fact-checking ou le contre-récit sont relativement peu efficaces. Il s’agit de créer le cadre réel dans un continuum de vérité avant que l’adversaire n’en prenne le contrôle. 

Avec DeepState, Pohorilyi et son équipe ont inventé un mode de résistance dont il faut comprendre la leçon : ils ne corrigent pas les mensonges russes — ils n’auraient pas le temps : le champ de bataille informationnel est une saturation de fake news qui changent toutes les heures, c’est là la marque de fabrique du Cygne d’Acier. Mais ils construisent un récit plus fort, plus vérifiable et, surtout, plus continu. Parce qu’elle assène en temps de guerre des vérités — même lorsqu’elles portent une mauvaise nouvelle — la carte devient la seule référence possible à laquelle tout le reste est comparé. Parce que « la propagande des gentils est tout aussi dévastatrice pour la confiance que le mensonge » ajoute-t-il.

À partir de l’expérience de la création de ce monopole naturel de la crédibilité — et donc de la confiance — il est possible de dégager quatre principes de ces pratiques, et nous les livrons tels que nous les avons entendus. 

Le premier est la transparence radicale  : dire la vérité même quand elle est mauvaise, parce que le mensonge détruit le moral plus sûrement que la vérité. Le deuxième est l’indépendance comme actif stratégique  : cela peut paraître contre-intuitif lorsqu’on n’est habitué à raisonner dans des cadres très formels, mais beaucoup d’ONG qui permettent aujourd’hui à l’Ukraine de tenir refusent tout financement d’État parce qu’elles savent que leur crédibilité internationale en dépend. Le troisième est l’auto-organisation de la société civile. Le major-général Danyk l’illustre avec l’exemple de ce qu’il appelle le Cyber Bouclier : au début de la guerre, des centaines d’informaticiens ukrainiens se sont coordonnés en ligne en quarante-huit heures, sans ordre, ni structure, et l’État les a progressivement encadrés sans jamais réellement formaliser un réseau. Enfin, le quatrième principe est que dans la guerre informationnelle dans laquelle nous sommes plongés, la doctrine émerge de la pratique, pas l’inverse.

Paranoïa : l’arme informationnelle est dangereuse pour qui la manie

Pendant que les Ukrainiens construisent la vérité offensive, la Russie construit son contraire. Sean Wiswesser, qui a passé vingt-huit ans à la CIA, l’a rappelé dans un article récent 10 : les services de renseignement russes, largement corrompus, nourrissent Vladimir Poutine de rapports embellis pour assurer leur propre survie. L’opération spéciale de trois jours qui devait assurer la victoire sur l’Ukraine en est la plus tragique démonstration. Mais il y a plus grave encore : les usines à trolls produisent pour l’étranger des contenus dont les rapports d’activité, nécessaires à la justification des budgets auprès du Kremlin, remontent dans l’appareil d’État russe. Fabriqués pour manipuler un électeur français ou allemand, ces documents finissent sur le bureau d’un conseiller et deviennent du renseignement. En remontant la chaîne de commandement, ces fausses informations confirment le pronostic d’Hannah Arendt : « le sujet idéal du régime totalitaire est l’homme pour qui la distinction entre fait et fiction n’existe plus ». En industrialisant la production de récits destinés à l’Occident, Poutine est devenu son propre sujet idéal : ces narratifs ont fini par le convaincre.

Le choix de la vérité n’est pas seulement le plus juste moralement, il est aussi et surtout le plus stratégique.

Benoît Thieulin et Pierre Vallet

Cela n’a rien de rassurant pour autant. Un régime qui se ment à lui-même reste capable de décisions brutales, et l’effondrement d’un système paranoïaque est toujours dangereux pour son environnement. En revanche, cette forme de contamination du mensonge nous enseigne quelque chose sur l’arme que nous combattons  : elle est toxique pour qui la manie. 

Ce que l’Ukraine démontre depuis quatre ans, c’est que la vérité, même difficile, est un avantage cumulatif. Au même rythme, la Russie montre que le mensonge, s’il peut être efficace à court terme, crée un passif stratégique. 

Pour l’Europe, la conséquence est claire : le choix de la vérité n’est pas seulement le plus juste moralement, il est aussi et surtout le plus stratégique.

5 propositions pour la France avant 2027

Alors que pouvons-nous, concrètement, proposer ? Comme l’heure n’est plus aux plans à dix ans, on peut livrer cinq pistes qui découlent directement de la résistance au Cygne d’Acier telle qu’elle est pratiquée à Kyiv. Elles ont moins vocation à remplacer les architectures institutionnelles existantes qu’à les activer.

La première est la simulation. La France devrait conduire, au cours des douze prochains mois, un exercice national de crise cognitive hybride, un scénario combinant un événement physique à attribution difficile, une campagne de désinformation synchronisée, et une saturation informationnelle sur les plateformes et les chatbots. Il ne devrait pas s’agir d’un exercice théorique dans un comité interministériel mais d’un exercice réel, avec des temps mesurés, une coopération entre agences et des arbitrages politiques. Pratiquement, une telle simulation devrait impliquer la DGSI, Viginum, le SGDSN, les armées, le Quai d’Orsay, les cabinets ministériels mais aussi la population d’une grande ville. Dans une guerre où chaque citoyen est concerné, il serait absurde de ne pas inclure de civils dans des exercices de cette nature — a minima, une cohorte d’agents IA pourrait simuler des conversations en temps réel. Il est probable qu’à l’issue d’un tel exercice, on découvre que la doctrine manque à presque tous les points de jonction — mais c’est précisément cette découverte qui produira la doctrine.

La deuxième mesure concrète est le partenariat opérationnel avec l’écosystème ukrainien. Pas un accord-cadre de coopération signé en fanfare. Des canaux concrets. Entre Viginum et le StratCom Center, pour l’échange d’alertes en temps réel. Entre les cellules de monitoring françaises et Texty.org.ua, dont la méthodologie « Carousel Emotions » — prix SIGMA 2025 — est directement transférable. Entre nos agences et le HWAG de l’UCMC, qui surveille déjà les scrutins européens et qui a plus d’expertise sur Telegram que n’importe quel service européen. Entre les services français de lutte contre l’ingérence et Molfar, qui a pratiqué l’OSINT offensif à une échelle que nous n’imaginons pas. Entre nos meilleures entreprises de veille souveraine comme Visibrain et ces acteurs ukrainiens qui regorgent d’inventivité. Le StratCom Forum que Mariia Kovach organise à Kyiv le 21 mai 2026 est la première occasion concrète de réaliser cela.

La troisième est la formation accélérée. Le StratCom Center ukrainien a formé en deux ans et demi les communicants de vingt-cinq régions — journalistes institutionnels, attachés de presse, community managers de collectivités. Ce modèle est transposable. Entre les collectivités, les ministères et les opérateurs publics, la France a plusieurs milliers de communicants institutionnels qui n’ont à ce jour reçu aucune formation aux narratifs hostiles, au « pre-bunking », aux outils de monitoring, à la détection des deepfakes. RSF documentait en avril 2026 cent journalistes deepfakés dans vingt-sept pays en vingt-quatre mois. Le problème est devant nous. Nous devons d’urgence former et éduquer.

La quatrième est la protection des vecteurs de vérité. Les universitaires, les lanceurs d’alerte, les élus, les journalistes, les influenceurs qui portent un discours démocratique font aujourd’hui l’objet de campagnes de harcèlement coordonnées depuis l’étranger. Ils doivent bénéficier d’une protection numérique équivalente à celle dont ils bénéficieraient physiquement s’ils étaient menacés et cela suppose des moyens juridiques, techniques, et financiers dédiés et un signal politique clair qui formalise le fait qu’il s’agit bien d’actes de guerre.

La cinquième, la plus importante, et la plus difficile, est la construction d’un récit national désirable, non pas au sens d’une communication gouvernementale bien rodée mais de ce que Bruno Latour appelait une « orientation » : un récit dans lequel une société peut se reconnaître et qui lui permet de s’orienter dans le monde. L’Estonie l’a fait autour de la souveraineté numérique et du souvenir de l’occupation. L’Ukraine l’a fait autour de la dignité et du refus. En France, en Europe, ce récit manque ; ou plutôt, il est si fragmenté, si caricaturé, si instrumentalisé qu’il ne porte plus. Dans ce moment, le plus noir et le plus dangereux, l’élection présidentielle de 2027 peut être précisément l’occasion de le reconstruire.

Sources
  1. Ce texte fait suite à une mission d’observation conduite à Kyiv du 30 mars au 5 avril 2026 auprès de dix organisations ukrainiennes de lutte informationnelle, avec le concours de Mario Scaramella. Il s’appuie sur plusieurs dizaines d’entretiens réalisés avec des personnalités clefs.
  2. Vosoughi Soroush, Roy Deb et Aral Sinan, « The spread of true and false news online », Science, vol. 359, n° 6380, 2018, pp. 1146-1151.
  3. Shoshana Zuboff, L’Âge du capitalisme de surveillance, Paris, éditions Zulma, trad. Bee Formentelli et Anne-Sylvie Homassel, 2020.
  4. Joseph Gedeon, « US directs embassies to team up against foreign ‘hostility’ – and use X to ‘counter anti-American propaganda’ », The Guardian, 30 mars 2026.
  5. Voir les travaux du Behavior Design Lab et des cours de captologie de B.J. Frogg à la Stanford University.
  6. Le Stanford Internet Observatory l’a documenté et Jonathan Haidt en a fait la thèse centrale de son livre The Anxious Generation, Penguin Press, 2024.
  7. Yuriy Danyk et Chad M. Briggs, « Modern Cognitive Operations and Hybrid Warfare », Journal of Strategic Security, vol. 16, n°1, 2023, p. 35-50.
  8. Chad Briggs, Yuriy Danyk et Robert Weiss, « Entropy, Cognitive Paralysis, and the Mechanics of Cognitive Warfare », Zenodo, 30 mars 2026.
  9. Ibid.
  10. Sean Wiswesser, « From Chernobyl to Ukraine : The Enduring Cost of Kremlin Lies », The Cipher Brief, 28 avril 2026.