En 2017, dans une salle sans fenêtre du Pentagone, quelque chose a basculé. 

Un engrenage discret mais irréversible s’est enclenché : le commandement militaire des États-Unis admettait que la conduite de la guerre pouvait être confiée à des machines. 

Sous la direction de Drew Cukor, le projet Maven n’a pas seulement introduit l’IA dans les opérations militaires — il a déplacé le centre de gravité de la décision. Ce qui se présentait comme une modernisation technique est devenu une mutation fondamentale du pouvoir : une alliance fragile entre une armée hantée par le déclin, une Silicon Valley d’abord réticente puis absorbée par cette révolution, et des systèmes opaques capables d’identifier, de classer et de frapper à une vitesse inhumaine. 

Sans rupture visible, la guerre s’est transformée sous l’effet de l’IA en un processus diffus, automatisé, où la responsabilité se dilue.

Dans Project Maven : A Marine Colonel, His Team, and the Dawn of AI Warfare (W. W. Norton, 2026), au terme d’une enquête pour laquelle elle a conduit plus de 200 entretiens, Katrina Manson raconte comment la guerre algorithmique a été imposée par un petit groupe de personnes contre l’inertie du Pentagone — au point de devenir une réalité quotidiennement employée aujourd’hui en Iran.

Drew Cukor et les origines du projet Maven

Lors de ma première rencontre avec Drew Cukor, il n’est pas très souriant. Nous sommes au milieu de l’année 2024, et cela fait déjà près d’un an que j’essaie de le convaincre de m’accorder un entretien. Je l’attends après le travail, dans le hall de l’imposant siège new-yorkais de J. P. Morgan, la banque d’affaires où ce colonel à la retraite du Corps des Marines dirige désormais le département dédié à la « transformation de l’intelligence artificielle » pour le compte de son influent PDG, Jamie Dimon

À l’étage, Cukor m’offre une bouteille d’eau. Il ne prend rien pour lui-même. Nous nous asseyons face à face, attablés dans la cafétéria déserte du bureau et j’observe cet ancien officier du renseignement face à lui-même, en train de décider s’il accepte, finalement, de me parler.

Ma tâche principale, pour l’instant, semble être de devoir soutenir son regard — ce qui n’est pas chose aisée. La situation s’est renversée : désormais, c’est moi qu’on interviewe.

Drew Cukor ne me laissera presque rien écrire lors de cette première rencontre. Je me souviens d’un seul passage que j’ai retenu par cœur — « la guerre est terrible, la guerre est terrible, la guerre est terrible » — qu’il scande en soutenant mon regard, donnant voix à un chœur universel.

Il a les cheveux coupés ras. Son air est sévère, ses opinions tranchées. Il s’adoucit un peu lorsqu’il évoque ses passions : la catastrophe du raid de Dieppe en 1942, l’incapacité de l’armée américaine à mettre en adéquation la puissance de feu et la qualité du renseignement — et le projet Maven, surtout. Du nom de l’initiative qu’il a lancée au Pentagone pour placer l’IA au cœur de la manière dont les États-Unis doivent faire la guerre.

Drew Cukor est le héros d’une guerre qui n’a pas encore eu lieu. C’est en tout cas ce que semblent penser presque tous ceux qui ont eu un lien avec le projet Maven — ses critiques comme ses thuriféraires.

Lancé en 2017, Maven visait apparemment à utiliser la vision par ordinateur pour trier des milliers d’heures d’enregistrements filmées par des drones à travers l’Asie et le Moyen-Orient. J’allais pourtant découvrir que Cukor et ses soutiens ont toujours eu pour Maven des ambitions bien plus larges que la surveillance : dès le départ, ils voulaient s’aider de l’IA pour cibler des personnes et des objets. 

Le problème de la guerre, me dit Cukor, a toujours été les humains : « ils sont matériellement corruptibles, inefficaces, et ils se fatiguent. » Leur mort a des effets négatifs sur la campagne, ajoute-t-il sèchement. Cukor est convaincu que les humains pourraient accomplir davantage avec l’aide des machines, et que l’IA peut nous aider à percer le « brouillard de guerre ». 

Avec le projet Maven, Cukor voulait remédier à la bureaucratie qui, selon lui, avait à maintes reprises fait défaut aux forces armées américaines déployées à l’étranger — que ce soit pour intégrer directement le renseignement dans les opérations de combat, reconnaître la valeur des logiciels par rapport au hardware, et tester les technologies émergentes en conditions réelles de guerre.

Un ancien membre du Commandement des opérations spéciales interarmées (JSOC) me l’avait confié sur un ton ironique : « nous étions vraiment doués pour tuer des gens — mais cela ne nous a pas menés très loin. » Au contraire, Cukor voulait que les États-Unis endiguent le flot d’erreurs qui avait conduit leurs forces armées à tuer accidentellement des civils, des alliés et leurs propres soldats. Il voulait que le pays redéfinisse ce qu’était une victoire : non pas détruire l’ennemi, mais le vaincre.

Cukor souhaitait également utiliser les dépenses de défense du gouvernement pour arrimer le marché émergent de l’IA civile aux États-Unis plutôt que de le laisser partir à la recherche de clients en Chine. En 2017, dans une ébauche de mémo que j’ai pu consulter, il écrivait qu’il était de la responsabilité du gouvernement d’aider la communauté du capital-risque à rentabiliser ses investissements.

Le soutien acharné du colonel Cukor au projet Maven a de fait permis de « rentabiliser » des startups ainsi que l’ingéniosité des chercheurs en IA qui, d’ordinaire, passaient leur temps à rédiger des articles universitaires compliqués. Pour Maven, Cukor a recruté des géants de la tech mieux connus pour leurs services de vente en ligne et leurs logiciels de bureau que pour leur capacité à tuer. Désormais, Amazon Web Services (AWS) et Microsoft fournissent des capacités de guerre algorithmique à Maven.

Palantir Technologies, aujourd’hui célébrée comme une valeur montante en bourse et l’une des entreprises américaines les plus valorisées au monde — de nombreux analystes et vendeurs à découvert diraient sans doute : l’une des plus surévaluées —, était sur le point de quitter le département de la Défense lorsqu’elle a remporté son premier contrat Maven. Elle doit sans doute sa renaissance à Drew Cukor.

Scale AI, la société de labellisation de données détenue à 49 % par Meta, pourrait tenir le même discours sur son ascension.

Dès le début du projet Maven, le géant NVIDIA était également impliqué.

Désormais, Anthropic et OpenAI se lancent aussi dans le secteur de la défense alors qu’ils cherchent un débouché commercial pour leurs plateformes d’IA générative. 

Même Google, dont les employés avaient d’abord protesté contre leur implication dans « l’industrie de la guerre » lorsqu’ils avaient découvert leur participation au projet Maven en 2018, assume maintenant des activités liées à la sécurité nationale. 

Apple s’y est en revanche refusé.

Quelle que soit la forme que prendra la guerre par l’IA aux États-Unis, elle devra quelque chose à Cukor. Alex Karp, le PDG milliardaire de Palantir Technologies, qui a rapidement rejoint le projet, le décrit comme le « père fondateur du ciblage par IA ».

Cukor pensait qu’il faudrait vingt ans pour refondre l’armée américaine et intégrer l’IA dans ses structures. Au cours des cinq premières années, il a dû faire face à des résistances farouches alors qu’il incitait le Congrès à financer de nouveaux types de puissance de feu pour aider les États-Unis à se maintenir au sommet de la puissance mondiale. Le colonel exaspérait les sceptiques et les critiques, souvent issus de sa propre équipe — sans parler des civils qui redoutaient la perspective d’une extinction mondiale à la Terminator.

Maven a déjà accéléré le rythme de la guerre.

Katrina Manson

Cette dimension iconoclaste s’est répercutée sur son équipe. De nombreux « Mavenites » — comme ils se surnommaient — se considéraient comme des rebelles non-conformistes au sein du département de la Défense. Ils se comportaient avec l’insouciance d’une start-up de la tech au cœur du Pentagone, où règne d’ordinaire la rigueur. Leur attitude reflétait également l’excès de confiance et l’angoisse d’une superpuissance militaire qui se heurte sans cesse à ses propres limites et lourdeurs. L’équipe passait d’un extrême à l’autre tandis qu’en parallèle, Cukor se frayait un chemin vers son rêve au prix de sacrifices personnels et professionnels.

L’une de ses décisions les plus controversées fut de pousser l’armée américaine à utiliser des systèmes très peu testés dans des guerres ouvertes. 

Le colonel a en effet toujours soutenu que mettre l’IA sur le champ de bataille avant qu’elle ne soit prête ou fiable était le seul moyen de l’améliorer et de développer le savoir-faire d’une nouvelle génération de combattants, plus confiante quant à son utilisation.

Il était si exigeant dans chacune de ses demandes que Cukor devint un nom, un verbe, un adjectif. « Cukorer » évoquait un volume d’heures, une quête, une inventivité et une intensité tous phénoménaux. « Se faire ‘Cukoriser’ » signifiait devoir accomplir la même chose soi-même, selon ses propres instructions.

« C’était une sorte de génie », m’a un jour confié un proche du projet Maven, cherchant désespérément les mots pour décrire le pouvoir dont Cukor disposait pour plier la bureaucratie et ses membres à sa volonté. « Je ne sais pas comment il s’y prenait mais il était admiré et craint. Il provoquait sur les autres un effet psychologique. »

Nous vivons à l’ère de la guerre algorithmique

L’essor de la guerre algorithmique pose l’une des questions morales et pratiques les plus importantes qui soit : qui — ou quoi — a le droit de décider de prendre une vie humaine ? Et qui en supporte le poids ? 

Les partisans de l’IA affirment que celle-ci et l’automatisation qu’elle rend possible sauveront des vies. Ils prétendent que les algorithmes apportent une précision à la prise de décision qui limitera les pertes civiles et le mauvais ciblage. Ils soutiennent de même que les systèmes alimentés par l’IA pourraient dissuader un conflit avec la Chine — ou aider à gagner la Troisième Guerre mondiale, au cours de laquelle des machines automatisées mèneraient vraisemblablement des combats à un rythme si rapide que les humains ne seraient même plus capables de les appréhender.

Les détracteurs de l’IA pensent plutôt qu’elle a déjà causé la mort de civils et provoquera une destruction incontrôlée, si elle ne précipite pas la fin du monde. D’autres encore estiment que les promesses faites au sujet des outils de guerre basés sur l’IA sont grandiloquentes et que la réalité sera plus prosaïque, marquée par des problèmes d’infrastructures défaillantes, d’adoption et de confiance. Les plus pragmatiques de ces partisans soutiennent qu’une combinaison progressive d’humains et de machines permettra de forger cette confiance. 

Le problème avec de nombreuses théories sur l’impact de l’IA sur la guerre est justement celui-ci : elles sont, précisément, théoriques. Pour aller à la recherche de détails concrets, raconter l’histoire des personnes qui font de la guerre par l’IA une réalité — comme celle des militaires américains qui l’utilisent réellement aujourd’hui — il faut ouvrir une boîte noire.

Dix ans après le lancement de l’initiative de Cukor, les systèmes de prise de décision basés sur l’IA développés dans le cadre de Maven, ainsi que certains des huit cents autres projets d’IA du Pentagone, sont utilisés sur le champ de bataille. Le Maven Smart System (MSS), une plateforme logicielle qui identifie des cibles à l’aide de l’IA, est désormais déployé dans toutes les branches de l’armée américaine et partout dans le monde, intégrant plus de 150 flux de données et le travail de plus de cinquante entreprises. L’OTAN a commencé à utiliser une version du système au printemps 2025, et dix membres de l’Alliance attendraient pour l’utiliser au sein de leurs propres armées. 

Maven a déjà accéléré le rythme de la guerre. Selon un responsable de l’Agence nationale de renseignement géospatial, à l’aide de la vision par ordinateur, les États-Unis sont devenus capables de frapper un millier de cibles par jour contre une centaine auparavant. En combinaison avec les grands modèles de langage (LLM) intégrés à la plateforme Maven, ce nombre a quintuplé pour atteindre cinq mille cibles par jour. 

Les algorithmes d’IA développés dans le cadre de Maven sont désormais utilisés dans des sous-marins et dans des opérations spatiales. Ils équipent les systèmes de sonar sous-marins appartenant aux États-Unis et à deux de leurs plus proches alliés en matière de renseignement — le Royaume-Uni et l’Australie —, conçus pour la dissuasion nucléaire. Ils sont déployés sur des drones marins autonomes.

Des systèmes de ciblage par IA sont intégrés à au moins deux systèmes hautement secrets — l’un aérien et l’autre aquatique — capables de surveiller, de sélectionner et d’éliminer des cibles de manière entièrement autonome, destinés à la défense de Taïwan.

Les États-Unis devront définir avec soin les cas d’utilisation, les garde-fous et les doctrines pertinents s’ils tiennent à respecter les Conventions de Genève et éviter de tirer sur des civils et leurs propres alliés.

La Stratégie de défense nationale de 2018, publiée lors de la première administration Trump ; prédisait que les nouvelles technologies commerciales « changeraient la société et, à terme, la nature de la guerre ». Quatre ans plus tard, l’arrivée des chatbots et des agents IA n’a fait qu’accélérer cette évolution. 

Sous la deuxième administration Trump, le département de la Défense, sous son nouveau nom de « département de la Guerre », s’est consacré pleinement à l’IA et à l’autonomie. Il est placé sous la direction d’un Secrétaire, Pete Hegseth, qui souhaite faciliter l’acquisition d’armes et libérer les forces américaines de « règles d’engagement trop contraignantes ».

Le projet Maven se situe à la croisée de tendances qui s’affrontent : l’insécurité croissante des États-Unis quant à leur place dans le monde, une révolution technologique imposant l’IA dans presque tous les aspects de la vie quotidienne et de la guerre, des relations civilo-militaires tendues au sein de la plus puissante démocratie du monde, la domination des géants de la tech, les ambitions militaires et technologiques grandissantes de la Chine — et, enfin, une surveillance omniprésente rendue possible par des capteurs et des logiciels commerciaux omniprésents.

Les algorithmes d’IA développés dans le cadre de Maven sont désormais utilisés dans des sous-marins et dans des opérations spatiales.

Katrina Manson

Les dix prochaines années restent encore à écrire.

L’invasion de l’Ukraine par la Russie a bouleversé les prévisions militaires.

Les frappes meurtrières du Pentagone contre des bateaux dans les Caraïbes brouillent les frontières des règles de la guerre et soulignent la facilité avec laquelle on peut déclarer la guerre à distance. Les États-Unis se seraient aussi appuyés sur l’IA pour mener leur raid meurtrier de janvier 2026 au Venezuela ayant conduit à l’enlèvement du président du pays.

Dans le cadre de leur guerre contre l’Iran, Washington utilise le Maven Smart System pour trier les données, aider à sélectionner des cibles et accélérer les processus — frappant 1 000 cibles au cours des premières 24 heures de l’opération militaire et plus de 8 000 à ce jour.

Les commandants militaires américains affirment que la Chine se prépare à une prise de contrôle militaire de Taïwan. Les superpuissances rivales s’arment en vue d’un conflit.

En parallèle, les activistes plaident à nouveau en faveur de limites strictes pour l’IA et une nouvelle génération de dirigeants de la Silicon Valley, soutenus par des sociétés de capital-risque, courtise les contrats de défense, vantant avec une arrogance nouvelle  la supériorité de l’Occident et l’attrait des frappes meurtrières basées sur l’IA.

Les stratèges de la sécurité nationale craignent désormais qu’aucun pays ne puisse gagner une guerre sans IA. L’objectif de l’ONU d’interdire d’ici 2026 les armes autonomes létales capables de sélectionner leurs propres cibles à l’aide de l’IA est un vœu pieux. L’IA reste un outil limité et imparfait, dont l’utilité et la fiabilité sont considérablement restreintes et l’armée américaine n’a pas fini d’en prendre conscience.

La guerre de l’IA a déjà commencé — et il est possible qu’elle tourne mal.

« C’était cool » : la deuxième guerre froide et le club des robots tueurs

La première fois que Drew Cukor a entendu parler du Breakfast Club — un groupe informel qu’on présentait comme influent — il a immédiatement voulu en faire partie.

C’était au milieu de l’année 2016. Cukor venait tout juste de revenir au Pentagone, où il travaillait au bureau du sous-secrétaire à la Défense chargé du renseignement. Il semblait  toujours désespéré de voir que le renseignement n’était pas considéré comme essentiel. Après avoir demandé des renseignements sur le même ton qu’on demandait la météo, les militaires intimaient à Cukor : « maintenant, va t’asseoir et tais-toi pendant qu’on travaille. » 

Le Breakfast Club était un groupe d’une vingtaine de personnes qui se réunissait toutes les deux semaines depuis fin 2014 dans la salle de conférence attenante au bureau du sous-secrétaire à la Défense. On ne servait pas de petit-déjeuner, ni de café : l’initiative tirait plutôt son nom d’un ancien groupe de travail du Pentagone qui, pendant la Guerre froide, avait élaboré des stratégies pour contrer la marine soviétique. Sa réincarnation, quarante ans plus tard, se consacrait à un nouveau problème : vaincre le nouvel ennemi qui se profilait pour les États-Unis — la Chine.

« Il s’agissait de faire revivre cette alchimie qui consiste à réunir des gens brillants autour d’une table pour se concentrer sur des défis opérationnels spécifiques », se souvient Greg Grant, qui a pour la première fois convoqué le Club. « À l’époque, nous étions comme un groupe d’experts du sous-secrétaire. »

Dans un esprit très entrepreneurial, Cukor a su s’y faire une place grâce à une « auto-invitation ». Il avait obtenu l’autorisation de se joindre au groupe de son nouveau patron — un général de l’armée de l’air trois étoiles aimable et réfléchi du nom de Jack Shanahan — qui avait effectué plus de 2 800 heures de vol à bord d’avions de reconnaissance, de bombardiers et d’avions de chasse et occupait désormais le poste de directeur du renseignement de défense au sein du Bureau du sous-secrétaire à la Défense chargé du renseignement.

Les réunions du Club avaient pour but de repérer les nouvelles technologies, d’examiner les cas d’utilisation potentiels et de déterminer comment surmonter les dernières menaces militaires émanant de la Chine. De telles menaces, selon le groupe, visaient délibérément les vulnérabilités américaines. Elles allaient du développement par Pékin d’armes hypersoniques et spatiales à des avions furtifs comme le nouveau J-20, en passant par les missiles balistiques anti-navires mieux connus sous le nom de « tueurs de porte-avions ». Au sujet de ces missiles, les États-Unis craignaient que ces armes aient été conçues pour détruire leur flotte active de dix porte-avions, qui, depuis des décennies, projetait la puissance américaine en mer de Chine méridionale et dans le détroit de Taïwan. Au lieu d’être des rampes de lancement flottantes, ces navires de 13 milliards de dollars risquaient désormais de devenir des cibles faciles.

Les réunions de planification ministérielles se déroulent souvent dans des bureaux anonymes et des bâtiments excentrés. Les réunions du Breakfast Club, au contraire, avaient lieu juste au fond du couloir du secrétaire à la Défense. Elles faisaient émerger de nouvelles idées, permettaient de réfléchir à la manière de les mettre en œuvre et fixaient l’ordre du jour des discussions trimestrielles organisées par les hauts responsables américains de la défense et du renseignement sur le même sujet. Cukor adorait cette manière de voir les choses en grand : « c’était cool comme peut l’être un projet aussi énorme ».

La guerre de l’IA a déjà commencé — et il est possible qu’elle tourne mal.

Katrina Manson

Trouver du nouveau : pour gagner, les stocks d’armes ne suffisent plus

Ces moments de réflexion étaient rendus possibles grâce à Robert Work, sous-secrétaire à la Défense depuis 2014, qui passait occasionnellement une tête aux réunions du Breakfast Club. 

Alors que le secrétaire à la Défense est le visage de l’engagement militaire américain dans le reste du monde, le rôle de secrétaire adjoint est souvent le plus déterminant — celui-ci étant chargé de diriger le Pentagone et ses futurs projets. Work cherchait ainsi constamment à diriger les travaux du groupe vers l’intelligence artificielle et l’autonomie.

« Les États-Unis n’ont jamais cherché à rivaliser avec un adversaire chars contre chars, avions contre avions, navires contre navires », m’explique-t-il. « Ils ont toujours recherché la supériorité technique militaire. »

Work craignait que la Chine n’ait commencé à combler son retard technologique par rapport aux États-Unis. Ancien officier d’artillerie du Corps des Marines, il avait les yeux rivés sur une seule inquiétude : la Troisième Guerre mondiale. Ayant grandi pendant la Guerre froide, il était animé par la crainte que la Chine ait passé quinze ans à étudier les points faibles de l’armée américaine pendant que celle-ci était engagée en Irak et en Afghanistan.

La conception américaine de la dissuasion reposait sur l’acquisition et le maintien d’une « domination militaire » mondiale. La taille ne suffirait jamais : la Chine et la Russie auraient toujours des armées plus nombreuses. Pour l’emporter, il fallait donc trouver autre chose.

Parti à la retraite avec le grade de colonel en 2001, Work n’a jamais combattu dans les guerres contre le terrorisme. Après avoir quitté l’armée, il a été directeur des études sur la guerre du futur dans un groupe de réflexion basé à Washington, DC, publiant des articles aux titres tels que « La promesse des armes à énergie dirigée » ou bien « Repenser l’Armageddon ». 

Pour le sous-secrétaire, les États-Unis devaient être les premiers à inventer de nouvelles armes de guerre pour garder une longueur d’avance.

Le pays a été le premier à développer des armes nucléaires, et la seule nation à les avoir utilisées en temps de guerre. Plus tard, les armes nucléaires avancées avaient été la réponse américaine à la mobilisation massive soviétique. Alors que la machine de guerre soviétique affectait un million d’hommes à la seule sécurité des chemins de fer, les États-Unis estimaient que la technologie pouvait se substituer au nombre : de meilleures armes compenseraient des stocks moins importants que ceux de l’adversaire — et une bombe larguée à distance était bien moins coûteuse que l’envoi d’une importante force conventionnelle.

Le nombre d’ogives nucléaires américaines avait atteint un pic de 31 255 en 1967. La Russie avait ensuite rapidement rattrapé les États-Unis, produisant ses propres ogives nucléaires « tactiques » et élaborant des théories de la guerre sur la manière et le moment de les utiliser. 

En 1978, la Russie produisait plus d’ogives que les États-Unis et ne montrait aucun signe de ralentissement. Les États-Unis ont donc de nouveau devancé l’Union soviétique dans les années 1980, en se tournant cette fois vers le développement de missiles guidés à longue portée. Ceux-ci pouvaient être largués par des avions furtifs pour délivrer une force de frappe écrasante directement sur la cible, grâce aux satellites GPS gérés par l’US Air Force.

Le sous-secrétaire à la Défense souhaitait que les États-Unis conservent leur statut de pionniers agressifs à chaque nouvelle ère de la guerre — un effort « sans fin » visant à fournir aux armées un flux constant d’armes de nouvelle génération. Les détracteurs de cette doctrine trouvaient qu’elle ressemblait à du bellicisme — Work voyait les choses différemment.

« Les commandants qui ne s’attellent pas à la tâche mettent leurs hommes en danger », disait-il. Il craignait à ce titre que les États-Unis ne réagissent beaucoup trop lentement. Dans un discours, il comparait l’approche officielle en matière de planification, de développement et de déploiement de nouvelles armes à la fourniture d’un repas composé de légumes mal décongelés, ayant traversé le pays par camion : « ces légumes sont trop vieux ; ils n’ont pas bon goût. »

Pour que les États-Unis conservent leur statut de pionniers agressifs à chaque nouvelle ère de la guerre, il fallait un effort « sans fin » visant à fournir aux armées un flux constant d’armes de nouvelle génération.

Katrina Manson

Dégraisser le mammouth : un colonel contre le Pentagone

Bob Work voulait que le Pentagone trouve de nouveaux moyens de mettre des bâtons dans les roues des efforts de rattrapage de Pékin. Son but était résumé par un mot-clef : l’autonomie. Et l’IA était le moyen d’y parvenir.

« L’IA n’était qu’un moyen d’atteindre l’autonomie », me confia-t-il. Pour lui, cela passait par deux tâches essentielles.

La première consistait à prendre plus rapidement de meilleures décisions, plus pertinentes grâce à l’IA et à la collaboration entre l’homme et la machine. Cela signifiait un ciblage et un contrôle des missions, une prise de conscience de la situation, l’élaboration de plans d’action, la guerre électronique cognitive, la maintenance prédictive et la logistique — tout cela mené de manière autonome. Work appelait un tel système : « l’autonomie au repos ».

La seconde tâche consistait à retirer complètement les humains des plateformes d’armements pour créer une nouvelle force de systèmes sans pilote capables de nager, de voler et de rouler. C’était « l’autonomie en mouvement ». 

Lors d’une intervention publique en 2015, il déclarait : « Je vous le dis tout de suite : si, dans dix ans, la première personne à briser le front adverse n’est pas un robot, honte à nous. Nous pouvons y arriver. » 

Sous la direction de Bob Work, le département a commencé à s’inquiéter de la question de l’autonomie, qui faisait son apparition partout dans le pays sauf au Pentagone. Work estimait que les services de l’armée de l’air, de l’armée de terre et de la marine chargés d’équiper et de former leurs effectifs traînaient les pieds. Il rappelait que les forces armées n’avaient pas non plus voulu de nouvelles technologies comme le GPS, qui avait pourtant sous-tendu le développement des munitions guidées.

À l’époque, le secrétaire adjoint à la Défense William Perry avait passé outre la position des forces armées. Work estimait que c’était à son tour de faire de même.

En juin 2016 — le mois même où Cukor revenait au Pentagone — une étude du département de la Défense avertissait que l’armée américaine était loin derrière le secteur commercial en matière d’autonomie. IBM disposait de Watson, Google se lançait dans les voitures autonomes et, malgré soixante ans de financement de la recherche en IA, le Pentagone n’avait pratiquement rien à montrer. Le rapport concluait que les récentes avancées en matière d’IA exigeaient une « action immédiate » sur l’autonomie militaire. Il soulignait que cette action permettrait de réduire le nombre de soldats américains exposés au danger, d’améliorer la qualité et la rapidité de leurs décisions en temps de guerre et de mener des missions entièrement nouvelles. Les auteurs du rapport — parmi lesquels figuraient des experts d’Amazon, de Google et d’IBM — pouvaient ainsi conclure : « les progrès de l’IA permettent de confier aux machines de nombreuses tâches longtemps considérées comme impossibles à réaliser par celles-ci. »

Pourtant, les forces armées ne bougeaient pas d’un pouce — en partie pour des raisons financières. Si le budget du Pentagone était colossal en 2016, les fonds disponibles pour de nouvelles dépenses étaient en revanche limités.

Beaucoup hésitaient également à confier aux machines des décisions de vie ou de mort ayant force de loi. Le rapport précité était l’un des premiers à conclure que l’intégration de l’autonomie dans le commandement et le contrôle des opérations militaires et des combats était « l’une des applications les plus controversées ». Il soulignait qu’il serait bien plus difficile de convaincre qui que ce soit de faire confiance à cette technologie que de la fournir.

Beaucoup de hauts commandants américains n’avaient à cette époque jamais entendu parler de machine learning et n’avaient aucune idée de ce que signifiait l’IA. Outre le manque de talents et de volonté, le Pentagone ne disposait non plus d’aucun des éléments pratiques nécessaires pour faire fonctionner l’IA à grande échelle — le cloud, la puissance de calcul et des données compréhensibles par une machine. Au sein du gigantesque département de la Défense, presque rien ne se trouvait dans le cloud : même si Internet était une création du Pentagone et que le département de la Défense dépensait 38 milliards de dollars par an en informatique, ce dernier a mis du temps à saisir l’importance d’un cloud sécurisé pour la guerre. 

De même, bien que chaque système d’armement, satellite et ordinateur produisait des données — la matière première de l’IA —, celles-ci étaient reléguées dans de vieilles présentations PowerPoint et sur des disques durs, pratiquement abandonnés dans des ordinateurs ou au fond d’une armoire. Personne ne rassemblait les données brutes originales pour les partager, les trier ou les comprendre. 

Le rapport affirmait que la meilleure façon d’amener le mammouth militaire américain à adopter l’IA et l’autonomie ne passerait pas par des diktats, mais par des expériences, des programmes pilotes et des prototypes ayant une chance de s’imposer. Selon un projet de document écrit en 2017 que j’ai pu consulter, le Pentagone n’avait à cette date investi que dans « de petits projets de niche, de manière non coordonnée ». Ceux-ci avaient « peu de chances d’aboutir à une transition significative vers les combattants ».

Work voulait instaurer la confiance et établir des études de cas afin que les combattants américains eux-mêmes changent d’avis. Et il tenait à préciser qu’il envisageait l’IA pour le combat.

« Je ne veux pas que cela se limite au renseignement », m’a-t-il dit, décrivant l’orientation qu’il avait donnée au Breakfast Club. « Je veux des applications directes au combat. »

Le coordinateur du club, Greg Grant, s’était bien entendu avec Cukor dès son arrivée, le décrivant comme « très intéressant » et « sympathique ».

En 2016, beaucoup de hauts commandants américains n’avaient encore jamais entendu parler de machine learning, ni n’avaient la moindre idée de ce que signifiait l’IA.

Katrina Manson

Quelque chose de concret : dompter le tsunami des données visuelles

Un jour, Cukor arriva au Club avec une nouvelle idée — qui allait faire mouche. Il ne fallait pas, disait-il, mener une étude de deux ans, ni créer un prototype ou conduire des tests — il fallait faire « quelque chose » de concret.

En 2014, Cukor avait rédigé un essai intitulé « Operate to Know », axé sur la traque « active » de l’ennemi. À l’occasion de la réunion du Breakfast Club, il a annoncé qu’il disposait désormais d’un programme qui fournirait une excellente démonstration, pour montrer aux forces armées l’importance de l’IA, et leur intérêt à s’associer à des entreprises de pointe spécialisées dans celle-ci — entreprises ne travaillant généralement pas dans le domaine de la défense et de la sécurité nationale.

Cukor a présenté son projet à Bob Work dans son bureau, avec Grant à ses côtés : il voulait utiliser l’IA pour aider à analyser les données des drones.

Le Pentagone croulait à cette époque sous une avalanche d’images : les guerres de drones américaines avaient alors pris leur essor avec la conviction que le combat à distance pouvait sauver la vie des soldats. De cinquante-quatre sorties de drones sur le champ de bataille en 2001, leur nombre avait atteint près de huit mille en 2010. En 2016, les États-Unis avaient dépensé 3 milliards de dollars pour faire voler des drones. Ces machines de surveillance survolaient des terres lointaines, en Afghanistan, en Irak, en Afrique du Nord et en Afrique de l’Est. Plus de trente pays avaient en parallèle développé leurs propres programmes de drones armés.

Les drones américains ne se contentaient pas d’observer des vies : ils les prenaient aussi, principalement celles d’Al-Qaïda, des talibans et de Daech, mais parfois celles de dizaines de civils — lors de mariages, dans des hôpitaux, sur des marchés, sur les routes et dans des fermes. Parfois les États-Unis présentaient leurs excuses. Parfois, ils étouffaient l’affaire — parfois même, ils ne vérifiaient même pas qui avait été tué.

Les drones pouvaient bien produire des images et des vidéos, mais les États-Unis étaient incapables de les traiter ou de les comprendre. Les données de renseignement, de surveillance et de reconnaissance enregistrées en 2016 étaient si volumineuses qu’elles équivalaient à quatre-vingts années complètes d’enregistrements vidéo.

Lors d’une visite à Bagdad, Frank Kendall, haut responsable du Pentagone chargé des acquisitions et de la technologie, avait été consterné d’apprendre que littéralement personne ne les regardait. Pendant ce temps, le nombre de drones ne cessait d’augmenter — formant une usine de guerre sans réelle main-d’œuvre.

La proposition de Cukor à Bob Work suggérait que l’IA pourrait aider à traiter, exploiter et diffuser — processing, exploiting, and disseminating — les informations contenues dans les flux des drones. Cela permettrait de soulager les humains qui ne pouvaient s’attaquer qu’à une fraction du travail. À Mossoul, comme le disait Cukor, les États-Unis disposaient de cinq aviateurs qui scrutaient les flux de renseignements vingt-quatre heures sur vingt-quatre. Ce processus incroyablement laborieux gaspillait leurs capacités intellectuelles, leur moral et leur temps : « pourquoi ne pas laisser des algorithmes faire ce travail ? »

Dans les années qui suivirent, j’entendrais les proches de Cukor dire qu’il aurait pu vendre du sel à des limaces. Son argumentaire avait en tout cas convaincu Work, qui était selon Grant « très enthousiaste ». Work chargea Cukor de mettre au point une démonstration.

Le colonel commença alors à rendre visite à des entreprises de la Silicon Valley et à explorer le monde des technologies émergentes. C’était là que se trouvaient les meilleurs talents en intelligence artificielle — et non dans les grandes entreprises de défense traditionnelles telles que Boeing, Booz Allen, Lockheed Martin et Raytheon. 

Une grande partie de la réflexion derrière les guerres de l’IA de demain est née de ces visites de Cukor chez des constructeurs de voitures autonomes comme Tesla, Waymo ou Uber. À l’usine d’Uber de Pittsburgh, Cukor découvre ainsi qu’une douzaine de caméras montées sur une voiture pouvaient traiter tout ce qui se trouvait autour d’elles et aider le véhicule à éviter en grande partie les voitures, les personnes et autres obstacles. Une start-up nommée Clarifai proposait un portail public permettant de traiter des images via l’IA sur Internet — son IA décrivait l’image en crachant des mots contextuels. L’équipe lui a soumis une photo de Bob Work. Celle-ci a répondu : « militaire et leader ».

Des algorithmes comme arme de guerre : la naissance du projet Maven

Il ne manquait plus au Pentagone que ses propres algorithmes. Cukor s’est alors tourné vers un Marine qui l’avait, par le passé, aidé à transporter son ordinateur à travers les aérodromes afghans.

Spirk avait quitté les Marines, abandonné son poste de haut responsable du renseignement au Commandement des opérations spéciales et pris un virage inattendu en investissant dans une entreprise locale de torréfaction de café à Tampa — nommée Buddy Brew d’après le nom du chien des propriétaires. À temps très partiel, Spirk continuait cependant de conseiller le Bureau de soutien aux systèmes de renseignement, qui fait partie de l’armée de l’air. 

Cukor s’est présenté à Tampa avec ces quelques mots : « Dave, j’ai besoin que tu travailles à plein temps. »

En mars 2017, Spirk s’est rendu à San Francisco pour rencontrer IDenTV, une start-up fondée quatre ans plus tôt par Mohammad et Amro Shihadah. Pour la somme de 120 000 dollars, il les a convaincus de créer un modèle de vision par ordinateur pour des vidéos non classifiées provenant d’un drone, vidéos qu’il a ensuite renvoyées au Pentagone.

Sur ces vidéos, l’IA pouvait placer un point blanc à l’écran chaque fois qu’un objet spécifique apparaissait. Cette démonstration improvisée était bien meilleure qu’une simple liste statique sur PowerPoint. Ce test suscita des cris d’admiration et la réaction de Work fut immédiate : « Allez-y, faites-le ».

Restait l’argent. Grant a ainsi cherché des fonds et trouvé un projet existant que le Congrès avait déjà accepté de financer. Will Roper, un expert senior en défense, avait dirigé un programme au départ si secret qu’il ne pouvait même pas en parler à sa femme. Après s’être documenté sur les recherches publiques de Microsoft en matière de machine learning, il avait réussi à monter un projet visant à utiliser des fournisseurs de vision par ordinateur, issus de sous-traitants du domaine de la défense, pour aider à repérer des objets sur des images satellites fixes.

« Le Pentagone avait essayé à maintes reprises des programmes de reconnaissance automatique de cibles, mais aucun d’entre eux n’avait très bien fonctionné », selon Roper. À présent, grâce à des masses de données, à une puissance de calcul accrue et aux progrès de la recherche, l’IA pouvait peut-être mieux comprendre le champ de bataille que les opérateurs humains et agir en tant qu’expert — ou maven — pour les guider.

À la demande de Bob Work, Roper a alloué les fonds durement obtenus et approuvés par le Congrès, ainsi que le nom de son initiative, au nouveau projet de Cukor.

« Je me suis retrouvé avec tout l’argent de Will Roper, ce qui l’a toujours rendu fou », se souvient Cukor avec une légère jubilation. 

Finalement, le projet Maven allait devenir le plus gros investissement du département de la Défense en IA à ce jour. Selon un document interne que j’ai consulté, son budget pour la première année atteignait les 40,8 millions de dollars. Ce chiffre n’a fait que croître depuis.

Work officialise son programme dans une note décrivant son champ d’application le 26 avril 2017, faisant du général Shanahan son directeur. Cukor, lui, obtient le poste le plus important de sa carrière : chef du projet Maven.

Cette note indiquait que la nouvelle équipe commencerait par appliquer l’IA, le big data et le deep learning aux images fournies par des drones dans le cadre de la lutte contre l’État islamique. Cette nouvelle équipe était également chargée de regrouper toutes les initiatives technologiques du département basées sur des algorithmes et liées au renseignement de défense, pour s’attaquer ensuite à « d’autres domaines de mission du renseignement de défense » qui n’étaient pas précisés. L’objectif était de fournir rapidement des « renseignements exploitables » et des informations pertinentes.

Le nom accrocheur avait peut-être été emprunté à l’initiative de Roper. C’est pourtant le titre officiel, austère et bureaucratique du projet qui a le plus séduit Cukor : l’« équipe interfonctionnelle de guerre algorithmique » (The Algorithmic Warfare Cross-Functional Team). Ce nom lui a plu non pour facilité de prononciation — certains se sont rapidement mis à prononcer AWCFT comme « aw shit » — mais en raison de ce que cela impliquait pour le Pentagone dans son ensemble : l’IA allait partir en guerre, et c’était l’ensemble du département de la Défense qui allait l’y envoyer.

L’image qu’on se faisait communément de l’IA comme arme de guerre se résumait à cette époque à Skynet, le système d’intelligence artificielle fictif au cœur des films Terminator. Dans ces films, alors que l’armée américaine crée Skynet avec l’aide d’un sous-traitant de la défense, l’activation du système par un lieutenant-général de l’armée de l’air le dote d’une conscience propre. Prenant le contrôle des commandes nucléaires, il lance une heure plus tard une attaque contre l’ensemble de la race humaine, tuant instantanément trois milliards de personnes et transformant le monde à jamais. Le héros du film qualifie ce conflit de « guerre entre l’homme et les machines ».

Certains responsables militaires américains étaient tout aussi effrayés par cette possibilité que les cinéphiles ; d’autres officiers envoyaient par mail des extraits du film pour justifier le projet.

La note de service sur le projet Maven prenait soin d’en délimiter la portée. Joe Larson, le réserviste des Marines et avocat que Cukor avait rappelé pour travailler sur Maven, m’a confié que Cukor aurait « grimacé » si quelqu’un avait décrit Maven comme un programme de ciblage. Pour Larson, le projet était bien autre chose : il s’agissait uniquement de systèmes de renseignement, sans aucun lien avec des munitions sur une plate-forme d’armes, et strictement destinés à la recherche et au développement.

Quoi qu’il en soit, le nom officiel du projet plaisait à la fois à Cukor et à Work précisément parce qu’il en exposait clairement les ambitions : la guerre algorithmique.

Lorsque j’ai demandé à Grant si le ciblage et les frappes offensives devaient faire partie du projet Maven, il m’a répondu : « Oui, bien sûr. Ce n’est pas comme si on faisait cela pour le plaisir : le but du renseignement est d’éliminer des cibles de grande valeur. » Cette ambition de mener des « opérations de ciblage » figurait également dans un brouillon de note de service sur le projet Maven datant de 2017 que j’ai pu consulter.

Dès le départ, Maven visait précisément ce qui effrayait le plus ses détracteurs : créer une application de ciblage révolutionnaire à l’aide de l’IA pour raccourcir la kill chain.

Katrina Manson

Transformer le Pentagone en entreprise logicielle

Cukor ne s’est pas caché davantage de ses intentions. Il avait toujours eu à l’esprit le ciblage opérationnel ; il avait toujours voulu intégrer le renseignement dans les opérations, et le projet Maven était le moyen d’y parvenir. Les efforts du projet se concentraient sur l’essence même du ciblage : l’IA aiderait à sélectionner et à hiérarchiser les cibles, puis à leur attribuer la réponse appropriée.

Pour Cukor, cette ambition pouvait se résumer à une idée simple qui reposait sur une recette complexe : un point blanc sur un écran préchargé avec des coordonnées précises. Mais le général Shanahan a rendu publique une intention plus large : « le ministère de la Défense ne devrait plus jamais acheter un autre système d’armes d’ici la fin de ses jours sans qu’il intègre l’intelligence artificielle. »

Une autre personne ayant rejoint la nouvelle équipe du projet Maven a décrit sa propre vision de la contribution à la guerre qu’elle attendait de l’IA : « on va tuer des gens tout le temps. »

Bob Work avait aussi ses propres vues, dont il m’a fait part à propos des efforts du projet Maven pour intégrer l’IA au combat : « je crois vraiment que cela mènera à une révolution dans la guerre. Associée à des drones autonomes sur terre, en mer et dans les airs, l’IA changera la guerre à jamais ».

Dès le départ, Maven visait en fait précisément ce qui effrayait le plus ses détracteurs : créer une application de ciblage révolutionnaire à l’aide de l’IA pour raccourcir la kill chain entre le moment où l’on repère une cible et celui où on la touche : localiser, fixer, éliminer.

Cet aspect, ainsi que d’autres éléments du projet, allaient susciter des tensions internes : « Au sein du département de la Défense, tout est une question de compétition pour l’argent », m’a raconté Grant, compétition d’autant plus forte que son programme était porté par un adjoint et axé sur un domaine radicalement nouveau. « Soit les gens veulent en prendre le contrôle, soit ils veulent le faire disparaître. »

L’ambition de Cukor était immense. Comme il l’avait déclaré lors d’une présentation en 2017 devant des responsables de la défense et des prospects commerciaux, l’IA allait transformer la guerre. Elle serait capable de déjouer les commandements ennemis et d’exécuter des milliards de simulations sur les prochaines actions de l’ennemi et sur le potentiel déroulement du conflit.

J’ai pu consulter les slides de ces présentations. Une diapositive saisissante contenait un extrait du film de James Bond de 2012, Skyfall — la scène de poursuite où Daniel Craig file à toute allure à moto dans un marché d’Istanbul. Pendant la diffusion de l’extrait, un algorithme accessible au plus grand nombre identifiait les objets dans la vidéo en mouvement rapide, faisant apparaître des encadrés intitulés « personne », « parapluie », « cheval », « chaise ».

Si le secteur commercial était déjà capable de faire cela, le Pentagone devait rattraper son retard. Comme l’avait fait valoir Cukor, le département de la Défense devait fonctionner davantage comme une entreprise de logiciels que comme une usine d’armes pour faire face au « tsunami » de données qui le submergeait. Cukor évoquait des problématiques inquiétantes : opérer ce changement « pourrait déterminer notre succès dans la prochaine guerre ». Effectuer des mises à jour régulières du code logiciel du ministère de la Défense pourrait finir par avoir autant d’importance que l’entraînement et le moral. Sa présentation précisait ainsi : « Google met à jour son logiciel de base plusieurs fois par minute… nous avons de la chance si nous mettons à jour des processus significatifs une fois par an. En fin de compte, les algorithmes pourraient être la variable clef de notre victoire. »

Cukor souhaitait que les données soient traitées « instantanément » pour faire le lien entre la cible, l’arme et l’opérateur. Pour y parvenir, il en appelait à une « révolution algorithmique ».

Dans sa vision, comme celle de Bob Work, l’IA était une voie vers l’automatisation. Cukor savait que cela comportait des risques : l’IA ferait des erreurs et se tromperait, et il faudrait du temps pour comprendre comment l’utiliser. « Il y aura des fausses détections et la nécessité de corriger les algorithmes sera constante. Nous sommes encore en train de déterminer la meilleure utilisation possible de l’IA. »

Cukor avait osé s’en prendre à la main-d’œuvre même dont il devait s’assurer le soutien. Transformer le Pentagone en une entreprise de logiciels était « une tâche colossale et douloureuse » qui serait semée d’embûches culturelles, organisationnelles, financières et politiques. La culture logicielle nécessiterait de nouvelles personnes. Dans sa présentation, il précisait que ce rythme n’était « pas adapté à tout le monde », avertissant que certains perdraient leur emploi : « Il ne fait aucun doute que certains de ceux qui font actuellement partie de nos principaux systèmes d’armement devront se tourner vers d’autres travaux plus stables, tels que des projets physiques à long terme s’étalant sur quinze ans… des camions… des navires… des avions. » 

Cukor avait saisi l’occasion de la controverse. Il savait qu’il venait de déclencher une lutte acharnée : avec lui étaient nés les premiers efforts pour placer l’IA au cœur de la manière dont les États-Unis feraient la guerre — et les États-Unis allaient s’en trouver ébranlés.