Au cours des 100 premières heures de la guerre lancée contre l’Iran le 28 février, les États-Unis et Israël ont frappé plus de cibles qu’au cours des six premiers mois de la campagne de bombardements contre l’État islamique en Irak et en Syrie, à partir de 2014 1.

  • L’armée américaine revendique avoir frappé plus de 5 500 cibles.
  • Avec environ 1 000 sorties quotidiennes, les premiers jours de l’opération Epic Fury ont constitué la campagne aérienne la plus intense depuis l’opération Tempête du désert, en 1991 2.

Tout comme l’armée israélienne dans sa guerre lancée dans la bande de Gaza contre le Hamas, suite aux attaques terroristes du 7 octobre 2023, le Pentagone s’est appuyé sur divers outils d’intelligence artificielle afin de générer plusieurs milliers de cibles en Iran, classées par ordre de priorité.

  • L’amiral Brad Cooper, commandant du Commandement central des États-Unis, a déclaré aujourd’hui, mercredi 11 mars : « Nos combattants utilisent une variété d’outils d’intelligence artificielle avancés. Ces systèmes nous aident à analyser d’immenses volumes de données en quelques secondes afin que nos dirigeants puissent faire le tri dans le flot d’informations et prendre des décisions plus éclairées plus rapidement que l’ennemi ne peut réagir ».
  • Il a ajouté : « Les humains conserveront toujours la décision finale quant à ce qu’il faut viser, ce qu’il ne faut pas viser et à quel moment tirer, mais les outils d’IA avancés peuvent transformer des processus qui prenaient auparavant des heures, voire parfois des jours, en opérations réalisées en quelques secondes ».

L’armée américaine a notamment eu recours au logiciel d’aide à la prise de décision Maven Smart, intégré à ses chaînes de commandement, fourni par l’entreprise de surveillance et d’analyse de données Palantir.

  • Comme l’explique Olivier Tesquet : la cadence de frappes observée en Iran « est impossible sans assistance algorithmique massive. Là où l’invasion de l’Irak mobilisait 2 000 analystes pour le ciblage, l’opération iranienne en mobilise cent, peut-être mille fois moins ».

Malgré l’annonce par Donald Trump vendredi 27 février — soit la veille du lancement de la guerre contre l’Iran — de la suspension du partenariat entre le gouvernement fédéral et Anthropic, plusieurs sources ont affirmé que l’armée américaine avait eu recours à Claude pour mener sa campagne de frappes en Iran 3.

  • Le modèle de langage, embarqué au sein de Maven, est nourri par des millions de données classifiées provenant de satellites, d’outils de surveillance et d’autres sources de renseignement.
  • Le logiciel de Palantir est utilisé par l’armée américaine pour proposer des cibles et fournir des coordonnées GPS en temps réel afin de réduire la durée dédiée à la planification de combats.

L’objectif du Pentagone est de réduire la « kill chain », soit la durée écoulée entre l’identification d’une cible et la décision de frapper. Si le recours à l’IA n’élimine pas complètement l’implication humaine dans le processus de décision, la cadence élevée de frappes peut nuire à la vigilance, notamment lorsqu’il en vient à la sélection des cibles.

  • Les partisans de l’adoption de l’IA affirment aussi que la précision du ciblage pourrait contribuer à réduire le nombre de victimes civiles pendant les conflits, mais aucune preuve ne permet de l’affirmer à partir de son utilisation à Gaza, en Ukraine ou en Iran.
  • Si les responsabilités restent à être établies, une enquête préliminaire révèle que, dès le lancement de l’opération le 28 février, un missile américain a frappé l’école primaire Shajarah Tayyebeh, faisant 175 morts, dont plusieurs dizaines d’enfants. Selon des sources proches de l’enquête, des officiers du Commandement central des États-Unis auraient créé les coordonnées de la cible pour la frappe en utilisant des données obsolètes fournies par la Defense Intelligence Agency 4.
  • Des responsables américains ont indiqué que cette erreur n’était probablement pas due à l’utilisation d’une nouvelle technologie.
  • La Human Rights Activists News Agency dénombre plus de 1 000 victimes civiles en Iran à ce jour. 
  • La représentante démocrate d’Hawaï Jill Tokuda a déclaré le 11 mars dans un entretien avec NBC News : « Nous avons besoin d’un examen complet et impartial afin de déterminer si l’intelligence artificielle a déjà causé des dommages ou mis des vies en danger dans le cadre de la guerre avec l’Iran ».

En avril 2024, un officier du renseignement israélien qui avait utilisé le logiciel Lavender pour identifier des cibles à Gaza avait déclaré qu’il consacrait « 20 secondes à chaque cible », et qu’il en traitait « des dizaines chaque jour ». Il ajoutait : « Je n’apportais aucune valeur ajoutée en tant qu’humain, si ce n’est d’apposer mon cachet d’approbation. Cela m’a fait gagner beaucoup de temps » 5.

  • Les utilisations potentielles futures de l’IA sont au cœur du désaccord entre le département américain de la Défense et Anthropic. Des discussions ont également lieu au niveau des Nations unies sur les systèmes d’armes autonomes létales et le recours à l’IA dans le domaine militaire.
  • Dans une étude publiée en février, des simulations de crise nucléaire ont montré que plusieurs modèles d’intelligence artificielle, placés dans la position de dirigeants confrontés à une escalade stratégique, recommandaient l’utilisation d’armes nucléaires dans environ 95 % des scénarios 6.
Sources
  1. « Record pace of strikes in Iran bombing campaign : analysis », Airwars, 6 mars 2026.
  2. Publication de Robert A. Pape sur X, 2 mars 2026.
  3. Marcus Weisgerber, Amrith Ramkumar et Shelby Holliday, « U.S. Strikes in Middle East Use Anthropic, Hours After Trump Ban », The Wall Street Journal, 28 février 2026.
  4. Julian E. Barnes, Eric Schmitt, Tyler Pager, Malachy Browne et Helene Cooper, « U.S. at Fault in Strike on School in Iran, Preliminary Inquiry Says », The New York Times, 11 mars 2026.
  5. Bethan McKernan et Harry Davies, « ‘The machine did it coldly’ : Israel used AI to identify 37,000 Hamas targets », The Guardian, 3 avril 2024.
  6. Kenneth Payne, AI arms and influence : frontier models exhibit sophisticated reasoning in simulated nuclear crises, 17 février 2026.