En 2017, en una sala sin ventanas del Pentágono, algo cambió.

Se puso en marcha un proceso discreto pero irreversible: el mando militar de Estados Unidos admitía que la conducción de la guerra podía confiarse a las máquinas.

Bajo la dirección de Drew Cukor, el proyecto Maven no solo introdujo la IA en las operaciones militares, sino que desplazó el centro de gravedad de la toma de decisiones. Lo que se presentaba como una modernización técnica se convirtió en una transformación fundamental del poder: una frágil alianza entre un ejército obsesionado por el declive, un Silicon Valley inicialmente reticente y luego absorbido por esta revolución, y sistemas opacos capaces de identificar, clasificar y atacar a una velocidad sobrehumana.

Sin una ruptura visible, la guerra se ha transformado, bajo el efecto de la IA, en un proceso difuso y automatizado, en el que la responsabilidad se diluye.

En Project Maven: A Marine Colonel, His Team, and the Dawn of AI Warfare, tras una investigación para la que realizó más de 200 entrevistas, Katrina Manson cuenta cómo la guerra algorítmica fue impuesta por un pequeño grupo de personas frente a la inercia del Pentágono, hasta el punto de convertirse en una realidad que hoy se emplea a diario en Irán.

Drew Cukor y los orígenes del proyecto Maven

En mi primer encuentro con Drew Cukor, no se muestra muy sonriente. Estamos a mediados de 2024, y ya hace casi un año que intento convencerlo de que me conceda una entrevista. Lo espero después del trabajo, en el vestíbulo de la imponente sede neoyorquina de J. P. Morgan, el banco de inversión donde este coronel retirado del Cuerpo de Marines dirige ahora el departamento dedicado a la «transformación de la inteligencia artificial» en nombre de su influyente director general, Jamie Dimon.

Arriba, Cukor me ofrece una botella de agua. Él no toma nada. Nos sentamos uno frente al otro, sentados a la mesa en la cafetería desierta de la oficina, y observo a este antiguo oficial de inteligencia enfrentado consigo mismo, decidiendo si, finalmente, acepta hablar conmigo.

Mi tarea principal, por el momento, parece ser la de sostener su mirada, lo cual no es nada fácil. La situación se ha invertido: ahora soy yo a quien entrevistan.

Drew Cukor casi no me dejará escribir nada en ese primer encuentro. Recuerdo un único pasaje que me quedé grabado de memoria —«la guerra es terrible, la guerra es terrible, la guerra es terrible»— que recita sosteniendo mi mirada, dando voz a un coro universal.

Lleva el pelo rapado. Su aspecto es severo, sus opiniones tajantes. Se suaviza un poco cuando evoca sus pasiones: la catástrofe del asalto a Dieppe en 1942, la incapacidad del ejército estadounidense para equilibrar la potencia de fuego y la calidad de la inteligencia, y el proyecto Maven, sobre todo. El nombre de la iniciativa que lanzó en el Pentágono para situar la IA en el centro de la forma en que Estados Unidos debe hacer la guerra.

Drew Cukor es el héroe de una guerra que aún no ha sucedido. Al menos eso es lo que parecen pensar casi todos los que han tenido alguna relación con el proyecto Maven, tanto sus detractores como sus defensores.

Lanzado en 2017, Maven tenía aparentemente como objetivo utilizar la visión artificial para clasificar miles de horas de grabaciones filmadas por drones en toda Asia y Medio Oriente. Sin embargo, iba a descubrir que Cukor y sus partidarios siempre tuvieron para Maven ambiciones mucho más amplias que la vigilancia: desde el principio, querían valerse de la IA para localizar personas y objetos.

El problema de la guerra, me dice Cukor, siempre han sido los humanos: «son materialmente corruptibles, ineficaces y se cansan». Su muerte tiene efectos negativos en la campaña, añade secamente. Cukor está convencido de que los humanos podrían lograr más con la ayuda de las máquinas, y de que la IA puede ayudarnos a atravesar la «niebla de la guerra».

Con el proyecto Maven, Cukor quería poner remedio a la burocracia que, según él, había fallado en repetidas ocasiones a las fuerzas armadas estadounidenses desplegadas en el extranjero, ya fuera para integrar directamente la inteligencia en las operaciones de combate, reconocer el valor del software frente al hardware y probar las tecnologías emergentes en condiciones reales de guerra.

Un antiguo miembro del Mando Conjunto de Operaciones Especiales (JSOC) me lo había confiado en tono irónico: «Éramos realmente buenos matando gente, pero eso no nos llevó muy lejos». Por el contrario, Cukor quería que Estados Unidos frenara la avalancha de errores que había llevado a sus fuerzas armadas a matar accidentalmente a civiles, aliados y a sus propios soldados. Quería que el país redefiniera lo que era una victoria: no destruir al enemigo, sino vencerlo.

Cukor también deseaba utilizar el gasto en defensa del gobierno para afianzar el mercado emergente de la IA civil en Estados Unidos, en lugar de dejar que se fuera en busca de clientes a China. En 2017, en un borrador de memorándum al que pude acceder, escribió que era responsabilidad del gobierno ayudar a la comunidad de capital riesgo a rentabilizar sus inversiones.

El apoyo incondicional del coronel Cukor al proyecto Maven permitió, de hecho, «rentabilizar» a las startups, así como el ingenio de los investigadores en IA que, por lo general, dedicaban su tiempo a redactar complicados artículos académicos. Para Maven, Cukor reclutó a gigantes tecnológicos más conocidos por sus servicios de venta en línea y su software de oficina que por su capacidad para matar. Ahora, Amazon Web Services (AWS) y Microsoft proporcionan capacidades de guerra algorítmica a Maven.

Palantir Technologies, hoy aclamada como una estrella en alza en la bolsa y una de las empresas estadounidenses con mayor valor de mercado del mundo —muchos analistas y vendedores en corto dirían sin duda: una de las más sobrevaloradas—, estaba a punto de abandonar el Departamento de Defensa cuando se adjudicó su primer contrato con Maven. Sin duda, debe su renacimiento a Drew Cukor.

Scale AI, la empresa de etiquetado de datos con un 49 % de participación de Meta, podría decir lo mismo de su ascenso.

Desde el inicio del proyecto Maven, el gigante NVIDIA también estuvo involucrado.

Ahora, Anthropic y OpenAI también se lanzan al sector de la defensa mientras buscan una salida comercial para sus plataformas de IA generativa.

Incluso Google, cuyos empleados protestaron inicialmente contra su implicación en la «industria de la guerra» cuando descubrieron su participación en el proyecto Maven en 2018, asume ahora actividades relacionadas con la seguridad nacional.

Apple, por su parte, se ha negado a hacerlo.

Sea cual sea la forma que adopte la guerra mediante IA en Estados Unidos, le deberá algo a Cukor. Alex Karp, el multimillonario director ejecutivo de Palantir Technologies, que se unió rápidamente al proyecto, lo describe como el «padre fundador de la selección de objetivos mediante IA» .

Cukor pensaba que se necesitarían 20 años para reformar el ejército estadounidense e integrar la IA en sus estructuras. Durante los primeros cinco años, tuvo que hacer frente a una feroz resistencia mientras instaba al Congreso a financiar nuevos tipos de potencia de fuego para ayudar a Estados Unidos a mantenerse en la cima del poder mundial. El coronel exasperaba a los escépticos y a los críticos, a menudo procedentes de su propio equipo, por no hablar de los civiles que temían la perspectiva de una extinción mundial al estilo Terminator.

Maven ya ha acelerado el ritmo de la guerra.

Katrina Manson

Esta dimensión iconoclasta se reflejó en su equipo. Muchos «Mavenites» —como se autodenominaban— se consideraban rebeldes inconformistas dentro del Departamento de Defensa. Se comportaban con la despreocupación de una start-up tecnológica en el corazón del Pentágono, donde normalmente reina el rigor. Su actitud reflejaba también el exceso de confianza y la angustia de una superpotencia militar que se enfrenta sin cesar a sus propios límites y trabas. El equipo pasaba de un extremo al otro, mientras que, paralelamente, Cukor se abría camino hacia su sueño a costa de sacrificios personales y profesionales.

Una de sus decisiones más controvertidas fue presionar al ejército estadounidense para que utilizara sistemas muy poco probados en guerras abiertas.

De hecho, el coronel siempre defendió que llevar la IA al campo de batalla antes de que estuviera lista o fuera fiable era la única forma de mejorarla y de desarrollar la destreza de una nueva generación de combatientes, más seguros de su uso.

Era tan exigente en cada una de sus peticiones que Cukor se convirtió en un nombre, un verbo, un adjetivo. «Cukorizar» evocaba una cantidad de horas, una búsqueda, una inventiva y una intensidad todas ellas fenomenales. «Ser “Cukorizado”» significaba tener que hacer lo mismo uno mismo, siguiendo sus propias instrucciones.

«Era una especie de genio», me confió un día alguien cercano al proyecto Maven, buscando desesperadamente las palabras para describir el poder que Cukor tenía para doblegar a la burocracia y a sus miembros a su voluntad. «No sé cómo lo hacía, pero era admirado y temido. Provocaba un efecto psicológico en los demás».

Vivimos en la era de la guerra algorítmica

El auge de la guerra algorítmica plantea una de las cuestiones morales y prácticas más importantes que existen: ¿quién —o qué— tiene derecho a decidir quitar una vida humana? ¿Y quién soporta el peso de ello?

Los defensores de la IA afirman que esta y la automatización que hace posible salvarán vidas. Sostienen que los algoritmos aportan una precisión a la toma de decisiones que limitará las bajas civiles y los errores de selección de objetivos. Sostienen asimismo que los sistemas impulsados por la IA podrían disuadir un conflicto con China, o ayudar a ganar la Tercera Guerra Mundial, en la que las máquinas automatizadas probablemente librarían combates a un ritmo tan rápido que los humanos ya ni siquiera serían capaces de comprenderlos.

Los detractores de la IA, por su parte, creen que ya ha causado la muerte de civiles y provocará una destrucción descontrolada, si es que no precipita el fin del mundo. Otros consideran que las promesas hechas sobre las herramientas de guerra basadas en la IA son grandilocuentes y que la realidad será más prosaica, marcada por problemas de infraestructuras deficientes, de adopción y de confianza. Los más pragmáticos de estos defensores sostienen que una combinación progresiva de humanos y máquinas permitirá forjar esa confianza.

El problema con muchas teorías sobre el impacto de la IA en la guerra es precisamente este: son, precisamente, teóricas. Para buscar detalles concretos, contar la historia de las personas que hacen de la guerra mediante IA una realidad —como la de los militares estadounidenses que la utilizan realmente hoy en día— hay que abrir una caja negra.

Diez años después del lanzamiento de la iniciativa de Cukor, los sistemas de toma de decisiones basados en IA desarrollados en el marco de Maven, así como algunos de los otros 800 proyectos de IA del Pentágono, se utilizan en el campo de batalla. El Maven Smart System (MSS), una plataforma de software que identifica objetivos mediante IA, se ha desplegado ya en todas las ramas del ejército estadounidense y en todo el mundo, integrando más de 150 flujos de datos y el trabajo de más de 50 empresas. La OTAN comenzó a utilizar una versión del sistema en la primavera de 2025, y diez miembros de la Alianza estarían a la espera de utilizarlo en sus propios ejércitos.

Maven ya ha acelerado el ritmo de la guerra. Según un responsable de la Agencia Nacional de Inteligencia Geoespacial, gracias a la visión artificial, Estados Unidos ha pasado de atacar un centenar de objetivos al día a mil. En combinación con los grandes modelos de lenguaje (LLM) integrados en la plataforma Maven, esta cifra se ha quintuplicado hasta alcanzar los 5.000 objetivos al día.

Los algoritmos de IA desarrollados en el marco de Maven se utilizan ahora en submarinos y en operaciones espaciales. Equipan los sistemas de sonar submarinos pertenecientes a Estados Unidos y a dos de sus aliados más cercanos en materia de inteligencia —el Reino Unido y Australia—, diseñados para la disuasión nuclear. Se despliegan en drones marinos autónomos.

Los sistemas de selección de objetivos mediante IA están integrados en al menos dos sistemas altamente secretos —uno aéreo y otro acuático— capaces de vigilar, seleccionar y eliminar objetivos de forma totalmente autónoma, destinados a la defensa de Taiwán.

Estados Unidos deberá definir cuidadosamente los casos de uso, las salvaguardias y las doctrinas pertinentes si quiere respetar los Convenios de Ginebra y evitar disparar contra civiles y sus propios aliados.

La Estrategia de Defensa Nacional de 2018, publicada durante la primera administración de Trump; predijo que las nuevas tecnologías comerciales «cambiarían la sociedad y, a la larga, la naturaleza de la guerra». Cuatro años después, la llegada de los chatbots y los agentes de IA no ha hecho más que acelerar esta evolución.

Bajo la segunda administración de Trump, el Departamento de Defensa, bajo su nuevo nombre de «Departamento de Guerra», se ha dedicado por completo a la IA y a la autonomía. Está bajo la dirección de un secretario, Pete Hegseth, que desea facilitar la adquisición de armas y liberar a las fuerzas estadounidenses de «normas de combate demasiado restrictivas».

El proyecto Maven se sitúa en la encrucijada de tendencias que se enfrentan: la creciente inseguridad de Estados Unidos respecto a su lugar en el mundo, una revolución tecnológica que impone la IA en casi todos los aspectos de la vida cotidiana y de la guerra, las tensas relaciones entre civiles y militares en la democracia más poderosa del mundo, el dominio de los gigantes tecnológicos, las crecientes ambiciones militares y tecnológicas de China, y, por último, una vigilancia omnipresente que es posible gracias a sensores y software comercial omnipresentes.

Los algoritmos de IA desarrollados en el marco de Maven se utilizan ahora en submarinos y en operaciones espaciales.

Katrina Manson

Los próximos diez años aún están por escribirse.

La invasión de Ucrania por parte de Rusia ha trastocado las previsiones militares.

Los mortíferos ataques del Pentágono contra barcos en el Caribe difuminan los límites de las reglas de la guerra y ponen de relieve la facilidad con la que se puede declarar la guerra a distancia. Al parecer, Estados Unidos también se habría apoyado en la IA para llevar a cabo su mortífera incursión de enero de 2026 en Venezuela, que condujo al secuestro del presidente del país.

En el marco de su guerra contra Irán, Washington utiliza el Maven Smart System para clasificar datos, ayudar a seleccionar objetivos y acelerar los procesos, atacando 1.000 objetivos durante las primeras 24 horas de la operación militar y más de 8.000 hasta la fecha.

Los mandos militares estadounidenses afirman que China se está preparando para una toma de control militar de Taiwán. Las superpotencias rivales se están armando con vistas a un conflicto.

Paralelamente, los activistas vuelven a abogar por límites estrictos para la IA y una nueva generación de líderes de Silicon Valley, respaldados por empresas de capital riesgo, que cortejan los contratos de defensa, alardeando con una nueva arrogancia de la superioridad de Occidente y del atractivo de los ataques letales basados en la IA.

Los estrategas de seguridad nacional temen ahora que ningún país pueda ganar una guerra sin IA. El objetivo de la ONU de prohibir para 2026 las armas autónomas letales capaces de seleccionar sus propios objetivos mediante IA es una quimera. La IA sigue siendo una herramienta limitada e imperfecta, cuya utilidad y fiabilidad están considerablemente restringidas, y el ejército estadounidense aún no ha terminado de darse cuenta de ello.

La guerra de la IA ya ha comenzado, y es posible que salga mal.

«Fue genial»: la segunda guerra fría y el club de los robots asesinos

La primera vez que Drew Cukor oyó hablar del Breakfast Club —un grupo informal que se presentaba como influyente— quiso formar parte de él inmediatamente.

Era mediados de 2016. Cukor acababa de regresar al Pentágono, donde trabajaba en la oficina del subsecretario de Defensa encargado de la inteligencia. Parecía siempre desesperado al ver que la inteligencia no se consideraba esencial. Tras pedir información sobre el tema con el mismo tono con el que se pregunta por el clima, los militares le decían a Cukor: «Ahora, siéntate y cállate mientras trabajamos».

El Breakfast Club era un grupo de unas 20 personas que se reunía cada dos semanas desde finales de 2014 en la sala de conferencias contigua a la oficina del subsecretario de Defensa. No se servía desayuno ni café: la iniciativa tomaba más bien su nombre de un antiguo grupo de trabajo del Pentágono que, durante la Guerra Fría, había elaborado estrategias para contrarrestar a la marina soviética. Su reencarnación, 40 años después, se dedicaba a un nuevo problema: derrotar al nuevo enemigo que se perfilaba para Estados Unidos: China.

«Se trataba de revivir esa alquimia que consiste en reunir a personas brillantes alrededor de una mesa para centrarse en retos operativos específicos», recuerda Greg Grant, quien convocó por primera vez al Club. «En aquella época, éramos como un grupo de expertos del subsecretario».

Con un espíritu muy emprendedor, Cukor supo hacerse un hueco gracias a una «autoinvitación». Había obtenido la autorización para unirse al grupo de su nuevo jefe —un amable y reflexivo general de tres estrellas de la Fuerza Aérea llamado Jack Shanahan—, que había acumulado más de 2.800 horas de vuelo a bordo de aviones de reconocimiento, bombarderos y cazas y que ahora ocupaba el cargo de director de inteligencia de defensa en la Oficina del subsecretario de Defensa encargado de Inteligencia.

Las reuniones del Club tenían como objetivo identificar nuevas tecnologías, examinar posibles casos de uso y determinar cómo hacer frente a las últimas amenazas militares procedentes de China. Según el grupo, dichas amenazas se dirigían deliberadamente contra las vulnerabilidades estadounidenses. Estas iban desde el desarrollo por parte de Pekín de armas hipersónicas y espaciales hasta aviones furtivos como el nuevo J-20, pasando por los misiles balísticos antibuque, más conocidos como «asesinos de portaaviones». En cuanto a estos misiles, Estados Unidos temía que estas armas hubieran sido diseñadas para destruir su flota activa de diez portaaviones, que, desde hacía décadas, proyectaba el poderío estadounidense en el mar de China Meridional y en el estrecho de Taiwán. En lugar de ser plataformas de lanzamiento flotantes, estos buques de 13.000 millones de dólares corrían ahora el riesgo de convertirse en blancos fáciles.

Las reuniones de planificación ministerial suelen celebrarse en oficinas anónimas y edificios apartados. Las reuniones del Breakfast Club, por el contrario, tenían lugar justo al final del pasillo del secretario de Defensa. Daban lugar a nuevas ideas, permitían reflexionar sobre cómo ponerlas en práctica y fijaban el orden del día de las discusiones trimestrales organizadas por los altos responsables estadounidenses de defensa e inteligencia sobre el mismo tema. A Cukor le encantaba esa forma de ver las cosas a lo grande: «era tan genial como puede serlo un proyecto tan grande».

La guerra de la IA ya ha comenzado, y es posible que salga mal.

Katrina Manson

Buscar lo nuevo: para ganar, ya no bastan los arsenales

Estos momentos de reflexión fueron posibles gracias a Robert Work, subsecretario de Defensa desde 2014, que de vez en cuando se dejaba ver en las reuniones del Breakfast Club.

Mientras que el secretario de Defensa es el rostro del compromiso militar estadounidense en el resto del mundo, el papel del subsecretario suele ser el más determinante, ya que este se encarga de dirigir el Pentágono y sus proyectos futuros. Work buscaba así constantemente orientar el trabajo del grupo hacia la inteligencia artificial y la autonomía.

«Estados Unidos nunca ha buscado competir con un adversario con tanques contra tanques, aviones contra aviones, buques contra buques», me explica. «Siempre ha buscado la superioridad técnica militar».

Work temía que China hubiera empezado a reducir su retraso tecnológico con respecto a Estados Unidos. Antiguo oficial de artillería del Cuerpo de Marines, tenía la mirada fija en una única preocupación: la Tercera Guerra Mundial. Habiendo crecido durante la Guerra Fría, lo animaba el temor de que China hubiera pasado 15 años estudiando los puntos débiles del ejército estadounidense mientras este estaba comprometido en Irak y Afganistán.

El concepto estadounidense de disuasión se basaba en la adquisición y el mantenimiento de un «dominio militar» mundial. El tamaño nunca sería suficiente: China y Rusia siempre tendrían ejércitos más numerosos. Para ganar, había que encontrar, por tanto, otra cosa.

Retirado con el grado de coronel en 2001, Work nunca combatió en las guerras contra el terrorismo. Tras dejar el ejército, fue director de estudios sobre la guerra del futuro en un grupo de reflexión con sede en Washington, DC, donde publicó artículos con títulos como «La promesa de las armas de energía dirigida» o «Repensar el Armagedón».

Para el subsecretario, Estados Unidos debía ser el primero en inventar nuevas armas de guerra para mantener una ventaja.

El país fue el primero en desarrollar armas nucleares y la única nación en haberlas utilizado en tiempos de guerra. Más tarde, las armas nucleares avanzadas fueron la respuesta estadounidense a la movilización masiva soviética. Mientras que la maquinaria bélica soviética destinaba un millón de hombres únicamente a la seguridad de las vías férreas, Estados Unidos consideraba que la tecnología podía sustituir al número: unas armas mejores compensarían unos arsenales menos numerosos que los del adversario, y una bomba lanzada a distancia resultaba mucho menos costosa que el envío de una gran fuerza convencional.

El número de ojivas nucleares estadounidenses alcanzó un máximo de 31.255 en 1967. Rusia no tardó en alcanzar a Estados Unidos, produciendo sus propias ojivas nucleares «tácticas» y elaborando teorías de guerra sobre cómo y cuándo utilizarlas.

En 1978, Rusia producía más ojivas que Estados Unidos y no daba señales de ralentizarse. Por lo tanto, Estados Unidos volvió a adelantarse a la Unión Soviética en la década de 1980, centrándose esta vez en el desarrollo de misiles guiados de largo alcance. Estos podían ser lanzados desde aviones furtivos para asestar un golpe devastador directamente sobre el objetivo, gracias a los satélites GPS gestionados por la Fuerza Aérea de los Estados Unidos.

El subsecretario de Defensa deseaba que Estados Unidos mantuviera su condición de pioneros agresivos en cada nueva era de la guerra, un esfuerzo «sin fin» destinado a proporcionar a las fuerzas armadas un flujo constante de armas de nueva generación. Los detractores de esta doctrina consideraban que se asemejaba al belicismo; Work veía las cosas de otra manera.

«Los comandantes que no ponen manos a la obra ponen en peligro a sus hombres», decía. Por ello, temía que Estados Unidos reaccionara con demasiada lentitud. En un discurso, comparó el enfoque oficial en materia de planificación, desarrollo y despliegue de nuevas armas con servir una comida compuesta por verduras mal descongeladas, que habían atravesado el país en camión: «estas verduras están demasiado viejas; no saben bien».

Para que Estados Unidos mantuviera su estatus de pionero agresivo en cada nueva era de la guerra, se requería un esfuerzo «sin fin» destinado a proporcionar a las fuerzas armadas un flujo constante de armas de nueva generación.

Katrina Manson

Adelgazar el mamut: un coronel contra el Pentágono

Bob Work quería que el Pentágono encontrara nuevas formas de poner palos en las ruedas a los esfuerzos de Pekín por ponerse al día. Su objetivo se resumía en una palabra clave: autonomía. Y la IA era el medio para lograrlo.

«La IA no era más que un medio para alcanzar la autonomía», me confió. Para él, esto pasaba por dos tareas esenciales.

La primera consistía en tomar mejores decisiones, más rápidas y pertinentes, gracias a la IA y a la colaboración entre el hombre y la máquina. Esto significaba la selección de objetivos y el control de las misiones, el conocimiento de la situación, la elaboración de planes de acción, la guerra electrónica cognitiva, el mantenimiento predictivo y la logística, todo ello llevado a cabo de forma autónoma. Work denominaba a este sistema: «autonomía en reposo».

La segunda tarea consistía en retirar por completo a los humanos de las plataformas de armamento para crear una nueva fuerza de sistemas no tripulados capaces de nadar, volar y rodar. Se trataba de la «autonomía en movimiento».

En una intervención pública en 2015, declaró: «Se lo digo desde ahora: si, dentro de diez años, la primera persona en romper el frente enemigo no es un robot, qué vergüenza nos dará. Podemos lograrlo».

Bajo la dirección de Bob Work, el departamento comenzó a preocuparse por la cuestión de la autonomía, que estaba surgiendo en todo el país excepto en el Pentágono. Work consideraba que los servicios de la Fuerza Aérea, el Ejército y la Armada encargados de equipar y formar a su personal se estaban demorando. Recordaba que las fuerzas armadas tampoco habían querido nuevas tecnologías como el GPS, que sin embargo había sustentado el desarrollo de las municiones guiadas.

En aquel momento, el subsecretario de Defensa William Perry había hecho caso omiso de la postura de las fuerzas armadas. Work consideraba que le tocaba a él hacer lo mismo.

En junio de 2016 —el mismo mes en que Cukor regresaba al Pentágono— un estudio del Departamento de Defensa advertía que el ejército estadounidense estaba muy por detrás del sector comercial en materia de autonomía. IBM contaba con Watson, Google se lanzaba a los coches autónomos y, a pesar de 60 años de financiación de la investigación en IA, el Pentágono prácticamente no tenía nada que mostrar. El informe concluía que los recientes avances en materia de IA exigían una «acción inmediata» en materia de autonomía militar. Destacaba que esta acción permitiría reducir el número de soldados estadounidenses expuestos al peligro, mejorar la calidad y la rapidez de sus decisiones en tiempos de guerra y llevar a cabo misiones completamente nuevas. Los autores del informe —entre los que figuraban expertos de Amazon, Google e IBM— podían así concluir: «Los avances de la IA permiten confiar a las máquinas numerosas tareas que durante mucho tiempo se consideraron imposibles de realizar por parte de estas».

Sin embargo, las fuerzas armadas no se movían ni un ápice, en parte por razones financieras. Aunque el presupuesto del Pentágono era colosal en 2016, los fondos disponibles para nuevos gastos eran, por el contrario, limitados.

Muchos también se mostraban reacios a confiar a las máquinas decisiones de vida o muerte con fuerza de ley. El informe mencionado fue uno de los primeros en concluir que la integración de la autonomía en el mando y control de las operaciones militares y los combates era «una de las aplicaciones más controvertidas ». Subrayaba que sería mucho más difícil convencer a cualquiera de que confiara en esta tecnología que proporcionarla.

Muchos altos mandos estadounidenses nunca habían oído hablar por entonces del machine learning y no tenían ni idea de lo que significaba la IA. Además de la falta de talento y de voluntad, el Pentágono tampoco disponía de ninguno de los elementos prácticos necesarios para poner en marcha la IA a gran escala: la nube, la potencia de cálculo y datos comprensibles para una máquina. Dentro del gigantesco Departamento de Defensa, casi nada se encontraba en la nube: aunque internet fue una creación del Pentágono y el Departamento de Defensa gastaba 38.000 millones de dólares al año en informática, este tardó en comprender la importancia de una nube segura para la guerra.

Del mismo modo, aunque cada sistema de armamento, satélite y computadora generaba datos —la materia prima de la IA—, estos quedaban relegados a viejas presentaciones de PowerPoint y discos duros, prácticamente abandonados en ordenadores o en el fondo de un armario. Nadie recopilaba los datos brutos originales para compartirlos, clasificarlos o comprenderlos.

El informe afirmaba que la mejor manera de lograr que el gigantesco aparato militar estadounidense adoptara la IA y la autonomía no pasaría por imposiciones, sino por experimentos, programas piloto y prototipos con posibilidades de imponerse. Según un borrador de documento redactado en 2017 al que pude acceder, el Pentágono solo había invertido hasta esa fecha en «pequeños proyectos de nicho, de forma descoordinada». Estos tenían «pocas posibilidades de dar lugar a una transición significativa hacia los combatientes».

Work quería generar confianza y elaborar casos prácticos para que los propios combatientes estadounidenses cambiaran de opinión. Y quiso precisar que contemplaba la IA para el combate.

«No quiero que esto se limite a la inteligencia», me dijo, describiendo la orientación que había dado al Breakfast Club. «Quiero aplicaciones directas en el combate.»

El coordinador del club, Greg Grant, se había llevado bien con Cukor desde su llegada, describiéndolo como «muy interesante» y «simpático».

En 2016, muchos altos mandos estadounidenses aún no habían oído hablar del machine learning, ni tenían la más mínima idea de lo que significaba la IA.

Katrina Manson

Algo concreto: dominar el tsunami de datos visuales

Un día, Cukor llegó al Club con una nueva idea que iba a dar en el blanco. Decía que no se tenía que llevar a cabo un estudio de dos años, ni crear un prototipo o realizar pruebas: había que hacer «algo» concreto.

En 2014, Cukor había redactado un ensayo titulado «Operate to Know», centrado en el rastreo «activo» del enemigo. Con motivo de la reunión del Breakfast Club, anunció que ya disponía de un programa que serviría de excelente demostración para mostrar a las fuerzas armadas la importancia de la IA y el interés de asociarse con empresas punteras especializadas en ella, empresas que, por lo general, no trabajan en el ámbito de la defensa y la seguridad nacional.

Cukor presentó su proyecto a Bob Work en su despacho, con Grant a su lado: quería utilizar la IA para ayudar a analizar los datos de los drones.

El Pentágono se veía desbordado en aquella época por una avalancha de imágenes: las guerras de drones estadounidenses habían cobrado entonces impulso con la convicción de que el combate a distancia podía salvar la vida de los soldados. De 54 salidas de drones al campo de batalla en 2001, su número había alcanzado casi las 8.000 en 2010. En 2016, Estados Unidos había gastado 3.000 millones de dólares en el vuelo de drones. Estas máquinas de vigilancia sobrevolaban tierras lejanas, en Afganistán, Irak, el norte de África y el este de África. Más de 30 países habían desarrollado paralelamente sus propios programas de drones armados.

Los drones estadounidenses no se limitaban a observar vidas: también las quitaban, principalmente las de Al Qaeda, los talibanes y el Estado Islámico, pero a veces las de decenas de civiles: en bodas, en hospitales, en mercados, en carreteras y en granjas. A veces, Estados Unidos pedía disculpas. A veces, silenciaban el asunto; a veces, ni siquiera comprobaban quién había sido asesinado.

Los drones podían generar imágenes y videos, pero Estados Unidos era incapaz de procesarlos o comprenderlos. Los datos de inteligencia, vigilancia y reconocimiento registrados en 2016 eran tan voluminosos que equivalían a 80 años completos de grabaciones de video.

Durante una visita a Bagdad, Frank Kendall, alto cargo del Pentágono encargado de adquisiciones y tecnología, se quedó consternado al saber que, literalmente, nadie los veía. Mientras tanto, el número de drones no dejaba de aumentar, formando una fábrica de guerra sin mano de obra real.

La propuesta de Cukor a Bob Work sugería que la IA podría ayudar a procesar, explotar y difundir — processing, exploiting, and disseminating— la información contenida en las transmisiones de los drones. Esto aliviaría a los humanos, que solo podían hacer frente a una fracción del trabajo. En Mosul, como decía Cukor, Estados Unidos contaba con cinco aviadores que examinaban las transmisiones de inteligencia las 24 horas del día. Este proceso increíblemente laborioso malgastaba sus capacidades intelectuales, su moral y su tiempo: «¿por qué no dejar que los algoritmos hagan ese trabajo?».

En los años siguientes, oiría decir a los allegados de Cukor que habría sido capaz de vender sal a las babosas. En cualquier caso, su argumentación había convencido a Work, quien, según Grant, «muy entusiasmado». Work encargó a Cukor que preparara una demostración.

El coronel comenzó entonces a visitar empresas de Silicon Valley y a explorar el mundo de las tecnologías emergentes. Allí era donde se encontraban los mejores talentos en inteligencia artificial, y no en las grandes empresas de defensa tradicionales como Boeing, Booz Allen, Lockheed Martin y Raytheon.

Gran parte de la reflexión que subyace a las guerras de IA del futuro surgió de esas visitas de Cukor a fabricantes de coches autónomos como Tesla, Waymo o Uber. En la planta de Uber en Pittsburgh, Cukor descubrió que una docena de cámaras montadas en un coche podían procesar todo lo que había a su alrededor y ayudar al vehículo a esquivar en gran medida los coches, personas y otros obstáculos. Una start-up llamada Clarifai ofrecía un portal público que permitía procesar imágenes a través de la IA en internet: su IA describía la imagen generando palabras contextuales. El equipo le envió una foto de Bob Work. Esta respondió: «militar y líder».

Los algoritmos como arma de guerra: el nacimiento del proyecto Maven

Al Pentágono solo le faltaban sus propios algoritmos. Cukor recurrió entonces a un marine que, en el pasado, le había ayudado a transportar su computadora por los aeródromos afganos.

Spirk había dejado los marines, abandonado su puesto de alto cargo de inteligencia en el Mando de Operaciones Especiales y dado un giro inesperado al invertir en una empresa local de tueste de café en Tampa ,llamada Buddy Brew, por el nombre del perro de los propietarios. Sin embargo, a tiempo muy parcial, Spirk seguía asesorando a la Oficina de Apoyo a los Sistemas de Inteligencia, que forma parte de la Fuerza Aérea.

Cukor se presentó en Tampa con estas pocas palabras: «Dave, necesito que trabajes a tiempo completo».

En marzo de 2017, Spirk viajó a San Francisco para reunirse con IDenTV, una start-up fundada cuatro años antes por Mohammad y Amro Shihadah. Por la suma de 120.000 dólares, los convenció para que crearan un modelo de visión por computadora para videos no clasificados procedentes de un dron, videos que luego envió al Pentágono.

En esos videos, la IA podía colocar un punto blanco en la pantalla cada vez que aparecía un objeto específico. Esta demostración improvisada era mucho mejor que una simple lista estática en PowerPoint. La prueba provocó exclamaciones de admiración y la reacción de Work fue inmediata: «Adelante, háganlo».

Quedaba la cuestión del dinero. Grant buscó financiación y encontró un proyecto existente que el Congreso ya había aceptado financiar. Will Roper, un experto sénior en defensa, había dirigido un programa tan secreto al principio que ni siquiera podía hablar de él con su mujer. Tras documentarse sobre las investigaciones públicas de Microsoft en materia de aprendizaje automático, había logrado montar un proyecto destinado a utilizar proveedores de visión por computadora, procedentes de subcontratistas del ámbito de la defensa, para ayudar a localizar objetos en imágenes fijas de satélite.

«El Pentágono había probado en repetidas ocasiones programas de reconocimiento automático de objetivos, pero ninguno de ellos había funcionado muy bien», según Roper. Ahora, gracias a grandes cantidades de datos, a una mayor potencia de cálculo y a los avances en la investigación, la IA podía comprender mejor el campo de batalla que los operadores humanos y actuar como experto —o maven— para guiarlos.

A petición de Bob Work, Roper asignó los fondos, conseguidos con tanto esfuerzo y aprobados por el Congreso, así como el nombre de su iniciativa, al nuevo proyecto de Cukor.

«Me quedé con todo el dinero de Will Roper, lo que siempre lo ha vuelto loco», recuerda Cukor con cierta alegría.

Finalmente, el proyecto Maven se convertiría en la mayor inversión del Departamento de Defensa en IA hasta la fecha. Según un documento interno al que he tenido acceso, su presupuesto para el primer año ascendía a 40,8 millones de dólares. Esa cifra no ha hecho más que crecer desde entonces.

Work oficializó su programa en una nota que describía su ámbito de aplicación el 26 de abril de 2017, nombrando al general Shanahan su director. Cukor, por su parte, consiguió el puesto más importante de su carrera: jefe del proyecto Maven.

Esta nota indicaba que el nuevo equipo comenzaría aplicando la IA, el big data y el deep learning a las imágenes proporcionadas por drones en el marco de la lucha contra el Estado Islámico. Este nuevo equipo también se encargaba de agrupar todas las iniciativas tecnológicas del departamento basadas en algoritmos y relacionadas con la inteligencia de defensa, para abordar posteriormente «otros ámbitos de misión de la inteligencia de defensa» que no se especificaban. El objetivo era proporcionar rápidamente «información útil» y datos relevantes.

Quizá el llamativo nombre se había tomado prestado de la iniciativa de Roper. Sin embargo, fue el título oficial, austero y burocrático del proyecto lo que más sedujo a Cukor: el «equipo multifuncional de guerra algorítmica» (The Algorithmic Warfare Cross-Functional Team). Este nombre le gustó no por su facilidad de pronunciación —algunos empezaron rápidamente a pronunciar AWCFT como «aw shit»— sino por lo que implicaba para el Pentágono en su conjunto: la IA iba a ir a la guerra, y era todo el Departamento de Defensa el que la iba a enviar allí.

La imagen que se tenía comúnmente de la IA como arma de guerra se resumía en aquella época en Skynet, el sistema de inteligencia artificial ficticio protagonista de las películas de Terminator. En estas películas, mientras el ejército estadounidense crea Skynet con la ayuda de un subcontratista de defensa, la activación del sistema por parte de un teniente general de la Fuerza Aérea lo dota de una conciencia propia. Al tomar el control de los mandos nucleares, lanza una hora más tarde un ataque contra toda la raza humana, mata instantáneamente a tres mil millones de personas y transforma el mundo para siempre. El héroe de la película califica este conflicto como «una guerra entre el hombre y las máquinas».

Algunos responsables militares estadounidenses estaban tan asustados por esta posibilidad como los cinéfilos; otros oficiales enviaban por correo electrónico extractos de la película para justificar el proyecto.

La nota de servicio sobre el proyecto Maven se encargaba de delimitar su alcance. Joe Larson, el reservista de los marines y abogado al que Cukor había llamado para trabajar en Maven, me confió que Cukor habría «puesto cara de asco» si alguien hubiera descrito Maven como un programa de selección de objetivos. Para Larson, el proyecto era algo muy distinto: se trataba únicamente de sistemas de inteligencia, sin ningún vínculo con municiones en una plataforma de armas, y destinados estrictamente a la investigación y el desarrollo.

En cualquier caso, el nombre oficial del proyecto gustaba tanto a Cukor como a Work precisamente porque exponía claramente sus ambiciones: la guerra algorítmica.

Cuando le pregunté a Grant si la selección de objetivos y los ataques ofensivos debían formar parte del proyecto Maven, me respondió: «Sí, por supuesto. No es como si lo hiciéramos por diversión: el objetivo de la inteligencia es eliminar objetivos de gran valor». Esta ambición de llevar a cabo «operaciones de selección de objetivos» también figuraba en un borrador de memorándum sobre el proyecto Maven de 2017 al que pude acceder.

Desde el principio, Maven apuntaba precisamente a lo que más asustaba a sus detractores: crear una aplicación de selección de objetivos revolucionaria utilizando la IA para acortar la kill chain.

Katrina Manson

Transformar el Pentágono en una empresa de software

Cukor tampoco ocultó sus intenciones. Siempre había tenido en mente la selección operativa de objetivos; siempre había querido integrar la inteligencia en las operaciones, y el proyecto Maven era el medio para lograrlo. Los esfuerzos del proyecto se centraban en la esencia misma de la selección de objetivos: la IA ayudaría a seleccionar y priorizar los objetivos, y luego a asignarles la respuesta adecuada.

Para Cukor, esta ambición podía resumirse en una idea sencilla que se basaba en una fórmula compleja: un punto blanco en una pantalla precargada con coordenadas precisas. Pero el general Shanahan hizo pública una intención más amplia: «el Ministerio de Defensa no debería volver a comprar otro sistema de armas hasta el fin de sus días sin que este integre inteligencia artificial».

Otra persona que se unió al nuevo equipo del proyecto Maven describió su propia visión de la contribución a la guerra que esperaba de la IA: «Vamos a matar gente todo el tiempo». »

Bob Work también tenía sus propias opiniones, que me compartió en relación con los esfuerzos del proyecto Maven por integrar la IA en el combate: «Creo firmemente que esto conducirá a una revolución en la guerra. Combinada con drones autónomos en tierra, mar y aire, la IA cambiará la guerra para siempre».

Desde el principio, Maven apuntaba precisamente a lo que más asustaba a sus detractores: crear una aplicación revolucionaria de selección de objetivos mediante IA para acortar la kill chain entre el momento en que se localiza un objetivo y el momento en que se le alcanza: localizar, fijar, eliminar.

Este aspecto, junto con otros elementos del proyecto, provocaría tensiones internas: «En el Departamento de Defensa, todo es una cuestión de competencia por el dinero», me contó Grant, una competencia aún más intensa dado que su programa estaba impulsado por un adjunto y se centraba en un ámbito radicalmente nuevo. «O la gente quiere hacerse con el control, o quiere que desaparezca».

La ambición de Cukor era inmensa. Como había declarado en una presentación en 2017 ante responsables de defensa y posibles clientes, la IA iba a transformar la guerra. Sería capaz de burlar los mandos enemigos y ejecutar miles de millones de simulaciones sobre las próximas acciones del enemigo y sobre el posible desarrollo del conflicto.

Pude consultar las diapositivas de esas presentaciones. Una diapositiva impactante contenía un fragmento de la película de James Bond de 2012, Skyfall: la escena de la persecución en la que Daniel Craig se desplaza a toda velocidad en moto por un mercado de Estambul. Durante la proyección del fragmento, un algoritmo accesible al gran público identificaba los objetos en el video en rápido movimiento, haciendo aparecer recuadros titulados «persona», «paraguas», «caballo», «silla».

Si el sector comercial ya era capaz de hacer eso, el Pentágono tenía que ponerse al día. Como había señalado Cukor, el Departamento de Defensa debía funcionar más como una empresa de software que como una fábrica de armas para hacer frente al «tsunami» de datos que lo inundaba. Cukor planteaba cuestiones inquietantes: llevar a cabo este cambio «podría determinar nuestro éxito en la próxima guerra». Realizar actualizaciones periódicas del código de software del Ministerio de Defensa podría acabar teniendo tanta importancia como el entrenamiento y la moral. Su presentación precisaba así: «Google actualiza su software básico varias veces por minuto… tenemos suerte si actualizamos procesos significativos una vez al año. Al fin y al cabo, los algoritmos podrían ser la variable clave de nuestra victoria».

Cukor quería que los datos se procesaran «al instante» para establecer la conexión entre el objetivo, el arma y el operador. Para lograrlo, abogaba por una «revolución algorítmica».

En su visión, al igual que en la de Bob Work, la IA era un camino hacia la automatización. Cukor sabía que esto conllevaba riesgos: la IA cometería errores y se equivocaría, y se necesitaría tiempo para comprender cómo utilizarla. «Habrá detecciones falsas y la necesidad de corregir los algoritmos será constante. Todavía estamos determinando el mejor uso posible de la IA».

Cukor se había atrevido a enfrentarse a la misma plantilla de la que debía ganarse el apoyo. Transformar el Pentágono en una empresa de software era «una tarea colosal y dolorosa» que estaría plagada de obstáculos culturales, organizativos, financieras y políticas. La cultura del software requeriría gente nueva. En su presentación, precisó que este ritmo «no era adecuado para todo el mundo», advirtiendo que algunos perderían su empleo: «No hay duda de que algunos de los que actualmente forman parte de nuestros principales sistemas de armamento tendrán que orientarse hacia otros trabajos más estables, como proyectos físicos a largo plazo que se extienden a lo largo de 15 años… camiones… buques… aviones».

Cukor había aprovechado la oportunidad que le brindaba la controversia. Sabía que acababa de desencadenar una lucha encarnizada: con él habían nacido los primeros esfuerzos por situar la IA en el centro de la forma en que Estados Unidos haría la guerra, y Estados Unidos se vería sacudido por ello.