Silicon Valley, históricamente reacio a colaborar con la industria de defensa, ha estrechado sus lazos con el Pentágono en los últimos meses:
- OpenAI prohibía inicialmente el uso de su IA con fines militares. En diciembre, la empresa de Sam Altman anunció que estaba «desarrollando y desplegando de forma responsable soluciones avanzadas de inteligencia artificial para misiones de seguridad nacional» 1. Hace un año, los creadores de ChatGPT ya habían flexibilizado su política para autorizar ciertas colaboraciones con el ejército, al tiempo que incorporaban al antiguo director de la Agencia de Seguridad Nacional (NSA) y reclutaban en agosto a Sasha Baker, que había sido responsable del Pentágono bajo el mandato de Biden, para dirigir un equipo dedicado a las políticas de seguridad nacional. El 13 de enero, OpenAI publicó un informe sobre su plan de desarrollo, con la seguridad nacional como principio rector 2.
- En noviembre, Anthropic —uno de los principales rivales de OpenAI— anunció que daría acceso a su IA al ejército estadounidense mediante una asociación con Palantir Technologies 3.
- El 6 de diciembre, Anduril y Palantir, dos de las principales empresas en la intersección de la tecnología y la defensa con profundos vínculos con Peter Thiel, anunciaron la creación de un consorcio «destinado a garantizar que el gobierno estadounidense lidere el mundo de la inteligencia artificial» 4.
El Pentágono cuenta ahora con una Célula de Capacidades Rápidas en Inteligencia Artificial (AI RCC).
- Puesta en marcha el 11 de diciembre, bajo la dirección de la Oficina de Inteligencia Digital y Artificial y en enlace con la Unidad de Innovación de Defensa (DIU), esta célula pretende integrar rápidamente la IA generativa en las operaciones militares y la gestión administrativa del Pentágono.
- Con un presupuesto de 100 millones de dólares en dos años, este programa prevé el desarrollo de proyectos piloto, la creación de entornos de prueba (sandboxes) y la financiación de soluciones procedentes del sector privado.
- Al mismo tiempo, se están destinando inversiones estratégicas a la ampliación de las infraestructuras de datos, las herramientas de optimización digital y la mejora de los procesos de ciberseguridad.
- El objetivo declarado del Pentágono es impulsar la eficiencia operativa y poner herramientas avanzadas de IA en manos de los combatientes. Según un documento oficial, «AI RCC permitirá al Departamento de Defensa explotar rápidamente las tecnologías emergentes, como la IA generativa (GenAI), al tiempo que construye la base técnica necesaria para expandir estas tecnologías por todo el departamento» 5.
Además de estas novedades, el Pentágono ya ha previsto una serie de medidas destinadas a acelerar la adopción de la IA por parte de Defensa, recurriendo al nuevo consorcio Palantir – Anduril.
- A nivel estratégico, el CDAO ha concedido a Palantir 500 millones de dólares en contratos de empresa para acceder a la infraestructura y las aplicaciones de mando de las misiones.
- A nivel táctico, se espera que la adquisición por parte del CADD de los servicios de integración de datos Edge de Anduril, por valor de 100 millones de dólares, cree una arquitectura de datos resistente que facilite los intercambios de información de baja latencia entre redes, dominios, organizaciones y escalones.
- Según documentos oficiales, Palantir y Anduril planean superar «dos grandes impedimentos» para la adopción de la IA en el Pentágono: la falta de retención y la pérdida masiva de datos militares cruciales para el entrenamiento de algoritmos, y la falta de una infraestructura segura para transformar los datos de seguridad nacional en capacidades de IA utilizables 6.
La IA generativa tiene muchos campos de aplicación:
- En el contexto de las operaciones militares, el objetivo principal es la aplicación de la IA al mando y control (C2) de operaciones multisectoriales de alta intensidad. La IA se desplegaría para apoyar la toma de decisiones, la planificación operativa y logística, el desarrollo y las pruebas de armas y sistemas autónomos y no tripulados, así como diversas actividades de inteligencia, operaciones de información y ciberseguridad.
- También se desplegaría para gestionar los recursos humanos y financieros, la logística y la cadena de suministro, los historiales médicos militares, el análisis y el cumplimiento legales, los procesos de adquisición, el desarrollo de software y la ciberseguridad.
Varios expertos advierten de los peligros de la rápida integración de la inteligencia artificial en el ámbito militar 7: lejos de contribuir a la seguridad nacional, todos estos fallos podrían sabotear los sistemas militares estadounidenses.
Las críticas se centran en tres aspectos:
- Los sistemas de IA han mostrado índices de precisión muy inferiores a los anunciados: una prueba realizada en 2021, por ejemplo, mostró una precisión de sólo el 25%, frente al 90% anunciado 8.
- Los modelos generativos de IA «alucinan» con frecuencia, produciendo respuestas incorrectas o inventadas. Esto podría dar lugar a errores críticos con consecuencias catastróficas en contextos militares de alta intensidad.
- Además, como la IA se basa en bases de datos que contienen información sensible sobre la identidad, el perfil o el comportamiento de los usuarios, pueden surgir nuevas vulnerabilidades de ciberseguridad.
Notas al pie
- Anduril Partners with OpenAI to Advance U.S. Artificial Intelligence Leadership and Protect U.S. and Allied Forces, 4 de diciembre de 2024.
- AI in America OpenAI’s Economic Blueprint, 13 de enero de 2025.
- Anthropic and Palantir Partner to Bring Claude AI Models to AWS for U.S. Government Intelligence and Defense Operations, 7 de noviembre de 2024.
- Anduril and Palantir to Accelerate AI Capabilities for National Security, 12 de junio de 2024.
- CDAO-Artificial-Intelligence-Rapid-Capabilities-Cell, 11 de diciembre de 2024.
- Anduril and Palantir to Accelerate AI Capabilities for National Security, 12 de junio de 2024.
- Heidy Khlaaf y Sarah Myers West, «The Rush to A.I. Threatens National Security», The New York Times, 27 de enero de 2025.
- Patrick Tucker, «This Air Force Targeting AI Thought It Had a 90% Success Rate. It Was More Like 25%», Defence One, 9 de diciembre de 2021.