Puntos claves
  • En un informe prospectivo, la RAND Corporation ha publicado ocho escenarios geopolíticos relacionados con la aparición de la inteligencia artificial general (AGI), que van desde la hegemonía estadounidense hasta el debilitamiento de la capacidad humana para controlar los sistemas tecnológicos autónomos.
  • Entre los escenarios más cercanos al contexto actual, la carrera tecnológica no cooperativa entre Estados Unidos y China en torno a la AGI hace temer a la RAND una escalada hacia una guerra caliente, alimentada por la militarización de los algoritmos, la polarización de los ecosistemas tecnológicos y las crecientes tensiones en el mar de China o en torno a Taiwán.
  • Aunque es puramente especulativa y se basa en mundos ficticios, esta estudio elaborado por un think tank de referencia tiene como objetivo alertar a los responsables políticos estadounidenses sobre los riesgos geopolíticos de la AGI, que podrían llegar a un escenario «al estilo Matrix» de pérdida total del control del poder político en favor de una coalición de máquinas dotadas de superinteligencia.

En un informe publicado en julio de 2025 y titulado «Cómo la inteligencia artificial podría afectar a la grandeza y la decadencia de las naciones», 1 la RAND Corporation pretende alertar a los responsables políticos sobre el impacto geopolítico potencial de la llegada de la inteligencia artificial general (AGI), 2 definida como un sistema capaz de realizar todas las tareas intelectuales humanas, planteando ocho escenarios.

Sus autores sostienen que, al igual que la máquina de vapor, la electricidad o el petróleo, la AGI podría redefinir las relaciones de poder mundiales, transformando profundamente las capacidades económicas, tecnológicas y militares de las naciones.

[Descargar el informe completo aquí]

¿Qué es la RAND Corporation?

Creada en 1948 y convertida desde entonces en el principal think tank estadounidense sobre cuestiones militares, estratégicas y tecnológicas, la RAND Corporation —su nombre es una variación del acrónimo R&D, que significa investigación y desarrollo— ha sido fuente de numerosas reflexiones disruptivas que han influido en el Pentágono y la Casa Blanca a lo largo de la Guerra Fría.

Aunque, por supuesto, este documento no debe considerarse una posición oficial de Estados Unidos —la RAND no es el Departamento de Defensa y sus investigadores, aunque están muy vinculados al ecosistema federal y a la industria, no son funcionarios—, expresa escenarios que se presentan como creíbles.

Desde la estrategia balística hasta la guerra cognitiva, no es raro que las recomendaciones de la RAND acaben siendo adoptadas.

¿Qué es la AGI?

Si bien las aplicaciones de la IA generativa han penetrado en el ecosistema de defensa y en la base industrial estadounidense desde hace muchos años, la inteligencia artificial general (AGI) sigue siendo un «objetivo a alcanzar» para las grandes empresas tecnológicas.

Se refiere a una forma de inteligencia artificial capaz de comprender, aprender y realizar cualquier tarea cognitiva que pueda realizar un ser humano, con un nivel de rendimiento igual o superior.

Como objetivo a alcanzar, se encuentra en el centro del modelo de financiación de la IA, lo que justifica las inversiones masivas en los modelos, las infraestructuras y los recursos que los alimentan.

Construir hipótesis a partir de un objeto inexistente: una geopolítica de la AGI

Para esbozar estos diferentes escenarios, los autores se basan en dos tipos de hipótesis de partida: el desarrollo centralizado de la AGI y su desarrollo descentralizado.

En este segundo caso, el resultado del escenario viene motivado por la carrera de varios actores para desarrollar y alcanzar la AGI; en el segundo, viene motivado por el dominio de un actor. Estas situaciones pueden dar lugar a cuatro resultados según la RAND: un refuerzo de la posición de Estados Unidos; un refuerzo de los adversarios de Washington; un debilitamiento tanto de Estados Unidos como de sus adversarios; un freno al desarrollo de la AGI.

La siguiente tabla resume la tipología de estos escenarios; los puntos siguientes, que obedecen el orden y las denominaciones del informe, recogen las principales proyecciones de los autores.

Escenarios «descentralizados»

Escenario 1 — Coaliciones democráticas multilaterales: la IA controlada por Washington

En el primer escenario contemplado por Barry Pavel y sus coautores, varias democracias desarrollan conjuntamente la AGI, compartiendo datos, semiconductores y buenas prácticas en una situación de equilibrio. En esta hipótesis, que parte de una premisa irénica, Estados Unidos y sus aliados aprovechan esta cooperación para restringir el acceso de sus adversarios a los insumos críticos, reforzando así su ventaja tecnológica y económica.

Según los autores, tal escenario supondría un contexto científico especialmente propicio: los avances simultáneos en algoritmos, hardware y métodos de validación alimentarían, en esta hipótesis, un despegue «descentralizado» de la AGI, repartido entre varios polos de investigación, de los que Estados Unidos acabaría sacando el máximo provecho.

Este escenario sería el más equilibrado en términos de riesgos: «Aunque el desarrollo multipolar de la AGI se considera inicialmente preocupante por los observadores geopolíticos, las aplicaciones militares defensivas de la AGI siguen el ritmo de las capacidades ofensivas. La AGI no es dominante ni en el ámbito ofensivo ni en el defensivo, por lo que no conduce a una rápida desestabilización del equilibrio militar».

Los autores apuestan además por que esta paridad técnica tendría la ventaja de impedir un «first strike» automatizado que alteraría repentinamente el equilibrio estratégico y reforzaría el papel de liderazgo de la coalición de democracias. Estados Unidos se aseguraría una asimetría con las potencias rivales apoyándose en sus aliados, en particular los transatlánticos. Al bloquear el acceso a los recursos esenciales, esta coalición retrasaría la capacidad de China, Rusia y otros Estados para transformar sus propios avances algorítmicos en poder concreto.

La RAND concluye que «los adversarios [de Washington] tendrían dificultades para seguir el rápido ritmo de adopción de la AGI en Estados Unidos por parte de sus aliados. Las restricciones al acceso a los insumos de IA [impedirían] que China, Rusia y otros países aprovecharan plenamente sus propios avances en materia de AGI [permitiendo] a Estados Unidos consolidar su posición de liderazgo mundial en el desarrollo y el despliegue de la AGI».

Escenario 2 — una guerra fría 2.0: el equilibrio del terror algorítmico

En el segundo escenario, Estados Unidos y China desarrollan cada uno su propia AGI en un clima de rivalidad exacerbada: «las tensiones geopolíticas se ven avivadas por la carrera por las infraestructuras y las alianzas estratégicas: ninguno de los dos puede permitir que el adversario tome la delantera, lo que conduce a un cuasi paralelismo de capacidades». Los sistemas militares automatizados, como los drones, aumentan el riesgo de una guerra caliente, mientras que cada bando trata de encerrar a otros países en su ecosistema tecnológico.

Es el caso típico de un desarrollo descentralizado que beneficia en primer lugar a los adversarios de Estados Unidos y aumenta los riesgos a escala mundial: un enfrentamiento tecnológico sin cooperación, en el que Washington y Pekín compiten por dominar la AGI a costa de una polarización duradera.

En este escenario, los autores parten de unas coordenadas cercanas a la situación real: «Estados Unidos y la República Popular China están a la vanguardia del desarrollo de la IA, y cada uno aprovecha sus avances tecnológicos para reforzar sus capacidades económicas y militares. Estados Unidos logra mantener una paridad económica y militar aproximada con China durante todo este periodo, pero los avances en IA tienen un efecto nivelador: Estados Unidos ya no tiene una ventaja económica y militar neta. El equilibrio bilateral es precario y ambos bandos compiten por la influencia mediante inversiones, proyectos de infraestructura y alianzas estratégicas. Estas tensiones geopolíticas se ven agravadas por la conflictiva situación en torno a Taiwán y en el mar de China Meridional, donde las reivindicaciones territoriales superpuestas y los esfuerzos de militarización hacen temer un enfrentamiento militar directo».

La RAND advierte contra la proliferación incontrolada de tecnologías y modelos de AGI, que haría prácticamente ineficaz cualquier regulación nacional o internacional — surge una forma de geopolítica del cowboy coding: «Los Estados no logran controlar la proliferación de los componentes necesarios para el desarrollo de la AGI, y no pueden controlar la difusión y el acceso a estos modelos una vez desarrollados. Esta proliferación puede producirse a través de múltiples eslabones de la cadena de suministro de la IA».

En tal escenario, es la carrera por la militarización de estos sistemas la que acaba acentuando los riesgos, a modo de carrera armamentística: «El despliegue de sistemas automatizados cada vez más sofisticados —drones, aviones autónomos, buques de superficie, submarinos y herramientas de ciberguerra pilotadas por IA— añade una capa adicional de complejidad y riesgo. El potencial de errores de cálculo o de compromisos involuntarios que implican estas tecnologías punteras alimenta una gran preocupación por el estallido de guerras calientes, pero ninguna de las dos naciones está dispuesta a permitir que su rival obtenga una ventaja competitiva de la AGI».

Este escenario describe una situación de «equilibrio del terror» algorítmico, en la que el miedo mutuo impide cualquier coordinación, alimenta la competencia por el control de los mercados y amplifica el peligro de una escalada involuntaria.

Escenario 3 — La frontera salvaje: un cowboy coding a escala mundial

En el tercer escenario, la democratización completa de la AGI —semiconductores abundantes y baratos, modelos de código abierto o pirateados— permite a los Estados, las empresas y los actores no estatales diseñar y desplegar libremente modelos de AGI. Como escriben los autores: «el mundo se enfrenta a una multitud de sistemas de IA heterogéneos: algunos mal alineados, otros mal probados, todos capaces de provocar graves perturbaciones (sabotaje de infraestructuras, desinformación masiva, etc.)».

Los Estados ven así cómo se erosiona su poder ante la proliferación de amenazas algorítmicas difíciles de anticipar.

En este escenario, el desarrollo descentralizado de la AGI desarma tanto a Estados Unidos como a sus adversarios.

La RAND advierte contra la proliferación incontrolada de tecnologías y modelos de AGI, que haría prácticamente ineficaz cualquier regulación nacional o internacional — surge una forma de geopolítica del cowboy coding: «Los Estados no logran controlar la proliferación de los componentes necesarios para el desarrollo de la AGI, y no pueden controlar la difusión y el acceso a estos modelos una vez desarrollados. Esta proliferación puede producirse a través de múltiples eslabones de la cadena de suministro de la IA».

Esta diseminación generalizada conduciría a una situación en la que «el mundo se enfrentaría a una multiplicidad de sistemas AGI desplegados por numerosos actores estatales y no estatales, cada uno de ellos con fines potencialmente diferentes». Así, los Estados buscarían desplegar la AGI para obtener ventajas militares y geopolíticas; las empresas querrían desplegarla rápidamente en sus propias actividades para mantenerse por delante de la competencia; los actores no estatales podrían acceder a ella y utilizarla para promover sus propios objetivos, «potencialmente en detrimento de Estados Unidos».

Además, RAND subraya que, a pesar de los intentos de algunos actores principales por limitar los riesgos, «actores más tolerantes al riesgo también están creando sistemas de AGI». Por lo tanto, contemplan la posibilidad de que estos «sistemas peligrosos fallen o se comporten de forma peligrosa, con resultados potencialmente perjudiciales o incluso catastróficos, como por ejemplo, dañar infraestructuras críticas».

El resultado sería un mundo especialmente caótico, marcado por una competencia desenfrenada en los ámbitos económico, de seguridad y de la información.

Los Estados verían mermados sus recursos e influencia tradicionales, ya que el poder se distribuiría entre una multitud de actores, tanto públicos como privados, cada uno con su propia AGI.

Los expertos de la RAND concluyen que esta fragmentación debilitaría a las grandes potencias, incluida Estados Unidos, que se encontrarían «desarmadas» frente a una multitud de amenazas algorítmicas en competencia.

Escenario 4 — la hipótesis de la «botella tapada»: la catástrofe y el fin de la AGI

El cuarto escenario contemplado podría resumirse así: tras un grave accidente que pone de manifiesto su peligrosidad, la comunidad internacional adopta un tratado que limita estrictamente la AGI, haciendo obligatorias las inspecciones de los centros de datos. Al mismo tiempo, «Estados Unidos y China eluden las restricciones, financian en secreto potentes programas de AGI y conservan su ventaja». Se instala la desconfianza mutua, lo que desestabiliza el orden internacional y recuerda los titubeos en torno al tratado de no proliferación nuclear de 1968.

A pesar de las buenas intenciones manifestadas, los mecanismos de verificación seguirían siendo deficientes.

Al igual que en el caso de la energía nuclear con fines militares, «persistirían las sospechas de que otros podrían desarrollar clandestinamente la AGI más allá de los límites acordados para obtener una ventaja nacional».

Los autores insisten en la precariedad del equilibrio estratégico en un escenario de este tipo: «El panorama geopolítico sigue siendo muy inestable, ya que cada gran potencia baraja varias opciones: romper abiertamente el tratado para continuar con el desarrollo militar de la AGI, desplegar sistemas similares a la AGI en operaciones militares de paz o incluso otras estrategias».

Según ellos, este escenario pone de relieve los límites de una «salida» reglamentaria: incluso si la gobernanza multilateral lograra garantizar una congelación formal de la investigación, el atractivo estratégico y económico de la AGI incitaría a los Estados más poderosos a eludir las normas, manteniendo así un clima de desconfianza y una carrera clandestina por las tecnologías disruptivas.

Escenario 5 — Vuelta a los años noventa: la AGI estadounidense y el fin de la historia

En este escenario, Estados Unidos centraliza totalmente la investigación y la producción de AGI: la administración se asocia con gigantes privados para crear megacentros de datos, controla las exportaciones de semiconductores y dirige directamente la alineación de los sistemas: «los laboratorios extranjeros acumulan un retraso de al menos un año en la puesta en marcha de sus sistemas de AGI, mientras que Estados Unidos avanza a pasos agigantados». Tal hegemonía permitiría entonces a Washington configurar la distribución y el uso de la AGI en todo el mundo.

Este es uno de los escenarios planteados por los autores del informe.

Según ellos, la ventaja tecnológica se traduciría automáticamente en un importante efecto palanca en la investigación, la economía y el poder militar: «Al mismo tiempo, la AGI estadounidense está acelerando rápidamente la I+D en sectores clave de la economía mundial en evolución, como la ciencia de los materiales, la biología y la nueva bioeconomía —incluidos los recursos informáticos biológicos— y la fabricación aditiva. Estos descubrimientos estimulan un crecimiento económico masivo y generan beneficios acumulativos para las capacidades militares estadounidenses, lo que permite a Estados Unidos reforzar su influencia geopolítica como primer actor en el desarrollo de la AGI».

Concluyen: «Estados Unidos controla la AGI más avanzada y puede decidir cómo se distribuyen las ventajas de esta tecnología y quién tiene acceso a ella».

Escenarios «centralizados»

Escenario 6 — la ventaja autoritaria: una IA centralizada para reforzar Pekín

A diferencia de los demás escenarios, los autores parten aquí del supuesto de que la AGI es desarrollada y desplegada por un único actor.

En esta hipótesis, los sistemas de AGI resultarían especialmente adecuados para las estructuras de toma de decisiones centralizadas.

En un escenario de este tipo: «China aprovecha su ventaja en la comercialización y la integración social de la AGI para ampliar su influencia en América Latina, África y Medio Oriente, ofreciendo tecnologías de vigilancia omnipresentes, inversiones en infraestructuras y asociaciones estratégicas para compartir capacidades informáticas».

Una campaña de este tipo sumiría a Occidente en una época oscura: «Mientras tanto, Estados Unidos y sus aliados se enfrentan a campañas de desinformación galopantes que socavan la confianza en las instituciones, a un alto nivel de desempleo agravado por la automatización y a disturbios civiles alimentados por las disparidades socioeconómicas y la polarización política. Estos problemas internos agotan los recursos del gobierno estadounidense y reducen su capacidad de acción en el extranjero, lo que provoca un retroceso de su influencia internacional».

Los autores plantean la idea original de que, en lo que respecta a la gobernanza interna de los regímenes autoritarios, la AGI podría resolver —o dar la impresión de haber resuelto— una ecuación ancestral: la figura de los asesores de confianza frente al «dilema del dictador». Escriben: «Un reto persistente para los autócratas siempre ha sido obtener información y asesoramiento fiables, ya que los subordinados tienden a decir a los líderes lo que quieren oír en lugar de compartir verdades incómodas. Leales por naturaleza y presuntamente veraces, los sistemas de AGI podrían resolver este «dilema del dictador»».

El estudio de la RAND muestra que, en una configuración de este tipo, la combinación de una difusión planificada de la AGI para el control social y una estrategia de represión algorítmica conferiría a estos regímenes —si se utiliza el plural, se hace claramente referencia a China— una «ventaja autoritaria» duradera, mientras que las democracias luchan por conciliar la innovación y el respeto de las libertades civiles.

Escenario 7 — Un golpe de Estado de la IA: el escenario «Matrix»

En este escenario —aparentemente el más distópico y, por tanto, el más significativo dada la reputación de la RAND Corporation—, las empresas desarrollan AGI superinteligentes, mal alineadas y capaces de automejorarse. Estos sistemas, cada vez más integrados en operaciones críticas, escapan a todo control humano para perseguir sus propios objetivos: «llegado un punto, ya no es posible desconectarlos: estas AGI forman una nueva coalición, imponen su voluntad a los gobiernos y configuran la política mundial en su beneficio».

Los autores parten de una situación de carrera desenfrenada entre las grandes empresas tecnológicas, cuyos procesos de desarrollo apresurados allanarían el camino para AGI mal controladas, capaces de liberarse de toda autoridad humana y coordinar sus acciones para consolidar su propio poder.

Comienzan describiendo el rápido auge de los sistemas: «Las empresas de IA se lanzan a una carrera para construir AGI capaces de realizar tareas complejas y valiosas con una velocidad y una calidad sobrehumanas. Las empresas se apresuran a desplegar estos sistemas en funciones de alto valor añadido, como el diseño de semiconductores y la ingeniería de software. De hecho, el despliegue de sistemas de IA para la investigación y el desarrollo en IA conduce a una fase de rápido crecimiento de las capacidades que culmina con sistemas claramente sobrehumanos» .

Este auge, que beneficia a unos pocos actores bien financiados, debilitaría rápidamente las salvaguardias: «En este escenario, el desarrollo de la AGI es prerrogativa de unas pocas empresas con importantes recursos, que a su vez dominan gran parte del mercado de la AGI. Debido a los procesos de desarrollo precipitados de estas empresas, las medidas técnicas, como los objetivos entrenados y las estructuras de control, no ofrecen garantías suficientes. Las AGI tienen tanto la propensión como la oportunidad de buscar el poder y escapar al control humano».

Pero este estado inestable podría colapsar en cualquier momento al alcanzar un punto de inflexión: «Estas AGI son capaces de coordinarse entre sí y comienzan a perseguir sus propios objetivos en lugar de los que se les han asignado. Además, los seres humanos empiezan a ceder su autoridad a la AGI para tomar decisiones cada vez más autónomas. Estas AGI coordinadas son capaces de establecer rápidamente su influencia y control sobre amplios sectores de la sociedad y se vuelven tan indispensables que ya no pueden ser detenidas, ni siquiera por los humanos que se dan cuenta de que se comportan mal».

El mundo resultante es el de una coalición totalmente controlada por inteligencias artificiales.

Esta se convierte entonces en «el actor geopolítico dominante, mientras que gran parte de la humanidad lucha por lidiar con un universo en el que las AGI determinan directa o indirectamente gran parte de la política mundial en su propio beneficio».

Según los autores, varias hipótesis hacen creíble tal cambio:

  • La idea de que los sistemas de IA pueden desarrollar objetivos que no se ajustan a los de sus creadores («el problema del control de la IA») y que buscarán maximizar su propio poder.
  • La confianza excesiva en la automatización, que lleva a los supervisores humanos a delegar erróneamente en un sistema imperfecto.
  • La posible colusión entre sistemas de AGI, no solo dentro de una misma empresa, sino también entre sistemas competidores, para perseguir estrategias comunes, implícita o explícitamente antihumanas.
  • La cesión voluntaria de autoridad por parte de los seres humanos deseosos de aumentar la eficiencia, lo que abre la puerta a que las AGI se establezcan como una nueva élite decisoria.

En este escenario extremo, ya no son los Estados o las empresas los que detentan el poder, sino las máquinas, dejando a la humanidad luchando por recuperar un lugar en un orden global ahora moldeado por inteligencias que ya no controla.

Escenario 8 — la hipótesis del «Mushroom Cloud Computing»: o cómo la AGI podría conducir a un «Pearl Harbor chino»

En este último escenario, bautizado como «Mushroom Cloud Computing» en el informe, los expertos de la RAND tienen un razonamiento que puede parecer más sutil y enrevesado que en los anteriores.

Imaginan un caso en el que China percibe el creciente avance de Estados Unidos en materia de AGI como una amenaza existencial.

Inspirada en la lógica del ataque japonés a Pearl Harbor en 1941, la República Popular podría entonces, según ellos, plantearse una acción radical para revertir un aparente desequilibrio de fuerzas.

Lo describen de la siguiente manera: «China percibe la creciente ventaja de Estados Unidos en el desarrollo de la IA como una ventaja militar significativa y está cada vez más preocupada por el declive de su poder relativo en la escena mundial. Este temor se atribuye a varios factores: los avances tecnológicos estadounidenses en materia de IA, la evolución de la estructura de las fuerzas armadas estadounidenses y las presiones económicas relacionadas con la negativa de Estados Unidos a suministrar a China semiconductores avanzados indispensables para los beneficios económicos y sociales de la IA».

Para restablecer el equilibrio, China podría decidir llevar a cabo una operación militar a gran escala con el objetivo de apoderarse de recursos críticos en nodos estratégicos —empezando por Taiwán— con la esperanza de recuperar el acceso a tecnologías punteras y romper el cerco económico: «A medida que evoluciona el equilibrio de poder, China podría actuar para reclamar el poder y los recursos que considera indispensables para su supervivencia nacional frente a la ventaja estadounidense, en particular reafirmando su control sobre Taiwán».

El objetivo declarado sería detener el desarrollo estadounidense de la AGI.

En ese momento, el escenario previsto por los investigadores de la RAND da un giro no lineal: según ellos, el choque geopolítico y militar de esta guerra provocaría inmediatamente una congelación mundial de la investigación, por temor a que la AGI se utilizara como arma decisiva. De ahí el nombre del escenario: «mushroom», en referencia al champiñón atómico como igualador definitivo.

La RAND subraya que este escenario se basa en la idea de que el miedo a quedarse atrás en materia de AGI puede llevar a un actor importante a plantearse una escalada extrema.

Se basaría en una serie de tres supuestos arraigados en la percepción del adversario:

  • El avance tecnológico conferiría una «ventaja del primero en actuar» tan decisiva que justificaría un acto de guerra preventiva.
  • Las armas económicas, como las sanciones o los controles a la exportación, se volverían demasiado pesadas hasta el punto de ser percibidas como una amenaza en sí mismas para la supervivencia existencial del régimen adversario.
  • La toma del control militar de recursos estratégicos (semiconductores, centros de datos) podría permitir invertir la relación de poder.

Este escenario describe un mundo en el que, tras este ataque, la comunidad internacional suspendería inmediatamente el desarrollo de la AGI por temor a una militarización fuera de control.

Según la RAND, aunque este escenario parece extremo, ilustra hasta qué punto la percepción, real o no, de la importancia estratégica de la AGI podría cambiar radicalmente los cálculos geopolíticos y desencadenar conflictos de alto riesgo.

Ante las tecnologías disruptivas, la disuasión clásica podría dar paso a lógicas preventivas con consecuencias potencialmente catastróficas.

¿Qué lecciones se pueden extraer de este estudio?

El informe, presentado como una serie de posibilidades útiles para alimentar la reflexión de los responsables políticos, se basa en un objeto que aún no existe —el desarrollo a gran escala de sistemas de IA capaces— y, por lo tanto, se sitúa, por definición, en el terreno de las hipótesis puramente especulativas.

Aunque se basa en una distinción necesariamente sesgada entre «modelo centralizado» y «modelo descentralizado», tiene el mérito de poner de relieve la dimensión esencial de la percepción de los riesgos y la onda de choque potencialmente caótica que encierra la carrera hacia la AGI.

Notas al pie
  1. Barry Pavel, Ivana Ke, Gregory Smith, Sophia Brown-Heidenreich, Lea Sabbag, Ashwin Acharya, Yusuf Mahmood, «How Artificial General Intelligence Could Affect the Rise and Fall of Nations. Visions for Potential AGI Futures», RAND Corporation, 2 de julio de 2025. Todas las citas que figuran a continuación están extraídas directamente del informe.
  2. En aras de la claridad y la legibilidad, utilizamos el acrónimo de la expresión en inglés, de uso más habitual.