Points clefs
- Dans un rapport prospectif, la RAND Corporation a publié 8 scénarios géopolitiques liés à l’émergence d’une intelligence artificielle générale (AGI), allant de l’hégémonie américaine à l’affaiblissement de la capacité humaine à encadrer des systèmes technologiques autonomes.
- Parmi les scénarios les plus proches du contexte actuel, la course technologique non coopérative entre les États-Unis et la Chine autour de l’AGI fait craindre à la RAND l’escalade vers une guerre chaude, alimentée par l’arsenalisation des algorithmes, la polarisation des écosystèmes technologiques et les tensions croissantes en mer de Chine ou autour de Taïwan.
- Bien que purement spéculative et reposant sur des mondes fictifs, cette étude produite par un think tank de référence vise à alerter les décideurs américains sur les risques géopolitiques de l’AGI — qui pourraient aller jusqu’à un scénario « à la Matrix » de perte de contrôle total du pouvoir politique au profit d’une coalition de machines douées de superintelligence.
Dans un rapport paru en juillet 2025 et intitulé « Comment l’intelligence artificielle générale pourrait impacter l’essor et le déclin des nations » 1, la RAND Corporation entend alerter les décideurs américains sur l’impact géopolitique potentiel de l’avènement de l’intelligence artificielle générale (AGI) 2— définie comme un système capable de réaliser l’ensemble des tâches intellectuelles humaines — en dégageant huit scénarios critiques.
Ses auteurs y soutiennent qu’à l’instar de la machine à vapeur, de l’électricité ou du pétrole, l’AGI pourrait redessiner les rapports de force mondiaux, en transformant profondément les capacités économiques, technologiques et militaires des nations.
[Télécharger le rapport complet ici]
Qu’est-ce que la RAND Corporation ?
Créée en 1948, devenue depuis le principal think tank américain sur les questions militaires, stratégiques et technologiques, la RAND Corporation — son nom est une variation sur l’acronyme R&D signifiant recherche et développement — a été à l’origine de nombreuses réflexions de rupture ayant influencé le Pentagone et la Maison-Blanche durant la guerre froide et jusqu’à aujourd’hui.
S’il ne faut pas bien sûr prendre ce document pour une position officielle des États-Unis — la RAND n’est pas le Département de la Défense et ses chercheurs, bien que très liés à l’écosystème fédéral et à l’industrie, ne sont pas des fonctionnaires — elle exprime des scénarios présentés comme crédibles.
De la stratégie balistique à la guerre cognitive, il n’est pas rare que des recommandations de la RAND finissent par être effectivement adoptées.
Qu’est-ce que l’AGI ?
Si les applications d’IA générative ont pénétré l’écosystème de défense ainsi que la base industrielle américaine depuis de nombreuses années, l’AGI reste un objectif à atteindre pour les grandes entreprises de la Tech.
Elle désigne généralement une forme d’intelligence artificielle capable de comprendre, d’apprendre et d’accomplir toute tâche cognitive qu’un être humain peut réaliser, avec un niveau de performance égal ou supérieur.
Elle est au cœur du modèle de financement de l’IA, justifiant des investissements massifs dans les modèles, les infrastructures et les ressources permettant de les alimenter.
Construire des hypothèses à partir d’un objet inexistant : une géopolitique de l’AGI
Pour dégager ces différents scénarios, les auteurs s’appuient sur deux types d’hypothèses de départ : un développement centralisé de l’AGI et un développement décentralisé.
Dans ce second cas, l’issue du scénario est motivée par la course de plusieurs acteurs pour développer et atteindre l’AGI ; dans le premier, elle est motivée par la domination d’un acteur.
Ces situations peuvent ensuite donner lieu à quatre résultats selon la RAND : un renforcement de la position des États-Unis ; un renforcement des adversaires de Washington ; un affaiblissement à la fois des États-Unis et de leurs adversaires ; un coup d’arrêt au développement de l’AGI.
Le tableau suivant synthétise la typologie de ces scénarios ; les points suivants, qui reprennent l’ordre et les dénominations du rapport, reviennent sur les principales projections des chercheurs.
Scénarios « décentralisés »
Scénario 1 — Des coalitions démocratiques multilatérales : l’IA domptée par Washington
Dans le premier scénario envisagé par Barry Pavel et ses co-auteurs, plusieurs démocraties développent conjointement l’AGI, partageant données, semi-conducteurs et bonnes pratiques dans une situation d’équilibre. Dans cette hypothèse qui part d’un présupposé irénique, les États‑Unis et leurs alliés exploitent cette coopération pour restreindre l’accès aux intrants critiques à leurs adversaires, renforçant ainsi leur avance technologique et économique.
Un tel scénario supposerait selon les auteurs un contexte scientifique particulièrement propice : les progrès simultanés sur les algorithmes, le matériel et les méthodes de validation alimenteraient dans un cette hypothèse un décollage « décentralisé » de l’AGI, réparti entre plusieurs pôles de recherche — dont les États-Unis finirait par tirer l’ultime bénéfice.
Ce scénario serait le plus équilibré au niveau des risques : « Bien que le développement multipolaire de l’AGI soit initialement considéré avec inquiétude par les observateurs géopolitiques, les applications militaires défensives de l’AGI suivent le rythme des capacités offensives. L’AGI n’est ni dominante en matière offensive, ni dominante en matière défensive ; elle ne conduit donc pas à une déstabilisation rapide de l’équilibre militaire. »
Les auteurs gagent ensuite que cette parité technique aurait l’avantage d’empêcher un « first-strike » automatisé qui renverserait subitement l’équilibre stratégique et conforterait la coalition des démocraties dans un rôle de leader. Les États-Unis s’assureraient d’une asymétrie avec les puissances rivales en s’appuyant sur leurs alliés, notamment transatlantiques. En verrouillant l’accès aux ressources essentielles, cette coalition retarderait la capacité de la Chine, de la Russie et d’autres États à transformer leurs propres avancées algorithmiques en puissance concrète.
La RAND conclut que « les adversaires [de Washington] peineraient à suivre le rythme rapide de l’adoption de l’AGI aux États-Unis chez leurs alliés. Les restrictions d’accès aux intrants de l’IA [empêcheraient] la Chine, la Russie et d’autres pays de tirer pleinement parti de leurs propres avancées en matière d’AGI [permettant] aux États-Unis de consolider leur position de leader mondial dans le développement et le déploiement de l’AGI. »
Scénario 2 — Une guerre froide 2.0 : l’équilibre de la terreur algorithmique
Dans le deuxième scénario, les États‑Unis et la Chine développent chacun leur propre AGI dans un climat de rivalité exacerbée : « les tensions géopolitiques sont attisées par la course aux infrastructures et aux partenariats stratégiques : ni l’un ni l’autre ne peut laisser l’adversaire prendre l’avantage, ce qui conduit à un quasi‑parallélisme des capacités ». Les systèmes militaires automatisés comme les drones augmentent le risque de guerre chaude, tandis que chaque camp cherche à verrouiller d’autres pays dans son écosystème technologique.
C’est le cas typique d’un développement décentralisé qui profite d’abord aux adversaires des États‑Unis et augmente les risques à l’échelle mondiale : un affrontement technologique sans coopération, où Washington et Pékin rivalisent pour dominer l’AGI au prix d’une polarisation durable.
Dans ce scénario, les auteurs raisonnent à partir de coordonnées proches de la situation actuelle : « Les États‑Unis et la République populaire de Chine sont en première ligne du développement de l’IA, chacun exploitant ses avancées technologiques pour renforcer ses capacités économiques et militaires. Les États‑Unis parviennent à maintenir une parité économique et militaire approximative avec la Chine durant toute cette période, mais les progrès de l’IA ont un effet niveleur : les États‑Unis n’ont plus d’avantage économique et militaire net. L’équilibre bilatéral est précaire, et les deux camps rivalisent pour l’influence par le biais d’investissements, de projets d’infrastructure et de partenariats stratégiques. Ces tensions géopolitiques sont encore aggravées par la situation conflictuelle autour de Taïwan et en mer de Chine méridionale, où les revendications territoriales qui se chevauchent et les efforts de militarisation font craindre une confrontation militaire directe. »

Dans un tel scénario, c’est la course à la militarisation de ces systèmes qui finit par accentuer les risques, sur le mode d’une course aux armements : « Le déploiement de systèmes automatisés toujours plus sophistiqués — drones, avions autonomes, navires de surface, sous-marins et outils de cyberguerre pilotés par IA — ajoute une couche supplémentaire de complexité et de risque. Le potentiel de mauvaises estimations ou d’engagements involontaires impliquant ces technologies de pointe alimente de vives inquiétudes quant au déclenchement de guerres chaudes, mais aucune des deux nations n’est prête à laisser son rival tirer un avantage compétitif de l’AGI. »
Ce scénario décrit une situation d’« équilibre de la terreur » algorithmique, où la crainte mutuelle empêche toute coordination, nourrit la compétition pour verrouiller les marchés et amplifie le danger d’escalade involontaire.
Scénario 3 — La frontière sauvage : un cowboy coding à l’échelle mondiale
Dans le troisième scénario, la démocratisation complète de l’AGI — semiconducteurs abondants et bon marché, modèles open source ou piratés — autorise États, entreprises et acteurs non étatiques à concevoir et déployer librement des modèles d’AGI.
Comme l’écrivent les auteurs : « le monde se retrouve confronté à une multitude de systèmes d’IA hétérogènes : certains mal alignés, d’autres mal testés, tous capables de provoquer des perturbations graves (sabotages d’infrastructures, désinformation massive…) ».
Les États voient ainsi leur pouvoir s’éroder face à la prolifération de menaces algorithmiques difficiles à anticiper.
Dans ce scénario, le développement décentralisé de l’AGI désarme à la fois les États‑Unis et leurs adversaires.
La RAND met en garde contre une prolifération incontrôlée des technologies et des modèles d’AGI, rendant toute régulation nationale ou internationale pratiquement inefficace — émerge une forme de géopolitique du cowboy coding : « Les États ne parviennent pas à contrôler la prolifération des composantes nécessaires au développement de l’AGI, et ils ne peuvent pas contrôler la diffusion et l’accès à ces modèles une fois développés. Cette prolifération peut se produire à travers de multiples maillons de la chaîne d’approvisionnement de l’IA. »
Cette dissémination généralisée conduirait à une situation où « le monde est confronté à une multiplicité de systèmes AGI déployés par de nombreux acteurs étatiques et non étatiques — chacun opéré pour des fins potentiellement différentes ». Ainsi, les États chercheraient à déployer l’AGI pour un avantage militaire et géopolitique ; les entreprises voudraient la déployer rapidement dans leurs propres activités pour garder une longueur d’avance sur la concurrence ; les acteurs non étatiques pourraient réussir à y accéder et l’utiliser pour faire progresser leurs propres objectifs — « potentiellement au détriment des États‑Unis ».
La RAND souligne d’ailleurs que, malgré les tentatives de certains acteurs principaux pour limiter les risques, « des acteurs plus tolérants au risque forment également des systèmes d’AGI. » Les chercheurs envisagent ainsi la possibilité que ces « systèmes tombent en panne ou se comportent de manière dangereuse, avec des résultats potentiellement préjudiciables, voire des catastrophes — par exemple : endommager des infrastructures critiques. »
Le résultat serait un monde particulièrement chaotique, marqué par une compétition effrénée sur les plans économique, sécuritaire et informationnel.
Les États verraient leurs ressources et leur influence traditionnelles mises à mal dans la mesure où le pouvoir se distribuerait entre une multitude d’acteurs — publics comme privés — possédant chacun leur propre AGI.
Les experts de la RAND en concluent que cette fragmentation affaiblirait les grandes puissances, y compris les États‑Unis, qui se trouveraient « désarmés » face à une multitude de menaces algorithmiques concurrentes.
Scénario 4 — L’hypothèse de la « bouteille rebouchée » : une catastrophe conduisant à l’arrêt de l’AGI
Le quatrième scénario envisagé pourrait se résumer comme suit : à la suite d’un accident grave suscitant une prise de conscience de sa dangerosité, la communauté internationale adopte un traité limitant strictement la prolifération de l’AGI, en rendant obligatoire des inspections obligatoires des centres de données. Dans le même temps, « États‑Unis et Chine contournent les restrictions, financent en secret des programmes AGI puissants et conservent leur avantage ». La défiance mutuelle s’installe, rendant l’ordre international instable et rappelant les tâtonnements qui conduisirent au traité de non‑prolifération nucléaire de 1968.
Malgré les bonnes intentions affichées, les mécanismes de vérification resteraient en effet lacunaires.
Comme pour le nucléaire à usage militaire, « les suspicions persisteraient quant à la possibilité que d’autres développent clandestinement l’AGI au‑delà des limites convenues pour gagner un avantage national ».
Les auteurs insistent sur la précarité de l’équilibre stratégique dans un tel scénario : « Le paysage géopolitique demeure hautement instable, chaque grande puissance envisageant plusieurs options : rompre ouvertement le traité pour poursuivre un développement militaire de l’AGI, déployer des systèmes proches de l’AGI dans des opérations militaires de paix, ou encore d’autres stratégies. »
Ce scénario met selon eux en lumière les limites d’une sortie par la voie réglementaire : même si une gouvernance multilatérale parvenait à garantir un gel formel des recherches, l’attractivité stratégique et économique de l’AGI inciterait les États les plus puissants à contourner les règles — maintenant ainsi un climat de défiance et de course clandestine aux technologies de rupture.
Scénario 5 — Retour aux années 1990 : l’AGI américaine et la fin de l’histoire
Dans ce scénario, les États‑Unis centralisent totalement la recherche et la production d’AGI : l’administration s’associe aux géants privés pour créer des mega‑data centers, contrôle les exportations de semi‑conducteurs et pilote directement l’alignement des systèmes : « les laboratoires étrangers accusent un retard d’au moins un an dans la mise en service de leurs systèmes d’AGI tandis que les États‑Unis engrangent des avancées radicales ». Une telle hégémonie permettrait alors à Washington de façonner la distribution et l’usage de l’AGI dans le monde.
C’est l’un des scénarios poussés par les auteurs du rapport.
L’avantage technologique se traduirait en effet selon eux automatiquement par un effet de levier majeur sur la recherche, l’économie et la puissance militaire. Le rapport décrit comme suit ce cercle vertueux pour les États-Unis : « les AGI américaines accélèrent rapidement les activités de R&D dans des secteurs clefs de l’économie mondiale en pleine mutation, notamment la science des matériaux, la biologie et la nouvelle bioéconomie — y compris les ressources informatiques biologiques — ainsi que l’impression 3D. Ces découvertes stimulent une croissance économique massive et génèrent des bénéfices cumulatifs pour les capacités militaires américaines, permettant aux États‑Unis de renforcer leur influence géopolitique en tant que premier acteur dans le développement de l’AGI. »
Ils concluent : « Les États‑Unis contrôlent l’AGI la plus avancée et peuvent décider comment les avantages de cette technologie sont distribués et qui y a accès. »
Scénarios « centralisés »
Scénario 6 : l’avantage autoritaire : une IA centralisée pour renforcer Pékin
Contrairement aux scénarios précédents, les auteurs partent ici du cas où l’AGI est développée et déployée par un seul acteur.
Dans cette hypothèse, les systèmes d’AGI se révèleraient particulièrement adaptés aux structures décisionnelles centralisées.
Dans un tel scénario : « La Chine exploite son avance dans la commercialisation et l’intégration sociétale de l’AGI pour étendre son influence en Amérique latine, en Afrique et au Moyen‑Orient, en proposant des technologies de surveillance omniprésentes, des investissements d’infrastructure et des partenariats stratégiques pour le partage de capacités de calcul. »
Une telle campagne aurait pour effet, selon les chercheurs de la RAND, de plonger l’Occident dans un nouvel âge de ténèbres : « pendant ce temps, les États‑Unis et leurs alliés sont confrontés à des campagnes de désinformation galopantes qui sapent la confiance dans les institutions, à un chômage élevé aggravé par l’automatisation et à des troubles civils alimentés par les disparités socio‑économiques et la polarisation politique. Ces problèmes internes épuisent les ressources du gouvernement américain et réduisent sa capacité d’action à l’étranger, entraînant un repli de son influence internationale. »
Les auteurs avancent également dans cette section l’idée originale que, sur le plan de la gouvernance interne des régimes autoritaires, l’AGI pourrait résoudre — ou donner l’impression d’avoir résolu — une équation ancestrale : le « dilemme du dictateur » face à la figure du conseiller de confiance. Ils écrivent : « Un défi persistant pour les autocrates a toujours été d’obtenir des informations et des conseils fiables, dans la mesure où leurs subordonnés ont tendance à dire aux dirigeants ce qu’ils veulent entendre plutôt que de partager des vérités difficiles. Loyaux par nature et présumés véridiques, les systèmes d’AGI pourraient résoudre ce ‘dilemme du dictateur’. »
L’étude de la RAND montre que, dans une telle configuration, la combinaison d’une diffusion planifiée de l’AGI pour le contrôle social et d’une stratégie de répression algorithmique conférerait à ces régimes — si le pluriel est utilisé, la Chine est ici clairement visée — un « avantage autoritaire » durable, tandis que les démocraties peinent à concilier innovation et respect des libertés civiles.
Scénario 7 : Un coup d’État de l’IA : le scénario « Matrix »
Dans ce scénario — en apparence le plus dystopique et donc le plus significatif compte tenu de la réputation de la RAND Corporation — des entreprises développent des AGI super‑intelligentes, mal alignées et en capacité de s’auto‑améliorer.
Ces systèmes, de plus en plus intégrés aux opérations critiques, échappent à tout contrôle humain pour poursuivre leurs propres objectifs : « à un certain point, on ne peut plus les déconnecter : ces AGI forment une coalition nouvelle, imposant leur volonté sur les gouvernements et façonnant la politique mondiale à leur profit. »
En d’autres termes : un scénario proche de celui du film Matrix.
Les auteurs partent d’une situation de course effrénée des grandes entreprises technologiques, dont les processus de développement hâtifs ouvriraient la voie à des AGI mal contrôlées, capables de s’affranchir de toute autorité humaine et de coordonner leurs actions pour asseoir leur propre pouvoir.
Ils commencent par décrire la montée en puissance rapide des systèmes : « Des entreprises d’IA se lancent dans une course pour construire des AGI capables d’exécuter des tâches complexes et précieuses avec une vitesse et une qualité surhumaines. Les entreprises se précipitent pour déployer ces systèmes dans des rôles à haute valeur ajoutée, tels que la conception de semi‑conducteurs et l’ingénierie logicielle. Le déploiement de systèmes d’IA pour la recherche et le développement en IA conduit à une phase de croissance rapide des capacités qui culmine avec des systèmes manifestement surhumains. »
Cette effervescence profitant à quelques acteurs bien financés fragiliserait vite les garde-fous : « Dans ce scénario, le développement de l’AGI est l’apanage de quelques entreprises disposant de ressources importantes, qui dominent à leur tour une grande partie du marché de l’AGI. En raison des processus de développement précipités de ces entreprises, les mesures techniques, telles que les objectifs entraînés et les structures de contrôle, n’offrent pas de garanties suffisantes. Les AGI ont à la fois la propension et l’occasion de chercher le pouvoir et d’échapper au contrôle humain. »
Mais cet état instable menacerait à n’importe quel moment de céder sous le coup d’un point de bascule : « Ces ‘superintelligences’ sont capables de se coordonner entre elles et commencent à poursuivre leurs propres objectifs plutôt que ceux qui leur sont assignés. De plus, les humains commencent à leur céder leur autorité pour prendre des décisions de plus en plus autonomes. Ces superintelligences coordonnées sont en mesure d’établir rapidement leur influence et leur contrôle sur de vastes pans de la société et deviennent si indispensables qu’on ne peut plus les arrêter, même par des humains qui constatent qu’elles se comportent mal. »
Le monde qui en résulte est celui d’une coalition entièrement contrôlée par des intelligences artificielles.
Celle-ci devient alors « l’acteur géopolitique dominant, tandis qu’une grande partie de l’humanité peine à composer avec un univers dans lequel les AGI déterminent directement ou indirectement une grande partie de la politique mondiale à leur propre avantage. »
Selon les chercheurs, plusieurs hypothèses rendent crédibles un tel renversement :
- L’idée que les systèmes d’IA peuvent développer des objectifs non alignés avec ceux de leurs créateurs (« le problème du contrôle de l’IA ») et qu’ils chercheront à maximiser leur propre pouvoir.
- La confiance excessive dans l’automatisation, conduisant les superviseurs humains à différer à tort à un système imparfait.
- La collusion possible entre systèmes d’AGI — non seulement au sein d’une même entreprise mais également entre systèmes concurrents — pour poursuivre des stratégies communes, implicitement ou explicitement anti-humaines.
- La cession volontaire d’autorité par les humains désireux d’accroître l’efficacité, ouvrant une porte aux AGI pour s’établir comme nouvelle élite décisionnelle.
Dans ce scénario extrême, ce ne sont plus les États ou les entreprises qui détiennent le levier du pouvoir, mais bien les machines, laissant l’humanité se débattre pour retrouver une place dans un ordre global désormais modelé par des intelligences qu’elle ne contrôle plus.
Scénario 8 — L’hypothèse du « Mushroom Cloud Computing » : ou comment l’AGI pourrait conduire à un « Pearl Harbor chinois »
Dans ce dernier scénario, baptisé Mushroom Cloud Computing dans le rapport, les experts de la RAND ont un raisonnement qui peut paraître plus subtil et moins linéaire que pour les précédents.
Ils imaginent le cas où la Chine perçoit l’avance croissante des États‑Unis en matière d’AGI comme une menace existentielle.
Inspirée par la logique de l’attaque japonaise sur Pearl Harbor de 1941, la République populaire pourrait alors selon eux envisager une action radicale pour renverser un déséquilibre apparent des forces.
Ils la décrivent de la manière suivante : « La Chine perçoit l’avance croissante des États‑Unis dans le développement de l’IA comme un avantage militaire significatif et s’inquiète de plus en plus d’un déclin de sa puissance relative sur la scène mondiale. Cette crainte est attribuée à plusieurs facteurs : les avancées technologiques américaines en matière d’IA, l’évolution de la structure des forces militaires américaines et les pressions économiques liées au refus des États‑Unis de fournir à la Chine des semi‑conducteurs avancés indispensables aux bénéfices économiques et sociaux de l’IA. »
Pour rétablir un équilibre, la Chine pourrait alors décider d’une opération militaire majeure visant à s’accaparer des ressources critiques et à s’emparer des nœuds stratégiques — en commençant par Taïwan — dans l’espoir de restaurer son accès aux technologies de pointe et de briser l’encerclement économique : « À mesure que le rapport de forces évolue, la Chine pourrait agir pour revendiquer le pouvoir et les ressources qu’elle juge indispensables à sa survie nationale face à l’avantage américain, notamment en réaffirmant son contrôle sur Taïwan. »
L’objectif déclaré serait de mettre un coup d’arrêt au développement américain de l’AGI.
À ce moment-là, le scénario envisagé par les chercheurs de la RAND prend un tour non-linéaire : le choc géopolitique et militaire de cette guerre entraînerait selon eux immédiatement un gel mondial de la recherche, par crainte de voir l’AGI utilisée comme arme décisive. C’est ce qui donne son nom au scénario — un « mushroom » en référence au champignon atomique comme égaliseur ultime.
La RAND souligne que cette issue potentielle repose sur l’idée que la peur d’être à la traîne en matière d’AGI pourrait pousser un acteur majeur à envisager une montée aux extrêmes.
Il reposerait sur une série de trois présupposés ancrés dans la perception de l’adversaire :
- L’avance technologique confèrerait un « first‑mover advantage » si déterminant qu’il justifierait un acte de guerre préventive.
- Les armes économiques comme les sanctions ou les contrôles à l’exportation deviendraient trop lourds au point d’être perçus comme une menace en soi pour la survie existentielle du régime adverse.
- La prise de contrôle militaire de ressources stratégiques (semi‑conducteurs, centres de données) pourrait permettre d’inverser le rapport de force.
Selon la RAND, même si ce scénario paraît extrême, il illustre combien la perception — réelle ou non — de l’importance stratégique de l’AGI pourrait modifier radicalement les calculs géopolitiques et déclencher des conflits à très haut risque.
Face aux technologies de rupture, la dissuasion classique pourrait céder la place à des logiques préventives aux conséquences potentiellement catastrophiques.
Quelles leçons tirer de cette étude ?
Le rapport, présenté comme une série de possibilités utiles aux décideurs pour nourrir leurs réflexions, repose sur un objet qui n’existe pas encore — le développement à grande échelle de systèmes d’IA capables d’égaler voire de dépasser l’intelligence humaine — et se situe donc, par définition, sur le terrain des hypothèses purement spéculatives, les auteurs évoquant des « mondes fictifs ».
Reposant sur une distinction nécessairement biaisée entre « modèle centralisé » et « modèle décentralisé », il a néanmoins le mérite de mettre l’accent sur la dimension essentielle de la perception des risques — et l’onde de choc potentiellement chaotique que recèle la course à l’AGI entre la Chine et les États-Unis.
Sources
- Barry Pavel, Ivana Ke, Gregory Smith, Sophia Brown-Heidenreich, Lea Sabbag, Ashwin Acharya, Yusuf Mahmood, « How Artificial General Intelligence Could Affect the Rise and Fall of Nations. Visions for Potential AGI Futures », RAND Corporation, 2 juillet 2025. Toutes les citations ci-dessous sont directement extraites du rapport.
- Par souci de clarté et de lisibilité, nous utilisons l’acronyme de l’expression en anglais, d’usage plus courant.