Comment l’IA a provoqué la crise financière de 2028 : le moment Citrini et sa critique
James van Geelen est quasiment inconnu.
Pourtant, Wall Street a tremblé au moment de la parution d’une note d’anticipation de son entreprise de conseil en investissement datée du 30 juin 2028 prévoyant un effondrement de l’économie à cause de l’IA — ou plutôt : à cause d’une crise de l’intelligence.
Nous la traduisons et la commentons ligne à ligne.
- Auteur
- Le Grand Continent •
- Image
- © Caters/SIPA
Dimanche 22 février, James van Geelen, fondateur de l’entreprise de conseil en investissement Citrini Research, a publié sur son blog Substack un récit d’anticipation économique.
Pastichant le style d’un memo économique écrit depuis l’an 2028, il envisage une adoption généralisée des outils d’IA, esquissant, pour les États-Unis puis le monde, une crise générale de l’emploi causée par une crise de l’intelligence.
Contrairement aux analyses courantes, James van Geelen relie cependant cette crise aux autres indicateurs macroéconomiques pour écrire le scénario d’une catastrophe généralisée.
D’une perturbation du marché de l’emploi déqualifiant une grande partie des cols blancs, la crise devient financière alors que les revenus de ces travailleurs diminuent, les rendant incapables de rembourser les crédits hypothécaires souscrits ou de verser les annuités d’assurance-vie. En parallèle, l’État est éprouvé par la baisse de ses revenus tirés des charges sociales — les salaires étant tirés vers le bas — à un moment où son assistance est d’autant plus nécessaire pour le nombre croissant de chômeurs. En proie à une forme d’inertie réglementaire, cet État échoue à proposer une politique redistributive pour les profits des entreprises d’IA — seules gagnantes de la dynamique économique générale.
L’article mise sur la possibilité pour l’IA de se substituer aux travailleurs qualifiés, plutôt que de les assister. Cette possibilité séparerait l’IA des autres ruptures technologiques majeures des deux siècles passés, ouvrant un processus économique inédit.
À l’inverse des cycles de « destruction créatrice » où la disparition de certains emplois s’accompagne de la création de nouveaux, l’IA rend possible un cercle vicieux où la destruction n’apporte que davantage de destruction. Fragilisées par la baisse de la consommation que produit la baisse des revenus des travailleurs — que l’IA déplace vers des emplois moins qualifiés — les entreprises n’ont d’autre choix que d’investir davantage dans l’IA pour stabiliser leur situation, déclenchant une nouvelle vague de licenciements.
La possibilité pour l’IA de se substituer aux travailleurs est l’hypothèse fondatrice de cet article : elle en est aussi la principale limite. Comme l’écrit Frank Flight, qui a produit pour Citadel Securities une critique de cet texte dont nous reprenons les commentaires ci-dessous : « Pour que l’IA produise un choc négatif durable sur la demande, l’économie doit connaître une accélération significative de son adoption, une substitution quasi totale de la main-d’œuvre, aucune réponse budgétaire, une absorption négligeable des investissements et une expansion illimitée de la puissance de calcul. » Autant d’éléments qui permettent de nuancer le récit d’anticipation de Citrini.
Macro Memo : les conséquences d’une intelligence sans limites
Nous sommes le 30 juin 2028. Ce matin, le taux de chômage s’est établi à 10,2 %, augmentant de façon inattendue de 0,3 %. Les bourses ont chuté de 2 % à l’annonce de ce chiffre, portant la baisse cumulative du S&P à 38 % par rapport à son plus haut niveau d’octobre 2026.
Les traders sont devenus quasiment insensibles à ce phénomène. Il y a six mois, un tel chiffre aurait pourtant déclenché un coupe-circuit.
Aux États-Unis, les coupe-circuits sont un système mis en place en 1988, à la demande du Congrès américain après le krach d’octobre 1987. À partir d’un certain pourcentage de baisse du cours des actions, ils permettent de bloquer toute négociation sur celles-ci.
Il a suffi de deux ans pour passer d’une situation « maîtrisée » et « sectorielle » à une économie qui ne ressemble plus à celle dans laquelle nous avons grandi. Le Macro Memo de ce trimestre est notre tentative de reconstituer la séquence — une analyse rétrospective de l’économie d’avant la crise.
En octobre 2026, l’euphorie était palpable. Le S&P 500 flirtait avec les 8 000 points, le Nasdaq dépassait les 30 000. La première vague de licenciements due à l’obsolescence humaine a commencé au début de l’année 2026, et ces licenciements ont eu exactement l’effet escompté. Les marges se sont élargies, les bénéfices ont dépassé les prévisions, les actions ont rebondi. Les bénéfices records des entreprises ont été réinvestis dans l’IA.
Frank Flight Pour considérer le cas des États-Unis, la vague de licenciements que devait apporter l’IA tarde pour l’instant à se manifester. Selon les données de la Réserve fédérale de Saint-Louis, l’utilisation de l’IA dans le cadre professionnel se stabilise plutôt qu’elle n’augmente, ne laissant pas présager un remplacement imminent de nombreux travailleurs. De même, malgré le discours actuel sur les suppressions d’emplois, les offres d’emploi pour les ingénieurs en logiciels augmentent rapidement dans le pays, avec une hausse de 11 % par rapport à l’année précédente.
Les indicateurs clefs étaient toujours excellents. Le PIB nominal affichait régulièrement une croissance annualisée comprise entre 5 et 9 %. La productivité était en plein essor. La production réelle par heure augmentait à un rythme jamais vu depuis les années 1950, grâce à des agents IA qui ne dorment pas, ne prennent pas de congés maladie et n’ont pas besoin de sécurité sociale ou de mutuelle.
Les propriétaires de ces capacités de calcul étaient devenus immensément riches à mesure que les coûts de main-d’œuvre disparaissaient. Dans le même temps, la croissance des salaires réels s’était effondrée. Malgré la fierté de l’administration sur la productivité record, les cols blancs avaient perdu leur emploi au profit des machines et ont été contraints d’accepter des postes moins bien rémunérés.
Lorsque des fissures ont commencé à apparaître dans l’économie de la consommation, les experts économiques ont popularisé l’expression de « PIB fantôme » : une production qui apparaît dans les comptes nationaux mais qui ne circule jamais dans l’économie réelle.
À tous égards, l’IA dépassait les attentes. Et le marché était totalement tourné vers l’IA. Le seul problème était l’économie.
Il aurait dû être clair depuis le début qu’un seul cluster de GPU dans le Dakota du Nord générant la production précédemment attribuée à 10 000 emplois en cols blancs du centre-ville de Manhattan relevait davantage d’une pandémie économique que d’une panacée économique. La vitesse de circulation de la monnaie s’était stabilisée. Mais l’économie de consommation centrée sur l’humain — qui représentait 70 % du PIB à l’époque — s’était effondrée.
Nous aurions probablement pu nous en rendre compte plus tôt si nous avions simplement demandé combien d’argent les machines dépensent en biens non essentiels. (Un indice : zéro.)
Les capacités de l’IA se sont améliorées, les entreprises ont eu besoin de moins de travailleurs, les licenciements de cadres ont augmenté, les travailleurs déplacés ont moins dépensé, la pression sur les marges a poussé les entreprises à investir davantage dans l’IA, les capacités de l’IA se sont améliorées — tout ceci au sein d’une boucle de rétroaction négative et sans frein naturel.
Cette spirale était celle du déplacement de l’intelligence humaine.
Les cols blancs ont vu leur capacité de gain structurellement compromise : leurs dépenses ont diminué en conséquence. Alors que leurs revenus constituaient le fondement du marché hypothécaire de 13 000 milliards de dollars, ils ont obligé les souscripteurs à réévaluer si les prêts hypothécaires de premier ordre étaient toujours rentables.
Sans véritable cycle de défaut de paiement, les dix-sept dernières années ont bénéficié aux entreprises privées proposant des contrats logiciels, soutenues par des fonds de capital-investissement qui supposaient que leurs annual recurring revenues resteraient stables. La première vague de défauts de paiement due à la perturbation de l’IA au milieu de l’année 2027 a remis en cause cette hypothèse.
Cela aurait été gérable si la perturbation était restée limitée aux logiciels — mais ce ne fut pas le cas. À la fin de l’année 2027, elle menaçait tous les modèles économiques basés sur l’intermédiation : de nombreuses entreprises fondées sur la monétisation des interactions entre humains se sont effondrées.
Le système s’est avéré être une longue chaîne de paris corrélés sur la croissance de la productivité des cols blancs. Le krach de novembre 2027 n’a fait qu’accélérer toutes les boucles de rétroaction négative déjà en place.
On nous dit depuis plus d’un an que ces mauvaises nouvelles en sont de bonnes. Nous ne comprenons pas encore pourquoi.
Le gouvernement commence à examiner des propositions, mais la confiance du public dans sa capacité à mettre en place un plan de sauvetage s’est amenuisée. Les réponses politiques ont toujours été en retard sur la réalité économique, mais l’absence d’un plan global menace désormais d’accélérer la spirale déflationniste.
Comment tout a commencé
À la fin de l’année 2025, les outils de codage agentique ont fait un bond en avant en termes de capacités.
Un développeur compétent travaillant avec Claude Code ou Codex pouvait désormais reproduire les fonctionnalités de base d’un produit SaaS de milieu de gamme en quelques semaines — pas de manière parfaite ni en traitant tous les cas particuliers, mais suffisamment bien pour que le directeur informatique chargé d’examiner un renouvellement annuel de 500 000 dollars se pose la question suivante : « et si nous le construisions nous-mêmes ? »
SaaS signifie Software as a Service. Il s’agit d’un logiciel fourni par cloud et accessible par abonnement de l’entreprise sans qu’elle dispose d’un support physique de celui-ci.
Les exercices financiers coïncident généralement avec les années civiles, de sorte que les dépenses des entreprises pour 2026 avaient été fixées au quatrième trimestre 2025, alors que l’« IA agentique » était encore un mot à la mode. L’examen semestriel suivant a été la première occasion pour les équipes d’approvisionnement de prendre des décisions en ayant une visibilité sur ce que ces systèmes pouvaient réellement faire. Certains ont vu leurs propres équipes internes mettre au point en quelques semaines des prototypes reproduisant des contrats SaaS à six chiffres.
Cet été-là, nous avons discuté avec un responsable des achats d’une entreprise figurant dans le Fortune 500. Il nous a parlé d’une de ses négociations budgétaires avec les fournisseurs de SaaS. Ceux-ci s’attendaient à suivre la même stratégie que l’année dernière : une augmentation annuelle des prix de 5 % — et l’argumentaire standard : « votre équipe dépend de nous ».
Le responsable des achats leur a dit qu’il était en pourparlers avec OpenAI pour que leurs « ingénieurs déployés sur le terrain » utilisent des outils d’IA afin de remplacer complètement ces fournisseurs. En conséquence, il a obtenu que le contrat avec ceux-ci soit renouvelé avec une remise de 30 %.
Pour ce responsable, c’était un bon résultat. Les logiciels SaaS longtail, comme Monday.com, Zapier et Asana, avaient connu un sort bien pire.
Le SaaS (software as a service) longtail est un modèle de livraison de logiciels basé sur le cloud. Plutôt que d’acheter les logiciels pour les installer localement, les clients d’entreprises de SaaS s’abonnent pour obtenir un accès par cloud.
Les investisseurs s’attendaient, voire espéraient, que ces logiciels soient durement touchés. Ils représentaient peut-être un tiers des dépenses pour la stack, mais ils étaient manifestement exposés. Les systèmes d’enregistrement, en revanche, étaient censés être à l’abri de toute perturbation.
Ce n’est qu’avec le rapport du troisième trimestre 2026 de ServiceNow qu’un mécanisme de rétroaction est devenu plus clair.
ServiceNow est une entreprise états-unienne de SaaS fondée en 2003. Elle est notamment connue pour ses logiciels de suivi des bugs informatiques.
En octobre 2026, un article de Bloomberg titre : « La croissance de la valeur contractuelle annuelle nette de ServiceNow ralentit de 23 % à 14 % ; l’entreprise annonce une réduction de 15 % de ses effectifs et un ‘programme d’efficacité structurelle’. Les actions chutent de 18 %. »
Le SaaS n’était pas mort pour autant. Il fallait encore analyser le rapport coût-bénéfice de l’exploitation et du support des développements internes aux entreprises. Mais un tel développement interne était en tout état de cause devenu une option : celle-ci a été prise en compte dans les négociations tarifaires.
Plus important encore, peut-être, le paysage concurrentiel avait changé. L’IA avait facilité le développement et la mise en place de nouvelles fonctionnalités, ce qui avait entraîné une disparition de la différenciation. Les acteurs en place se livraient à une course à la baisse des prix, dans une lutte acharnée entre eux et avec les nouveaux concurrents qui faisaient leur apparition. Encouragés par les progrès considérables réalisés en matière de codage agentique et n’ayant aucune structure de coûts héritée à protéger, ces derniers ont pris des parts de marché de manière agressive.
La nature interconnectée de ces systèmes n’était pas non plus pleinement prise en compte avant cet article de Bloomberg.
ServiceNow vendait des licences. Lorsque les clients de Service Now issus du Fortune 500 eurent réduit leurs effectifs grâce aux progrès de l’IA, ils annulèrent une part de leurs licences. Ces réductions qui augmentaient leurs marges détruisaient mécaniquement la base de revenus de ServiceNow : l’entreprise qui vendait des solutions d’automatisation des flux de travail était perturbée par une meilleure automatisation de ces mêmes flux. Sa réponse a été de réduire ses effectifs et d’utiliser les économies réalisées pour financer la technologie même qui la perturbait.
ServiceNow n’aurait pas pu faire autrement. Son cas confirmait une règle générale : les entreprises les plus menacées par l’IA étaient celles qui l’avaient le plus adoptée.
Cela semble évident avec le recul, mais ce n’était vraiment pas le cas à l’époque — du moins pas pour moi. Le modèle historique de disruption voulait que les acteurs en place résistent aux nouvelles technologies, perdent des parts de marché au profit de nouveaux entrants plus agiles et meurent lentement. C’est ce qui était arrivé à Kodak, à Blockbuster, à BlackBerry.
Ce qui s’est passé en 2026 était différent : les acteurs en place n’ont pas résisté parce qu’ils n’en avaient pas les moyens.
Avec des actions en baisse de 40 à 60 % et des conseils d’administration exigeant des réponses, les entreprises menacées par l’IA ont fait la seule chose qu’elles pouvaient faire : elles ont réduit leurs effectifs, réinvesti les économies réalisées dans des outils d’IA et utilisé ces outils pour maintenir leur production à moindre coût.
La réponse individuelle de chaque entreprise était rationnelle. Le résultat collectif a été catastrophique.
Chaque dollar économisé sur les effectifs a été réinvesti dans des capacités d’IA qui ont rendu possible la prochaine vague de suppressions d’emplois.
Les logiciels n’étaient que le début d’une nouvelle séquence. Ce que les investisseurs ont manqué pendant qu’ils débattaient pour savoir si les multiples entreprises de SaaS avaient atteint leur niveau le plus bas, c’est que cette boucle de rétroaction avait déjà échappé au secteur des logiciels. La même logique qui justifiait la réduction des effectifs de ServiceNow s’appliquait à toutes les entreprises ayant une structure de coûts liés aux cols blancs.
Quand le monde est devenu sans frottement
Au début de 2027, l’utilisation des modèles de langage (LLM) était devenue la norme. Les gens utilisaient des agents IA sans même savoir qu’ils travaillaient avec IA, de la même manière que les personnes qui n’avaient jamais appris ce qu’était le « cloud computing » utilisaient les services de streaming. Les humains considéraient l’IA de la même manière que la saisie automatique ou la vérification orthographique : une simple fonctionnalité que leur téléphone pouvait maintenant offrir.
L’agent d’achat open source de Qwen a été le catalyseur de l’utilisation de l’IA pour les décisions des consommateurs. En quelques semaines, tous les principaux assistants IA avaient intégré une fonctionnalité d’achat par agent. Grâce à la distillation de modèles, ces agents pouvaient fonctionner sur des téléphones et des ordinateurs portables — et pas seulement sur des instances cloud, ce qui réduisait considérablement le coût marginal de l’inférence.
Qwen est une famille de grands modèles de langage développés par Alibaba Cloud, société chinoise de cloud computing. La distillation de modèle, quant à elle, est une technique d’apprentissage automatique par transfert de connaissances — un petit modèle, de langage par exemple, étant entraîné sur un plus grand.
Ce qui aurait dû inquiéter davantage les investisseurs, c’est que ces agents n’attendaient pas qu’on leur demande quoi faire. Ils fonctionnaient en arrière-plan selon les préférences de l’utilisateur. Le commerce a cessé d’être une série de décisions humaines distinctes pour devenir un processus d’optimisation continu, fonctionnant 24 heures sur 24 et 7 jours sur 7 pour le compte de chaque consommateur connecté. En mars 2027, l’individu médian aux États-Unis consommait 400 000 tokens par jour, soit 10 fois plus qu’à la fin de 2026.
Le maillon suivant de la chaîne était déjà en train de se casser.
L’intermédiation
Au cours des cinquante dernières années, l’économie américaine a construit une gigantesque couche d’extraction de rente sur les limites humaines : les choses prennent du temps, la patience s’épuise, la familiarité avec une marque donnée remplace le souci de recherche, et la plupart des gens sont prêts à accepter un mauvais prix pour éviter de cliquer davantage. Des milliers de milliards de dollars de valeur d’entreprise dépendaient de la persistance de ces contraintes.
Au départ, les choses étaient assez simples : les agents supprimaient tout frottement.
Alors que les abonnements et les adhésions se renouvelaient passivement malgré des mois d’inutilisation, ou que les prix de lancement doublaient insidieusement après la période d’essai, chacun de ces éléments devenait une « situation de prise d’otage » que les agents d’achat pouvaient désormais négocier. En conséquence, la valeur moyenne de la durée de vie d’un client — l’indicateur sur lequel reposait toute l’économie de l’abonnement —, avait nettement diminué.
Les agents consommateurs ont commencé à changer le fonctionnement de presque toutes les transactions de consommation.
Les humains n’avaient pas vraiment le temps de comparer les prix sur cinq plateformes concurrentes avant d’acheter une boîte de barres protéinées. Les machines, elles, le pouvaient.
Les plateformes de réservation de voyages ont été les premières victimes de ce phénomène, parce qu’elles étaient les plus simples. Au quatrième trimestre 2026, les agents IA pouvaient établir un itinéraire complet — vols, hôtels, transport terrestre, optimisation des remises pour fidélité, contraintes budgétaires, remboursements — plus rapidement et à moindre coût que n’importe quelle plateforme.
Les renouvellements d’assurance, dont le modèle reposait entièrement sur l’inertie des assurés, ont été réformés. Les agents qui renégociaient votre couverture chaque année ont démantelé les 15 à 20 % de primes que les assureurs tiraient des renouvellements passifs.
Les conseils financiers, la préparation des déclarations fiscales, le travail juridique de routine : toutes les catégories dans lesquelles la proposition de valeur du prestataire de services se résumait dans la formule « je vais vous aider à naviguer dans cette complexité que vous trouvez ennuyeuse », ont été perturbées. Les agents ne sont rebutés par rien.
Même les domaines que nous pensions protégés par la valeur des relations humaines se sont révélés fragiles.
Le secteur de l’immobilier, où les acheteurs toléraient depuis des décennies des commissions de 5 à 6 % en raison de l’asymétrie d’information entre l’agent et le consommateur, s’est effondré lorsque les agents IA équipés d’un accès aux multiple listing services et de décennies de données transactionnelles ont pu reproduire instantanément la base de connaissances. Un article publié en mars 2027 par le côté vendeur a trouvé un nom pour ce phénomène : « violence d’agent à agent ». D’un autre côté, la commission médiane côté acheteur dans les grandes métropoles était passée de 2,5-3 % à moins de 1 %, et une part croissante des transactions était conclue sans aucun agent humain côté acheteur.
Nous avions surestimé la valeur des « relations humaines ». Il s’avère que ce que les gens appelaient des « relations » n’était souvent qu’une friction avec un visage amical.
Et ce n’était que le début des perturbations pour la couche d’intermédiation.
Les entreprises prospères avaient dépensé des milliards pour exploiter efficacement les particularités du comportement des consommateurs et de la psychologie humaine. Ces particularités, désormais, n’avaient plus d’importance.
Les machines optimisées pour le prix et l’adéquation ne se soucient pas de votre application préférée ou des sites web que vous consultez habituellement depuis quatre ans, ni ne ressentent l’attrait d’une expérience de paiement bien conçue. Elles ne se lassent pas et n’acceptent pas l’option la plus facile ou le choix par défaut : « je commande toujours ici. »
La diffusion de ces machines avait ainsi détruit un type particulier de rempart : l’intermédiation habituelle. DoorDash en était l’exemple parfait.
DoorDash est une entreprise états-unienne spécialisée dans la livraison de nourriture. Elle est majoritaire sur le marché des États-Unis depuis 2019, ayant dépassé Uber Eats en novembre 2018.
Les agents de codage avaient fait chuter les coûts d’entrée pour le lancement d’une application de livraison. Un développeur compétent pouvait déployer un concurrent fonctionnel en quelques semaines — et des dizaines l’ont fait — attirant les chauffeurs loin de DoorDash et Uber Eats en leur reversant 90 à 95 % des frais de livraison. Les tableaux de bord multi-applications permettaient aux travailleurs indépendants de suivre les commandes entrantes provenant de vingt ou trente plateformes à la fois : ceux-ci n’étaient ainsi plus captifs de l’une d’entre elles seulement, comme c’était le cas auparavant. Le marché s’est fragmenté du jour au lendemain et les marges ont été réduites à presque rien.
Les agents IA ont accéléré la destruction des deux côtés : ils ont permis aux concurrents de se développer, puis ils les ont utilisés.
DoorDash avait prospéré selon un modèle simple : « Vous avez faim, vous êtes paresseux : voici une application sur votre écran d’accueil pour vous. »
Mais un agent n’a pas d’écran d’accueil.
Il consulte DoorDash, Uber Eats, le site d’un restaurant et vingt autres options afin de pouvoir choisir à chaque fois les frais les plus bas et la livraison la plus rapide. La fidélité habituelle à une application — qui est la base même du modèle économique des plateformes — n’existe tout simplement pas pour une machine.
Ce phénomène était étrangement poétique : il était peut-être le seul exemple où les agents rendaient service aux cols blancs bientôt déplacés. Lorsque ces cols blancs se sont retrouvés livreurs, au moins la moitié de leurs revenus n’allaient pas à Uber et DoorDash. Bien sûr, ce service rendu par la technologie n’a pas duré longtemps, car les véhicules autonomes se sont multipliés.
Une fois que les agents ont contrôlé la transaction, ils sont partis à la recherche d’opportunités plus grandes.
Puisqu’il n’y a jamais qu’un nombre limité de comparaisons de prix et d’agrégations à effectuer, le meilleur moyen de faire économiser de l’argent à l’utilisateur de manière répétée, en particulier lorsque les agents ont commencé à effectuer des transactions entre eux, était plutôt de supprimer les frais. Dans le commerce de machine à machine, les frais d’interchange de 2 à 3 % des cartes bancaires sont devenus une cible évidente.
Les agents se sont mis en quête d’options plus rapides et moins coûteuses que les cartes. La plupart ont opté pour l’utilisation de stablecoins via Solana ou Ethereum L2, où le règlement était quasi instantané et le coût de la transaction se mesurait en fractions de centime.
Le 29 avril 2027, le chapô d’un article de Bloomberg alignait : « Mastercard premier trimestre 2027 : le chiffre d’affaires net est de + 6 % en glissement annuel. La croissance du volume d’achat ralentit à + 3,4 % en glissement annuel contre + 5,9 % au trimestre précédent. La direction note ‘l’optimisation des prix par les agents’ et ‘la pression dans les catégories non essentielles.’ »
Le rapport du premier trimestre 2027 de Mastercard marquait un point de non-retour.
Le commerce par agent était passé d’une histoire de produit à une histoire de plomberie. Le lendemain, les actions de l’entreprise chutaient de 9 %. Visa a connu le même sort mais a réduit ses pertes après que les analystes aient souligné son positionnement plus solide dans l’infrastructure des stablecoins.
Le commerce par agent contournant les commissions d’interchange représentait un risque bien plus important pour les banques axées sur les cartes comme pour les sociétés dont la seule activité était l’émission de ces mêmes cartes. Celles-ci percevaient la majorité de ces frais de 2 à 3 % et avaient construit des segments commerciaux entiers autour de programmes de fidélité.
American Express avait été la plus durement touchée, subissant à la fois les effets négatifs de la réduction de ses effectifs administratifs, qui avait réduit sa clientèle, et du contournement des commissions d’interchange par les agents, qui avait détruit son modèle de revenus. Les actions de Synchrony, Capital One et Discover avaient également chuté de plus de 10 % au cours des semaines suivantes.
Tous leurs avantages concurrentiels reposaient sur les frictions — et celles-ci étaient en train de disparaître.
Du risque sectoriel au risque systémique
Jusqu’en 2026, les marchés avaient considéré l’impact négatif de l’IA comme un phénomène sectoriel. Les secteurs des logiciels et du conseil avaient été laminés, l’économie des paiements et des péages avait été ébranlée — mais l’économie dans son ensemble semblait se porter bien. Le marché du travail, bien qu’en perte de vitesse, n’était pas en chute libre.
L’opinion générale était que la destruction créatrice faisait partie de tout cycle d’innovation technologique : elle serait douloureuse à certains égards, mais les avantages nets globaux de l’IA l’emporteraient sur les inconvénients.
Notre note macroéconomique de janvier 2027 affirmait que ce modèle était erroné.
L’économie américaine est une économie de services tertiaires. Les cols blancs représentaient 50 % de l’emploi et généraient environ 75 % des dépenses de consommation non-essentielles. Les entreprises et les emplois que l’IA détruisait n’avaient pas qu’un faible lien avec l’économie américaine : ils étaient l’économie américaine.
On assène souvent un argument : « l’innovation technologique détruit des emplois, puis en crée encore plus. » Cet argument est populaire et convaincant parce qu’il a été pertinent pendant deux siècles : même si nous ne pouvions pas imaginer quels seraient les emplois de demain, ils allaient sûrement se matérialiser.
Les distributeurs automatiques de billets ont rendu les agences bancaires moins coûteuses à exploiter, ce qui a incité les banques à en ouvrir davantage et a entraîné une augmentation des emplois de guichet au cours des vingt années suivantes. Internet a bouleversé les agences de voyage, les Pages Jaunes et le commerce de détail traditionnel, mais il a inventé à la place des industries entièrement nouvelles qui ont créé de nouveaux emplois.
Cependant, chaque nouvel emploi nécessitait un être humain pour l’exercer.
L’IA est désormais une intelligence générale qui s’améliore dans les tâches mêmes sur lesquelles les humains pourraient être redéployés. Les codeurs perdant leur emploi à cause de l’IA ne peuvent pas simplement passer à la « gestion de l’IA » — puisque l’IA est déjà capable de se gérer elle-même.
Aujourd’hui, les agents IA gèrent des tâches de recherche et développement qui prendraient d’ordinaire plusieurs semaines. Cette croissance exponentielle a bouleversé nos conceptions de ce qui était possible, même si chaque année, les professeurs de Wharton essayaient d’adapter les données à une nouvelle courbe sigmoïde.
Frank Flight La diffusion technologique a toujours suivi une courbe en S, ou courbe sigmoïde — dont la croissance est d’abord lente, puis rapide, avant de stabiliser à un palier supérieur.
L’adoption précoce d’une nouvelle technologie est lente et coûteuse. Alors que la croissance s’accélère à mesure que les coûts diminuent et que des infrastructures complémentaires se développent, la saturation s’installe et les adoptants marginaux sont moins productifs ou moins rentables, ce qui entraîne un ralentissement de la croissance.
Malgré cela, les marchés extrapolent souvent la phase d’accélération de manière linéaire. L’histoire montre plutôt que le rythme d’adoption se stabilise, car l’intégration organisationnelle est coûteuse, la réglementation émerge et les rendements marginaux diminuent dans le déploiement économique. Le risque de remplacement diminue avec un rythme d’adoption plus lent.
Les agents d’IA écrivent la grande majorité du code. Les plus performants d’entre eux sont nettement plus intelligents, dans quasiment tous les domaines, que presque tous les humains. Et ils ne cessent de devenir moins chers.
L’IA a créé de nouveaux emplois : prompt engineers, chercheurs en sécurité IA ou techniciens en infrastructure. Les humains sont toujours dans la boucle, coordonnant au plus haut niveau ou dirigeant selon leurs goûts. Cependant, pour chaque nouveau rôle créé par l’IA, des dizaines d’autres sont devenus obsolètes. Les nouveaux rôles sont rémunérés à une fraction de ce que rapportaient les anciens.
En octobre 2026, Bloomberg titre : « JOLTS : aux États-Unis, les offres d’emploi tombent en dessous de 5,5 millions ; le ratio chômeurs/offres d’emploi grimpe à environ 1,7, son plus haut niveau depuis août 2020. »
Le JOLTS, pour Job Openings and Labor Turnover Survey est une enquête réalisée par le Bureau of Labor Statistics des États-Unis pour aider à mesurer les emplois vacants.
Le taux d’embauche avait été anémique toute l’année, mais les chiffres du travail d’octobre 2026 avaient fourni des données définitives : les offres d’emploi sont tombées sous la barre des 5,5 millions, soit une baisse de 15 % en glissement annuel.
Frank FlightÀ ce jour, il y a peu de preuves d’une perturbation de l’IA dans les données du marché du travail. En fait, les composantes prospectives du suivi du marché du travail se sont améliorées : la construction de centres de données IA semble stimuler la reprise de l’embauche dans le secteur de la construction.
En décembre 2026, le moteur de recherche d’emploi Indeed publie une note d’information : « Les offres d’emploi chutent fortement dans les secteurs des logiciels, de la finance et du conseil à mesure que les initiatives de productivité se généralisent. »
Les offres d’emploi pour les cols blancs s’effondraient, tandis que celles pour les cols bleus restaient relativement stables — dans la construction, la santé ou le commerce. Les pertes concernaient les emplois consistant à rédiger des notes de service, à approuver les budgets et à assurer le bon fonctionnement des couches intermédiaires de l’économie. Cependant, la croissance des salaires réels dans les deux cohortes avait été négative pendant la majeure partie de l’année et continuait de baisser.
Le marché boursier se souciait toujours moins du JOLTS que de l’annonce selon laquelle toute la capacité de production de turbines de GE Vernova était désormais acquise par différents acheteurs jusqu’en 2040. Il avait évolué latéralement, tiraillé entre les nouvelles macroéconomiques négatives et les titres positifs sur les infrastructures d’IA.
Ce point sur les infrastructures énergétiques de l’IA — très consommatrice en électricité — peut être l’un des points de départ pour critiquer le scénario d’un cercle vicieux, tel qu’esquissé dans cette note, où chaque vague de licenciement, en renforçant les outils d’IA, prépare une vague suivante.
Frank Flight Il est bien connu que la formation et l’inférence nécessitent une capacité importante en semi-conducteurs, des centres de données et de l’énergie. Le remplacement des emplois de cols blancs nécessiterait une intensité de calcul supérieure de plusieurs ordres de grandeur au niveau actuel d’utilisation. Si l’automatisation se développe rapidement, la demande de calcul augmente par définition, faisant grimper son coût marginal. Si le coût marginal du calcul dépasse le coût marginal du travail humain pour certaines tâches, il n’y aura pas de substitution — ce qui créera une frontière économique naturelle.
Cette dynamique contraste fortement avec les discours qui supposent une reproduction « sans friction » de l’intelligence — comme le propos de ce texte. Même si les algorithmes s’améliorent de manière récursive, le déploiement économique reste limité par le capital physique, la disponibilité de l’énergie, les autorisations réglementaires et les changements organisationnels.
Le marché obligataire, toujours plus intelligent que le marché boursier — ou du moins pas aussi romantique — avait toutefois commencé à intégrer la baisse de la consommation dans ses prix. Le rendement à 10 ans avait commencé à baisser, passant de 4,3 % à 3,2 % au cours des quatre mois suivants. Néanmoins, le taux de chômage global n’avait pas explosé.
Certains n’avaient pas compris cependant le phénomène que cachait cette apparente stabilité.
Dans une récession normale, la cause finit par se corriger d’elle-même. La surconstruction entraîne un ralentissement de la construction, ce qui conduit à une baisse des taux, ce qui conduit à de nouvelles constructions. Le dépassement des stocks entraîne un déstockage, ce qui conduit à un restockage. Le mécanisme cyclique contient en lui-même les germes de la reprise.
La cause du cycle n’était pas elle-même cyclique
L’IA s’est améliorée et est devenue moins chère.
Les entreprises ont licencié des employés, puis ont utilisé les économies réalisées pour acheter davantage de capacités d’IA, ce qui leur a permis de licencier encore plus d’employés.
Les travailleurs licenciés ont réduit leurs dépenses.
Les entreprises qui vendent des produits aux consommateurs ont vu leurs ventes baisser, se sont affaiblies et ont investi davantage dans l’IA pour protéger leurs marges.
De nouveau, l’IA s’est améliorée et est devenue moins chère.
Nous avons déjà exposé ce phénomène : celui d’une boucle de rétroaction sans frein naturel.
Frank Flight L’automatisation basée sur l’IA est un choc de productivité. Ceux-ci, en général, sont des chocs d’offre positifs : ils réduisent les coûts marginaux, augmentent la production potentielle et augmentent le revenu réel. Ils sont isolés, désinflationnistes et favorisent la croissance à moyen terme. Historiquement, toutes les avancées technologiques majeures : la vapeur, l’électrification, le moteur à combustion interne, l’informatique, ont suivi ce schéma. Le contre-argument de ce texte suggère que l’IA est une innovation technologique différente des précédentes, car elle remplace directement le revenu du travail, supprimant ainsi la demande globale.
On pouvait intuitivement s’attendre à ce que la baisse de la demande globale ralentisse le développement de l’IA. Cela n’a pas été le cas, car il ne s’agissait pas alors de dépenses d’investissement comme celles que demandent les hyperscalers, mais d’une substitution de dépenses d’exploitation. Désormais, une entreprise qui, jusqu’ici, dépensait 100 millions de dollars par an pour ses employés et 5 millions de dollars pour l’IA, dépense 70 millions de dollars pour ses employés et 20 millions de dollars pour l’IA.
Les investissements dans l’IA furent multipliés.
Mais cela s’est traduit par une réduction des coûts d’exploitation totaux. Le budget IA de chaque entreprise a augmenté tandis que ses dépenses globales ont diminué.
L’ironie de la situation était que le complexe d’infrastructures IA continuait à fonctionner alors même que l’économie qu’il perturbait commençait à se détériorer. Nvidia affichait toujours des bénéfices records. TSMC fonctionnait toujours à plus de 95 % de sa capacité. Les hyperscalers continuaient à dépenser entre 150 et 200 milliards de dollars par trimestre en investissements pour les centres de données. Les économies qui suivaient purement cette tendance, comme Taïwan et la Corée, avaient enregistré des performances exceptionnelles.
L’Inde connut le phénomène inverse. Le secteur des services informatiques du pays exportait pour plus de 200 milliards de dollars par an, ce qui constituait le plus grand contributeur à l’excédent courant de l’Inde et compensait son déficit commercial persistant.
L’ensemble du modèle reposait sur une seule proposition de valeur : les développeurs indiens coûtaient une fraction du prix de leurs homologues américains. Pourtant, alors que le coût marginal d’un agent de codage IA s’était effondré pour atteindre, en substance, le coût de l’électricité, TCS, Infosys et Wipro ont vu les annulations de contrats s’accélérer. En conséquence, la roupie a chuté de 18 % par rapport au dollar en quatre mois, alors que l’excédent des services qui avait ancré les comptes extérieurs de l’Inde s’évaporait.
Infosys et TCS sont des sociétés indiennes de prestataires de services en informatique — Wipro étant une multinationale, au siège social lui aussi basé en Inde.
Au premier trimestre 2028, le FMI a entamé des « discussions préliminaires » avec New Delhi.
Le moteur à l’origine de la perturbation s’améliorait chaque trimestre, ce qui signifiait que la perturbation s’accélérait chaque trimestre. Face à celle-ci, le marché du travail n’avait pas de contrepoids naturel.
Aux États-Unis, nous ne nous demandions plus comment la bulle allait éclater dans le domaine des infrastructures d’IA. Nous nous demandions ce qu’il adviendrait d’une économie basée sur le crédit à la consommation lorsque les consommateurs seraient remplacés par des machines.
Le grand déplacement de l’intelligence
C’est en 2027 que la situation macroéconomique est devenue manifeste.
Le mécanisme de transmission des douze derniers mois, marqués par des développements disparates mais clairement négatifs, était alors évident.
Il n’était pas nécessaire de se plonger dans les données du Bureau of Labor Statistics. Il suffisait d’assister à un dîner entre amis.
Les cols blancs déplacés ne sont pas restés inactifs. Ils ont revu leurs ambitions à la baisse. Beaucoup ont accepté des emplois moins bien rémunérés dans le secteur des services et l’économie collaborative, ce qui a augmenté l’offre de main-d’œuvre dans ces segments et comprimé les salaires.
Une de nos amies était chef de produit senior chez Salesforce en 2025.
Elle jouissait d’un titre, de l’assurance maladie, du plan d’épargne-retraite 401(k) et de 180 000 dollars par an. Elle a perdu son emploi lors de la troisième vague de licenciements. Après six mois de recherche, elle a commencé à conduire des voitures pour Uber. Ses revenus ont chuté à 45 000 dollars.
L’important n’est pas cette histoire individuelle, mais ce qu’elle permet de comprendre par un calcul mathématique : il suffit de dupliquer ce cas en quelques centaines de milliers d’exemplaires — les travailleurs de toutes les grandes métropoles.
La main-d’œuvre surqualifiée qui a envahi le secteur des services et l’économie des petits boulots a fait baisser les salaires des travailleurs existants qui étaient déjà en difficulté. Les perturbations spécifiques à certains secteurs se sont transformées en une compression salariale à l’échelle de l’économie.
Frank Flight Pour brosser un tableau moins sombre, il faut rappeler que l’économie comprend un large éventail de tâches — physiques, relationnelles, réglementaires, de supervision — dont l’automatisation est coûteuse. Même l’automatisation cognitive se heurte à des frictions de coordination, des contraintes de responsabilité et des obstacles de confiance. Il semble plus probable que l’IA vienne compléter plutôt que remplacer la main-d’œuvre dans de nombreux domaines. Historiquement, les révolutions technologiques ont modifié la composition des tâches plutôt qu’éliminé la main-d’œuvre en tant que facteur de production.
Pour produire un choc négatif sur la demande suffisamment important pour l’emporter sur l’expansion de la production, il faut supposer une automatisation quasi totale de la main-d’œuvre économiquement pertinente, combinée à des réponses redistributives extrêmement faibles. Pour cadrer correctement ce débat, on peut simplement se demander si l’avènement de Microsoft Office a été un complément ou un substitut pour les employés de bureau : si, a priori, on craignait que le logiciel réalise une substitution, a posteriori, il semble clairement qu’il n’offre qu’un complément.
Le vivier de travailleurs centrés sur l’humain a subi une nouvelle correction — qui se produit au moment où nous écrivons ces lignes. Les véhicules autonomes et sans conducteur font leur chemin dans l’économie des petits boulots qui a absorbé la première vague de travailleurs déplacés.
En février 2027, il était clair que les professionnels encore en poste se démenaient comme s’ils étaient les prochains sur la liste. Ils travaillaient deux fois plus dur, principalement avec l’aide de l’IA, pour ne pas être licenciés, leurs espoirs de promotion ou d’augmentation ayant disparu. Les taux d’épargne ont augmenté et les dépenses ont diminué.
Frank Flight La variable critique dans le déplacement de l’IA est l’élasticité de substitution entre le capital IA et le travail. Si cette élasticité est extrêmement élevée, c’est-à-dire si les entreprises peuvent remplacer la quasi-totalité du travail humain par des systèmes automatisés à un coût relativement stable, alors la part du revenu du travail pourrait s’effondrer. Dans un tel monde, le revenu du capital augmente considérablement tandis que le revenu salarial se contracte.
Même dans ce cas, la demande globale ne s’effondre pourtant pas automatiquement. Le revenu du capital a une propension marginale à consommer inférieure à celle du revenu salarial, mais sa vitesse de circulation n’est pas nulle. Les bénéfices peuvent être réinvestis, distribués, imposés ou dépensés. Pour que la demande diminue de manière structurelle, il faudrait que les mécanismes de redistribution échouent de manière persistante et que les opportunités d’investissement se tarissent simultanément.
Le plus dangereux dans ce phénomène était une forme de décalage.
Les personnes à haut revenu ont utilisé leurs plus grandes économies pour maintenir une apparence de normalité pendant deux ou trois trimestres. Les données concrètes n’ont ainsi confirmé le problème que lorsqu’il était déjà patent dans l’économie réelle.
Puis est venue la publication qui a brisé l’illusion.
Au troisième trimestre 2027, le département du Travail des États-Unis publiait que : « les demandes initiales d’allocations chômage aux États-Unis grimpent à 487 000, le niveau le plus élevé depuis avril 2020. »
ADP et Equifax confirmaient ensuite que la grande majorité des nouvelles demandes provenaient de cols blancs. La semaine suivante, le S&P chutait de 6 %.
Equifax est une société d’évaluation de la cote de crédit — celle-ci déterminant la capacité d’une personne ou d’une entreprise à emprunter. ADP est une entreprise états-unienne pourvoyeuse de logiciels de ressources humaines en cloud.
Les facteurs macroéconomiques négatifs ont alors commencé à prendre le dessus.
Dans une récession normale, les pertes d’emploi sont largement réparties. Les cols bleus et les cols blancs partagent la douleur à peu près proportionnellement à la part de chaque segment dans l’emploi. L’impact sur la consommation est également largement réparti et apparaît rapidement dans les données, car les travailleurs à faibles revenus ont une propension à consommer plus élevée.
Dans la théorie keynésienne, la propension à consommer désigne la part du revenu consacrée à la consommation. Dans sa Théorie générale de l’emploi, de l’intérêt et de la monnaie, Keynes propose comme « loi psychologique fondamentale » qu’« en moyenne, et la plupart du temps, les hommes tendent à accroître leur consommation à mesure que leur revenu croît mais non d’une quantité aussi grande que l’accroissement du revenu. » 1
Dans ce cycle, les pertes d’emploi se sont concentrées dans les déciles supérieurs de la distribution des revenus. Ils représentent une part relativement faible de l’emploi total, mais ils génèrent une part disproportionnée des dépenses de consommation.
Les 10 % des revenus les plus élevés représentent plus de 50 % de toutes les dépenses de consommation aux États-Unis. Les 20 % les plus riches en représentent environ 65 %. Ce sont ces personnes qui achètent des maisons, des voitures, s’offrent des vacances, des repas au restaurant, peuvent payer les frais de scolarité dans les écoles privées, ou rénover leur domicile. Elles constituent la base de la demande pour l’ensemble de l’économie des biens de consommation non essentiels.
Lorsque ces travailleurs ont perdu leur emploi ou ont accepté une réduction de salaire de 50 % pour occuper les postes disponibles, l’impact sur la consommation a été énorme par rapport au nombre d’emplois perdus. Une baisse de 2 % de l’emploi des cols blancs s’est traduite par une baisse de 3 à 4 % des dépenses de consommation discrétionnaires.
Contrairement aux pertes d’emplois des cols bleus, qui ont tendance à avoir un impact immédiat — une fois licenciés de l’usine, ceux-ci cessent de dépenser dès la semaine suivante —, les pertes d’emplois des cols blancs ont un impact différé mais plus profond, car ces travailleurs disposent d’une épargne qui leur permet de maintenir leurs dépenses pendant quelques mois avant que le changement de comportement ne se fasse sentir.
Au deuxième trimestre 2027, l’économie était en récession. Comme toujours, le National Bureau of Economic Research n’a officiellement daté le début de la récession que plusieurs mois plus tard, mais les données étaient sans ambiguïté : le PIB réel diminuait depuis maintenant deux trimestres consécutifs.
Il ne s’agissait pourtant pas encore d’une « crise financière ».
Une chaîne de paris corrélés
Alors que le crédit privé était passé de moins de 1 000 milliards de dollars en 2015 à plus de 2 500 milliards de dollars en 2026, une part importante de ce capital avait été investie dans des transactions liées aux logiciels et aux technologies, dont beaucoup concernaient des rachats par endettement de sociétés de SaaS à des valorisations qui tablaient sur une croissance ininterrompue des revenus, de l’ordre de 15 % chaque année.
Ces hypothèses ont perdu de leur pertinence quelque part entre la première démonstration de codage agentique et la grande crise des logiciels du premier trimestre 2026. Pourtant, les gestionnaires ne semblaient pas se rendre compte qu’elles étaient caduques.
Alors que de nombreuses entreprises SaaS cotées en bourse se négociaient à 5 ou 8 fois leur bénéfice avant intérêts, impôts, dépréciation et amortissement, les entreprises de logiciels soutenues par des fonds de capital-investissement figuraient dans les bilans à des valeurs fictives : celles-ci reflétaient une valorisation de l’entreprise faite lors de l’acquisition, maintenant caduque. Les gestionnaires ont progressivement revu les notes crédit à la baisse — de 100 % à 92 %, puis 85 %, quand les comparaisons publiques indiquaient 50 %.
En avril 2027, le Moody’s Investor Service déclarait : « Moody’s dégrade 18 milliards de dollars de dette logicielle soutenue par des fonds privés chez 14 émetteurs, invoquant une perturbation des revenus due à la concurrence de l’IA. C’est la plus grande dégradation touchant un secteur depuis celui de l’énergie en 2015. »
Tout le monde se souvient de ce qui s’est passé ensuite. Les vétérans du secteur avaient déjà vu un tel scénario après la dégradation affectant le secteur de l’énergie en 2015.
Les entreprises de SaaS ont commencé à faire défaut sur leurs prêts au troisième trimestre 2027. Les sociétés de capital-investissement dans les services d’information et le conseil ont suivi. Plusieurs rachats avec effet de levier de plusieurs milliards de dollars de sociétés de SaaS bien connues ont été restructurés.
Le rachat par endettement, ou rachat avec effet de levier (en anglais, leveraged buy-out) est un montage financier permettant le rachat d’une entreprise en l’endettant.
Zendesk en a été le meilleur exemple.
En septembre 2027, on pouvait lire dans le Financial Times : « Zendesk ne respecte pas ses engagements concernant sa dette, l’automatisation du service clientèle basé sur l’IA ayant diminué ses annual recurring revenues. Une facilité de prêt direct de 5 milliards de dollars valorisée à 58 centimes pour un dollar. C’est le plus grand défaut de paiement de crédit privé dans l’histoire des logiciels. »
Zendesk est une société de développement logiciel fondée en 2007. Elle propose aux entreprises des logiciels de service client, accessibles par cloud.
En 2022, Hellman & Friedman et Permira avaient privatisé Zendesk pour 10,2 milliards de dollars. Le montage financier comprenait 5 milliards de dollars de prêts directs, la plus grande facilité de crédit adossée à des annual recurring revenues de l’histoire à l’époque, menée par Blackstone avec Apollo, Blue Owl et HPS dans le groupe de prêteurs. Le prêt était explicitement structuré autour de l’hypothèse que les annual recurring revenues de Zendesk resteraient, comme leur nom l’indique, récurrents. Alors que l’entreprise avait été rachetée par endettement à environ 25 fois son BAIIDA, ce rachat n’avait de sens que sur la foi de cette hypothèse.
À la mi-2027, pourtant, les conditions n’étaient plus réunies.
Depuis près d’un an, les agents IA géraient de manière autonome le service client des entreprises qui, auparavant, s’adressaient à Zendesk. La catégorie sur laquelle cette société s’était positionnée — le ticketing, le routage, la gestion des interactions humaines — avait été occupée par des systèmes qui résolvaient les problèmes sans générer de ticket.
Alors que le plus gros prêt garanti par des revenus récurrents annuels de l’histoire est devenu le plus gros défaut de paiement de crédit privé de l’histoire, tous les services de crédit se sont posé la même question : qui d’autre est confronté à des difficultés structurelles déguisées en difficultés conjoncturelles ?
La situation n’était pourtant pas inextricable. Le crédit privé n’est pas le secteur bancaire de 2008 : l’ensemble de son architecture a été explicitement conçu pour éviter les ventes forcées. Les fonds d’investissement sont à capital fixe. Les limited partners sont engagés pour sept à dix ans. Il n’y a pas de déposants à gérer, pas de repo lines. Les gestionnaires pouvaient conserver les actifs dépréciés, les traiter au fil du temps et attendre leur recouvrement.
Ce processus était douloureux, mais gérable. Le système était conçu pour s’adapter, pas pour se briser.
Les dirigeants de Blackstone, KKR et Apollo ont fait état d’une exposition logicielle de 7 à 13 % des actifs. Celle-ci pouvait être maîtrisée. Toutes les notes d’analystes pour les banques d’investissement, et tous les comptes Fintwit disaient la même chose : le crédit privé dispose d’un capital permanent. Il pouvait absorber des pertes qui auraient autrement fait exploser une banque spécialisée dans l’effet de levier.
Fintwit est une plateforme d’IA proposant des conseils en analyse boursière.
« Capital permanent » : cette expression apparaissait dans chaque communiqué de résultats et chaque lettre aux investisseurs, tous destinés à rassurer. Elle est devenue un mantra. Et comme la plupart des mantras, personne ne prêtait attention aux détails.
Voici ce qu’elle signifiait réellement.
Au cours de la décennie précédente, les grands gestionnaires d’actifs alternatifs avaient acquis des compagnies d’assurance-vie et les avaient transformées en instruments de financement. Apollo a racheté Athene. Brookfield a racheté American Equity. KKR a racheté Global Atlantic.
La logique était élégante : les annuités fournissaient une base de passif stable et à long terme. Les gestionnaires investissaient celles-ci dans le crédit privé qu’ils avaient créé et étaient rémunérés deux fois, par un écart de taux sur le volet assurance et des frais de gestion sur le volet gestion d’actifs. Il s’agissait là d’une machine à mouvement perpétuel qui fonctionnait à merveille.
Cette machine ne pouvait cependant être en état de marche qu’à une condition : le crédit privé devait être de bonne qualité.
Les pertes ont frappé les bilans conçus pour détenir des actifs illiquides contre des obligations à long terme. Le « capital permanent » censé rendre le système résilient n’était pas un pool abstrait d’argent institutionnel et d’investisseurs sophistiqués prenant des risques sophistiqués. Il s’agissait de l’épargne des ménages américains ordinaires, structurée sous forme de rentes investies dans les mêmes logiciels et technologies soutenus par des fonds privés qui étaient désormais en défaut de paiement. Le capital bloqué qui ne pouvait pas être utilisé était l’argent de ceux ayant souscrit une assurance-vie, et les règles sont un peu différentes dans ce domaine.
Par rapport au système bancaire, ceux qui légiféraient sur les assurances avaient été dociles, voire complaisants. La situation a cependant constitué un signal d’alarme pour eux.
Déjà inquiets de la concentration des crédits privés chez les assureurs-vie, ils ont commencé à dégrader l’utilisation de ces actifs dans des opérations de capital-risque. Cela a contraint les assureurs à lever des capitaux ou à vendre des actifs, ce qu’il n’était pas possible de faire en bonne condition sur un marché déjà en train de se gripper.
En novembre 2027, on pouvait lire dans un article de Reuters : « À New York, les autorités de l’État de l’Iowa prennent des mesures pour renforcer la réglementation de certains crédits privés détenus par les assureurs-vie. Les directives de la National Association of Insurance Commissioners devraient augmenter les facteurs de capital-risque et déclencher un examen supplémentaire de la Securities Valuation Office. »
Lorsque Moody’s a considéré la solidité financière d’Athene sous un jour défavorable, l’action Apollo a chuté de 22 % en deux séances. Brookfield, KKR et les autres ont suivi.
À partir de là, la situation n’a fait qu’empirer et se compliquer.
Ces sociétés n’avaient pas seulement créé une machine à mouvement perpétuel : elles avaient mis en place une architecture offshore élaborée, conçue pour maximiser les rendements grâce à l’arbitrage réglementaire.
L’assureur états-unien a souscrit la rente, puis a cédé le risque à une société de réassurance affiliée aux Bermudes ou aux îles Caïmans, qu’il détenait également, créée pour tirer parti d’une réglementation plus souple qui permettait de détenir moins de capital pour les mêmes actifs. Cette filiale a levé des capitaux externes par le biais de special purpose vehicle offshore, une nouvelle couche de contreparties qui ont investi aux côtés des assureurs dans des crédits privés émis par la branche de gestion d’actifs de la même société mère.
Les agences de notation, dont certaines appartenaient elles-mêmes à des sociétés de capital-investissement, n’étaient pas des modèles de transparence non plus : de ceci, pratiquement personne ne s’étonnait. Le réseau complexe formé par les différentes sociétés, liées à différents bilans, était d’une opacité stupéfiante. Lorsque les prêts sous-jacents ont fait défaut, il était impossible de répondre à la question de savoir qui supportait réellement la perte.
Le krach de novembre 2027 a marqué le passage d’une perception d’un ralentissement cyclique potentiellement banal à quelque chose de beaucoup plus inquiétant.
Lors d’une réunion d’urgence, le président de la Réserve fédérale Kevin Warsh a mis le doigt sur le problème : « Une chaîne de paris corrélés sur la croissance de la productivité des cols blancs ».
Ce ne sont jamais les pertes elles-mêmes qui provoquent la crise, mais la reconnaissance de ces pertes. Et il existe un autre domaine financier, beaucoup plus vaste et beaucoup plus important, pour lequel nous craignons de devoir les regarder en face.
La question des prêts hypothécaires
En juin 2028, la Zillow Home Value a chuté de 11 % en glissement annuel à San Francisco, de 9 % à Seattle et de 8 % à Austin.
La Zillow Home Value est un indice des prix de l’immobilier. Zillow est elle-même une entreprise américaine d’annonces immobilières, créée en 2006.
Ce n’est pas la seule nouvelle inquiétante. Le mois dernier, la Federal National Mortgage Association a signalé une augmentation des défauts de paiement précoces dans les codes postaux à forte concentration de prêts hypothécaires jumbo, c’est-à-dire les zones où vivent des emprunteurs ayant une cote de crédit supérieure à 780 et qui sont généralement « à l’abri ».
Le marché hypothécaire résidentiel américain représente environ 13 000 milliards de dollars. La souscription d’un prêt hypothécaire repose sur l’hypothèse fondamentale que l’emprunteur conservera son emploi et son niveau de revenu actuel pendant toute la durée du prêt. Dans le cas de la plupart des prêts hypothécaires, cette durée est de trente ans.
La crise de l’emploi des cols blancs a remis en cause cette hypothèse en modifiant durablement les prévisions de revenus. Nous devons maintenant nous poser une question qui semblait absurde il y a seulement trois ans : les prêts hypothécaires de premier ordre sont-ils rentables ?
Toutes les crises hypothécaires précédentes dans l’histoire des États-Unis ont été provoquées par l’un des trois facteurs suivants : l’excès spéculatif par des prêts accordés à des personnes qui n’avaient pas les moyens d’acheter une maison comme en 2008, des chocs sur les taux d’intérêt par une hausse des taux rendant les prêts hypothécaires à taux variable inabordables, comme au début des années 1980, ou des chocs économiques localisés avec l’effondrement d’un seul secteur dans une seule région — comme le pétrole au Texas dans les années 1980 ou l’automobile dans le Michigan en 2009.
Aucun de ces scénarios n’est ici pertinent. Les emprunteurs en question ne sont pas à risque. Ils ont un score FICO de 780. Ils ont versé un acompte de 20 %. Ils ont des antécédents de crédit irréprochables, des emplois stables et des revenus qui ont été vérifiés et documentés lors de la souscription. Ce sont les emprunteurs que tous les modèles de risque du système financier considèrent comme la base de la qualité du crédit.
Le score FICO est une cote de crédit introduite en 1989 par Fair, Isaac and Company, entreprise d’analyse de données. Un score élevé qualifie un emprunteur fiable, non susceptible de se retrouver en défaut de paiement.
En 2008, les prêts étaient mauvais du jour où ils ont été accordés. En 2028, la situation est inverse. Le monde a simplement changé après la souscription de ceux-ci. Les gens ont emprunté en misant sur un avenir auquel ils ne peuvent plus croire.
En 2027, nous avons détecté les premiers signes d’une tension invisible : prélèvements sur les lignes de crédit hypothécaire, retraits sur les plans 401(k) et augmentation des dettes de carte de crédit, alors que les remboursements hypothécaires se poursuivaient sans changement. Avec les pertes d’emploi, le gel des embauches et la réduction des primes, ces ménages privilégiés ont vu leur ratio d’endettement doubler.
Ces ménages pouvaient encore rembourser leur prêt hypothécaire, mais uniquement en supprimant toutes les dépenses discrétionnaires, en puisant dans leurs économies et en reportant tout entretien ou amélioration de leur logement. Techniquement, ils étaient à jour dans le remboursement de leur prêt hypothécaire, mais un seul choc supplémentaire les aurait plongés dans une crise.
L’évolution des capacités de l’IA suggérait que ce choc allait se produire. Nous avons alors vu les impayés commencer à augmenter à San Francisco, Seattle, Manhattan et Austin, même si la moyenne nationale restait dans les normes historiques.
Nous sommes maintenant dans la phase la plus aiguë. La baisse des prix de l’immobilier est gérable lorsque l’acheteur marginal est en bonne santé. Ici, l’acheteur marginal est confronté à la même baisse de revenus.
Bien que les inquiétudes s’intensifient, nous ne sommes pas encore dans une crise hypothécaire à part entière. Les impayés ont augmenté, mais restent bien en deçà des niveaux de 2008. C’est la trajectoire qui constitue la véritable menace.
La spirale du déplacement de l’intelligence comporte désormais deux accélérateurs financiers du déclin de l’économie réelle.
Déplacement de la main-d’œuvre, inquiétudes hypothécaires, turbulences sur les marchés privés : chacun de ces phénomènes renforce les autres. Les outils politiques traditionnels — baisses de taux, assouplissement quantitatif — peuvent agir sur le moteur financier, mais pas sur le moteur de l’économie réelle, car ce dernier n’est pas alimenté par des conditions financières strictes. Il est alimenté par l’IA, qui rend l’intelligence humaine moins rare et moins précieuse.
Réduire les taux à zéro et acheter, sur le marché, tous les titres adossés à des créances hypothécaires, comme toutes les dettes des entreprises rachetées par effet de levier et en défaut de paiement, ne changera rien au fait qu’un agent Claude peut faire le travail d’un chef de produit au salaire annuel de 180 000 dollars pour 200 dollars par mois.
Si ces craintes se concrétisent, le marché hypothécaire s’effondrera au cours du second semestre de cette année. Dans ce scénario, nous nous attendrions à ce que la baisse actuelle des actions finisse par rivaliser avec celle de la crise financière mondiale de 2008 (57 % entre le pic et le creux). Cela ramènerait le S&P 500 à environ 3 500 points, un niveau que nous n’avons pas vu depuis le mois précédant le lancement de ChatGPT en novembre 2022.
Il est clair que les hypothèses de revenus qui sous-tendent les 13 000 milliards de dollars de prêts hypothécaires résidentiels sont structurellement compromises. Ce qui n’est pas clair, c’est si la politique peut intervenir avant que le marché hypothécaire ne prenne pleinement conscience de ce que cela signifie. Nous sommes optimistes, mais nous ne pouvons occulter les raisons de ne pas l’être.
Une course contre la montre
La première boucle de rétroaction négative s’est produite dans l’économie réelle : les capacités de l’IA s’améliorent, les salaires diminuent, les dépenses ralentissent, les marges se resserrent, les entreprises achètent plus de capacités, les capacités de l’IA s’améliorent.
Ce cycle s’est répercuté sur le secteur financier : la baisse des revenus a affecté les prêts hypothécaires, les pertes bancaires ont resserré le crédit, l’effet de richesse s’est effondré et la boucle de rétroaction s’est accélérée. Ces deux phénomènes ont été exacerbés par une réponse politique insuffisante de la part d’un gouvernement qui semble désorienté.
Le système n’a pas été conçu pour faire face à une crise comme celle-ci. Les recettes du gouvernement fédéral proviennent essentiellement d’une taxe sur le temps de travail. Les gens travaillent, les entreprises les rémunèrent, le gouvernement prélève une partie de ces revenus. Les impôts sur le revenu des particuliers et les charges sociales constituent l’essentiel des recettes en temps normal.
Au premier trimestre de cette année, les recettes fédérales étaient inférieures de 12 % aux projections de référence du Congressional Budget Office. Les recettes provenant des charges sociales sont en baisse car moins de personnes sont employées aux niveaux de rémunération antérieurs. Les recettes provenant de l’impôt sur le revenu sont en baisse car les revenus perçus sont structurellement plus faibles. La productivité est en hausse, mais les gains profitent au capital et à l’informatique, et non à la main-d’œuvre.
La part du travail dans le PIB est passée de 64 % en 1974 à 56 % en 2024, une baisse constante sur quatre décennies due à la mondialisation, à l’automatisation et à l’érosion constante du pouvoir de négociation des travailleurs. Au cours des quatre années qui ont suivi le début de l’amélioration exponentielle de l’IA, cette part est tombée à 46 %. Il s’agit de la baisse la plus forte jamais enregistrée.
Frank Flight Il convient de rappeler qu’au cours du siècle dernier, les vagues successives de changements technologiques n’ont pas entraîné de croissance exponentielle effrénée, ni rendu la main-d’œuvre obsolète. Au contraire, elles ont juste suffi à maintenir la croissance tendancielle à long terme des économies avancées à près de 2 %. Dans cette perspective, l’IA est peut-être tout au plus suffisante pour compenser les forces séculaires actuelles que sont le vieillissement de la population, le changement climatique et la démondialisation — qui toutes exercent une pression à la baisse sur la croissance potentielle et la productivité.
La production est toujours là. Mais elle ne transite plus par les ménages pour revenir aux entreprises, ce qui signifie qu’elle ne transite plus non plus par l’Internal Revenue Service. Le flux circulaire est rompu, et le gouvernement devrait intervenir pour y remédier.
Comme dans chaque récession, les dépenses augmentent à mesure que les recettes diminuent. La différence cette fois-ci est que la pression sur les dépenses n’est pas cyclique. Les stabilisateurs automatiques ont été conçus pour les pertes d’emploi temporaires, et non pour les déplacements structurels. Le système verse des prestations en partant du principe que les travailleurs seront réembauchés : ce ne sera pas le cas pour beaucoup d’entre eux, du moins pas à un salaire similaire à celui qu’ils percevaient auparavant.
La Figure 8 propose un modèle économique où la majorité des ménages vivent des allocations de l’État, financées par des taxes sur les entreprises. Celles-ci, largement automatisées, n’auraient plus les mêmes besoins de personnel — permettant à une part significative de la population de travailler peu, si ce n’est pas du tout.
Frank Flight L’histoire montre cependant que les gains de productivité ne se traduisent pas automatiquement par un retrait de la main-d’œuvre ou un effondrement de la demande, car ils modifient la composition de la demande, augmentent les revenus réels et génèrent de nouvelles industries.
Dans un essai de 1930 2, John Maynard Keynes prédisait que la croissance de la productivité serait si forte qu’au début du XXIe siècle, la semaine de travail serait réduite à quinze heures. S’il avait raison sur la croissance de la productivité, il s’est profondément trompé sur les implications pour le marché du travail. Plutôt que de travailler beaucoup moins, les sociétés ont consommé beaucoup plus, car l’augmentation de la productivité a réduit les coûts et élargi la frontière de la consommation. Les préférences se sont en effet orientées vers des biens de meilleure qualité, de nouveaux services et des formes de dépenses auparavant inimaginables. Si les loisirs ont légèrement augmenté, ce sont surtout les aspirations matérielles qui se sont développées.
Pendant la pandémie de Covid, le gouvernement a librement accepté des déficits de 15 %, mais il était entendu que cette mesure serait temporaire. Les personnes qui ont aujourd’hui besoin du soutien du gouvernement n’ont pas été touchées par une pandémie dont elles se remettront. Elles ont été remplacées par une technologie qui ne cesse de s’améliorer. En conséquence, le gouvernement doit transférer davantage d’argent aux ménages au moment même où il perçoit moins d’argent de leur part sous forme d’impôts.
Les États-Unis ne feront pas défaut. Ils impriment la monnaie qu’ils dépensent, la même monnaie qu’ils utilisent pour rembourser les emprunteurs. Mais cette tension s’est manifestée ailleurs. Les obligations municipales montrent des signes inquiétants de dispersion dans leurs performances depuis le début de l’année. Les États sans impôt sur le revenu s’en sortent bien, mais les obligations municipales générales émises par les États dépendants de l’impôt sur le revenu — majoritairement des États démocrates — ont commencé à intégrer un certain risque de défaut. Les politiciens ont rapidement compris la situation, et le débat sur les bénéficiaires du plan de sauvetage s’est cristallisé autour des clivages partisans.
Il faut reconnaître à l’administration le mérite d’avoir rapidement compris la nature structurelle de la crise et d’avoir commencé à examiner des propositions bipartites pour ce qu’elle appelle le « Transition Economy Act » : un cadre pour des transferts directs aux travailleurs déplacés, financé par une combinaison de dépenses déficitaires et d’une taxe proposée sur les calculs d’inférence de l’IA.
La proposition la plus radicale sur la table va encore plus loin. La « loi sur la prospérité partagée de l’IA » établirait un droit public sur les rendements de l’infrastructure de l’intelligence artificielle elle-même, à mi-chemin entre un fonds souverain et une redevance sur la production générée par l’IA, les dividendes finançant les transferts aux ménages. Les lobbyistes du secteur privé ont inondé les médias de mises en garde : une telle mesure constituerait une pente glissante vers d’autres mesures plus délétères.
Les discussions politiques qui ont suivi ont été tristement prévisibles, exacerbées par les gesticulations et la politique de la corde raide.
La droite qualifie les transferts et la redistribution de marxisme et met en garde contre le fait que taxer le calcul informatique donnerait l’avantage à la Chine.
La gauche met en garde contre le fait qu’une taxe élaborée avec l’aide des acteurs en place devient une autre forme de captation réglementaire.
Les faucons budgétaires soulignent les déficits insoutenables.
Les colombes soulignent l’austérité prématurée imposée après la crise financière mondiale comme un exemple à ne pas suivre.
Le fossé ne fait que s’élargir à l’approche de l’élection présidentielle de cette année. Pendant que les politiciens se disputent, le tissu social s’effiloche plus vite que le processus législatif ne peut avancer.
Le mouvement Occupy Silicon Valley est emblématique d’un mécontentement plus général. Le mois dernier, des manifestants ont bloqué les entrées des bureaux d’Anthropic et d’OpenAI à San Francisco pendant trois semaines consécutives. Leur nombre ne cesse de croître et les manifestations ont attiré davantage l’attention des médias que les données sur le chômage qui les ont motivées.
Il est difficile d’imaginer que le public puisse détester quelqu’un davantage qu’il n’a détesté les banquiers à la suite de la crise financière mondiale. Les laboratoires d’IA sont pourtant en passe d’y parvenir — et, du point de vue des masses, pour de bonnes raisons. Leurs fondateurs et leurs premiers investisseurs ont accumulé des richesses à un rythme qui fait passer le Gilded Age pour un âge de modération. Les gains issus de l’explosion de la productivité, qui ont presque entièrement profité aux propriétaires des ordinateurs et aux actionnaires des laboratoires qui les exploitaient, ont amplifié les inégalités aux États-Unis à des niveaux sans précédent.
Chaque camp a son ennemi, mais le véritable adversaire est le temps.
L’intelligence n’est plus une ressource rare
Les capacités de l’IA évoluent — plus rapidement que les institutions ne peuvent s’adapter.
Le problème, c’est que la réponse politique suit le rythme de l’idéologie — et non celui de la réalité. Si ceux qui nous gouvernent ne parviennent pas à s’accorder rapidement sur la nature du problème, la boucle de rétroaction écrira le prochain chapitre à leur place.
Tout au long de l’histoire économique moderne, l’intelligence humaine a été une ressource rare. Le capital était abondant ou du moins reproductible. Les ressources naturelles étaient limitées, mais substituables. La technologie progressait suffisamment lentement pour que les humains puissent s’adapter.
L’intelligence, c’est-à-dire la capacité d’analyser, de décider, de créer, de persuader et de coordonner, était la seule chose qui ne pouvait être reproduite à grande échelle.
L’intelligence humaine tirait sa valeur intrinsèque de sa rareté. Toutes les institutions de notre économie, du marché du travail au marché hypothécaire en passant par le code des impôts, ont été conçues pour un monde où cette hypothèse était valable.
Nous assistons aujourd’hui à la fin d’un tel monde.
L’intelligence artificielle est désormais un substitut compétent et en rapide amélioration à l’intelligence humaine dans un nombre croissant de tâches.
Le système financier, optimisé pendant des décennies pour un monde où l’intelligence humaine était rare, est en train de se réévaluer. Cette réévaluation est douloureuse, chaotique et loin d’être terminée, mais elle n’est pas synonyme d’effondrement.
L’économie peut trouver un nouvel équilibre. Y parvenir est l’une des rares tâches qui restent à accomplir et que seuls les humains peuvent réaliser. Nous devons le faire correctement.
C’est la première fois dans l’histoire que l’actif le plus productif de l’économie crée de moins en moins d’emplois au lieu d’en créer de plus en plus. Aucun cadre ne convient, car aucun n’a été conçu pour un monde où les ressources rares sont devenues abondantes. Nous devons donc créer de nouveaux cadres. La seule question qui importe est de savoir si nous les construirons à temps.
Vous ne lisez pourtant pas cet article en juin 2028.
Vous le lisez en février 2026.
Les marchés sont proches de leurs records historiques. Les boucles de rétroaction négatives n’ont pas encore commencé.
Nous sommes sûrs que certains de ces scénarios ne se réaliseront pas.
Nous sommes tout aussi certains que l’intelligence artificielle continuera à s’accélérer et que la prime accordée à l’intelligence humaine diminuera.
En tant qu’investisseurs, nous avons encore le temps d’évaluer dans quelle mesure nos portefeuilles reposent sur des hypothèses qui ne survivront pas à la décennie.
En tant que société, nous avons encore le temps d’être proactifs.
Le canari est toujours en vie.
À partir de la fin du XIXe siècle, les canaris ont régulièrement été utilisés dans les mines de charbon comme système d’avertissement, des métaphores vivantes d’un signal faible : plus sensibles aux gaz toxiques que les mineurs, ils avertissaient, en montrant des signes de détresse, que les conditions n’étaient plus sûres.