L’annonce de la nomination de Kevin Warsh à la direction de la Fed, en remplacement de Jerome Powell, dont le mandat prend fin le 15 mai, a été bien accueillie par les marchés.
En effet, alors que, depuis le début de son deuxième mandat, Donald Trump a multiplié les nominations « de rupture », son choix s’est cette fois arrêté sur un professionnel de la politique monétaire : un ancien membre du Board de la Fed (le Conseil des gouverneurs de la réserve fédérale), qui a connu les moments difficiles de la gestion de la crise financière de 2008-2009.
Si Kevin Warsh s’est prononcé en faveur d’une politique accommodante, ses déclarations publiques, y compris son audition devant la commission bancaire du Sénat la semaine dernière, en font toutefois un représentant de la vision conservatrice traditionnelle de la banque centrale, très réticente à l’idée qu’elle adopte des solutions opérationnelles non-conventionnelles, comme l’extension de son bilan pour agir sur le niveau des taux d’intérêt de long terme. Fondamentalement, ce que Warsh semble rechercher, c’est un retour aux pratiques des années 1990 et du début des années 2000. Les marchés sont donc en territoire familier.
Un tel retour à « l’ère Greenspan » n’est toutefois pas sans risque : un cadre opérationnel traditionnel ne protège pas nécessairement contre de profondes erreurs d’analyse. Alan Greenspan lui-même avait fondé sa politique sur l’accélération de la productivité induite par les débuts de la digitalisation de l’économie américaine dans la seconde moitié des années 1990, ce qui s’est révélé, en définitive, trop accommodant et a préparé la crise de 2008.
À l’instar d’Alan Greenspan, Kevin Warsh justifie aujourd’hui sa préférence pour des baisses de taux par la nouvelle vague de productivité, déclenchée par la transition vers l’intelligence artificielle. Certes, il est possible que, cette fois-ci, l’accélération de la productivité se traduise effectivement par une baisse durable de l’inflation. Toutefois, la phase de transition peut s’avérer difficile à gérer, entre la hausse du prix de l’énergie, due à la demande massive d’électricité des centres de données, et la stagnation de l’emploi.
Par ailleurs, le modèle de politique monétaire des années 1990 s’inscrivait dans un contexte général radicalement différent de celui dans lequel la Fed, dirigée par Kevin Warsh, évoluera.
La politique budgétaire de George Bush senior et de Bill Clinton était volontairement « modeste », alors que l’administration Trump poursuit une politique expansive. Dans les années 1990, les États-Unis embrassaient le libre-échange, alors qu’aujourd’hui, la guerre commerciale reste un élément central de l’administration Trump. L’offre de travail était alors forte, grâce à une croissance démographique naturelle importante et à l’immigration ; aujourd’hui, l’Amérique vieillit et sa politique migratoire radicale se traduit par une quasi-stagnation de la population en âge de travailler.
Alors que la multiplication des solutions de paiement échappant au contrôle direct de la banque centrale — notamment sous forme de stablecoins — est un axe clef de la politique gouvernementale, de même qu’une dérèglementation profonde des activités financières, la Fed sera soumise à une très forte pression.
Jerome Powell a démontré sa capacité à défendre l’indépendance de la banque centrale, mais au prix de sa propre carrière. Qu’en sera-t-il de Kevin Warsh ?
Gilles Moëc
S’il reste ferme sur ses fondamentaux, Warsh pourrait contribuer à normaliser la politique économique américaine après les élections de mi-mandat, mais il devra probablement accepter une période de conflit difficile avec l’exécutif. Ce test pourrait survenir rapidement si la crise dans le golfe Persique persiste et l’oblige, dès son arrivée, à gérer un choc inflationniste supplémentaire. En retour, son mandat à la Fed pourrait rapidement mettre en lumière le caractère hétéroclite de la coalition politique agrégée par Donald Trump, dans laquelle des républicains traditionnels cohabitent avec des partisans d’un pouvoir exécutif unitaire fort, prêts à prendre de grandes distances avec l’orthodoxie économique.
Un cadre opérationnel conservateur
Dans son discours à l’Institute of International Finance, en mars 2025, Kevin Warsh a axé son propos sur sa vision du cadre opérationnel de la Fed, que l’on pourrait résumer en une volonté de « retour aux fondamentaux ».
Lors de son premier passage à la Fed, entre 2006 et 2011, il n’a pas voté contre la mise en place de programmes de soutien exceptionnels au système financier — et à l’économie dans son ensemble — rendus nécessaires par la crise financière. Il a notamment soutenu les plans d’urgence d’achat de titres lancés en 2008-2009, mais aussi celui, un peu plus tardif, de novembre 2010, alors qu’un autre membre du FOMC (Thomas Hoenig) s’y était opposé. C’est d’ailleurs cette expérience qui contribue à rassurer les marchés aujourd’hui.
Peu de temps après son départ de la Fed, en 2011, Kevin Warsh a commencé à critiquer de plus en plus ouvertement l’extension quasi constante du bilan de la Fed. Pour le citer verbatim dans son discours de mars 2025 : « J’ai fortement soutenu ces innovations pour temps de crise…mais une fois la crise terminée, la Fed n’est jamais revenue sur ses pas ».
Cette critique trouve sa formulation finale dans un renversement de causalité frappant : plutôt que de dénoncer, ce qui serait assez classique, la « dominance budgétaire » — une situation dans laquelle banque centrale devient otage d’une politique budgétaire insoutenable, sacrifiant son objectif de stabilité des prix à la nécessité de financer des déficits budgétaires importants pour éviter une crise financière — Warsh déplore la « dominance monétaire », dans laquelle c’est l’orientation accommodante de la banque centrale, motivée par exemple par des inquiétudes exagérées face aux risques de déflation, qui rend tout simplement trop tentant pour le gouvernement de repousser indéfiniment la consolidation budgétaire. Pourquoi s’inquiéter de l’augmentation de la dette publique si une part croissante de celle-ci est détenue par la banque centrale ? Selon Warsh, le gouvernement est une « victime » des choix de politique monétaire.
Ce renversement a, bien sûr, l’intérêt, à court terme, de dégager la responsabilité du politique dans l’orientation de la politique budgétaire, et d’éviter donc à Kevin Warsh une collision frontale avec l’administration Trump lors de sa candidature au remplacement de Jerome Powell.
Mais, sur le fond, Warsh s’inscrit dans la continuité de l’approche conservatrice moderne du rôle de la banque centrale, sans toutefois tomber dans les excès des libertariens. Pour les conservateurs, la politique monétaire doit poursuivre son objectif de stabilité des prix, tout en recherchant une certaine neutralité dans sa relation avec la politique budgétaire. Elle n’est pas son supplétif : soutenir des politiques budgétaires expansives ne peut être compatible à long terme avec la lutte contre l’inflation. C’est à la politique budgétaire de s’adapter aux contraintes nées de l’orientation monétaire, principalement en termes de taux d’intérêt. En revanche, l’orientation de la politique budgétaire ne peut évidemment pas être ignorée par la banque centrale lors de l’établissement de son diagnostic de la situation économique, puisqu’elle affecte la demande globale. À la différence des libertariens, qui préconisent souvent une politique monétaire « automatique », basée sur des normes préétablies rigides (par exemple, suivre un « étalon or »), Warsh admet la nécessité d’agir de manière non conventionnelle en cas de crise et revendique pour la banque centrale un rôle dans la gestion du cycle.
La question de la taille du bilan de la Fed est loin d’être théorique et se posera avec acuité très rapidement après l’arrivée de Kevin Warsh à sa tête.
En effet, après une deuxième vague d’achats massifs de titres, dans le sillage de la pandémie de Covid-19, la Fed a commencé à réduire la taille de son bilan à partir de juin 2022 en cessant progressivement de réinvestir les titres qu’elle détenait lorsqu’ils arrivaient à échéance. Elle a toutefois notablement freiné ce processus au cours des premiers mois de 2025, en raison de tensions sur la liquidité du marché. Elle est même redevenue un acheteur net de dette publique américaine, se concentrant cette fois-ci sur les titres à court terme, depuis la fin de l’année 2025. Même si les effets de ces achats sur les taux d’intérêt à long terme semblent faibles à ce stade, il est difficile de nier qu’ils contribuent à rendre une politique budgétaire très expansive plus soutenable (selon le Congressional Budget Office, le déficit fédéral atteindra 5,8 % du PIB en 2026), d’autant que le Trésor répond à l’incitation de la Fed en réorientant une partie de ses émissions de dette vers des titres à court terme. Le dilemme pour la Fed est simple : reprendre le chemin de la « pureté » monétaire en réduisant son bilan ne pourrait qu’engendrer des risques pour la stabilité financière, en poussant les taux longs à la hausse et en recréant des tensions sur la liquidité. En effet, les achats de titres injectent des liquidités sur un marché monétaire sous tension, en raison de la tendance des grandes banques à thésauriser la liquidité disponible (nous développerons ce point technique plus loin). À un moment où des doutes apparaissent sur la valorisation d’actifs illiquides — par exemple, les « private loans » —, une contraction de la liquidité serait particulièrement toxique.
Dans le monde idéal du « modèle 1990 » de la politique monétaire, la mise en place d’une politique budgétaire prudente permettrait un retrait en bon ordre du bilan de la Fed. Or, ce n’est pas du tout l’orientation actuelle de l’administration américaine.
La contradiction avec une politique budgétaire expansive
La théorie de la « dominance monétaire » s’applique peut-être mieux à la phase de « mise au pas » de la politique budgétaire par la Fed qui a contribué à la « grande modération » des années 1990. Après la thérapie de choc administrée par Paul Volcker en 1980, la Fed s’est exclusivement concentrée sur la stabilité des prix, maintenant des conditions monétaires strictes tout au long de la décennie. En 1985, les taux des Fed Funds restaient très élevés en termes réels (4 points de pourcentage au-dessus de l’inflation). Le gouvernement fédéral de Ronald Reagan a généralement mené une politique budgétaire expansionniste, ce qui s’est traduit par des taux d’intérêt à long terme élevés, bien supérieurs au niveau des Fed Funds. La Fed « n’a jamais cillé » et, finalement, Bill Clinton a mené, dans les années 1990, une politique budgétaire très prudente, débouchant sur des excédents substantiels à la fin de la décennie.
La Fed ne peut ignorer le développement de monnaies privées, appelées à entraver la transmission de sa propre politique monétaire.
Gilles Moëc
L’équipe économique de Clinton fondait alors son raisonnement sur deux éléments. Premièrement, après des années de déficits importants, dans un contexte de taux d’intérêt réels positifs, une grande partie des recettes fédérales américaines était absorbée par le service de la dette. En 1992, lorsque Bill Clinton remporta l’élection, la charge d’intérêt du gouvernement américain atteignit son niveau le plus élevé de l’après-guerre (4,8 % du PIB). Si cette dynamique avait perduré, elle aurait progressivement mis en péril les principaux programmes sociaux, éléments centraux de l’identité politique des démocrates depuis les années 1960. Deuxièmement, l’effet négatif des taux d’intérêt à long terme élevés sur l’économie aurait fini par l’emporter sur les effets positifs d’une relance budgétaire. En contribuant à un environnement de faible inflation, une politique budgétaire plus restrictive aurait finalement laissé davantage de marge de manœuvre à la Fed pour réduire les taux à court terme.
Au milieu des années 1990, la Fed avait achevé l’odyssée entamée avec Volcker : elle pouvait désormais poursuivre une stratégie axée sur la stabilité, sans interférence de la politique budgétaire.
En menant une politique monétaire axée sur la stabilité des prix, la Fed a créé des incitations claires pour que le gouvernement fédéral ajuste sa propre orientation vers la neutralité, en évitant de pratiquer un réglage conjoncturel actif. Mais cette approche est aux antipodes de la pratique budgétaire de l’administration américaine actuelle. Le gouvernement met en avant le revenu supplémentaire attendu des droits de douane, mais ceux-ci ne peuvent compenser la perte permanente de recettes fiscales résultant de la prolongation des baisses d’impôts de 2017 dans le « One Big Beautiful Budget Bill » de 2025. Le véritable test pour une Fed dirigée par Warsh viendra lorsque — et si — la banque centrale devra gérer les effets de l’impulsion budgétaire provoquée par le « Big Beautiful Budget Bill » de l’an dernier, en même temps que l’impact direct du choc énergétique sur les prix à la consommation.
D’une guerre du Golfe à l’autre
La « pureté monétaire » des années 1990 ne signifie pas pour autant que la Fed serait alors restée sans réaction face aux ralentissements cycliques.
Tant que son objectif de stabilité des prix restait préservé, avec des anticipations d’inflation ancrées à un faible niveau, la Fed a agi pour soutenir l’activité. C’est ce qui s’est produit lors de la première guerre du Golfe et c’est ce souvenir qui permet au marché de continuer à anticiper une baisse de taux par la Fed en 2026, en dépit de la hausse de l’inflation anticipée en raison des opérations militaires contre l’Iran. La comparaison n’est toutefois pas si directe. En effet, si l’inflation était « matée » en 1990, elle est aujourd’hui encore résiliente.
La première guerre du Golfe a coïncidé avec la récession de 1990-1991, mais le National Bureau of Economic Research considère que celle-ci a en réalité commencé en juillet 1990, soit un mois avant l’invasion du Koweït par l’Irak. Après une première moitié des années 1980 très difficile, l’amélioration de la conjoncture avait fait baisser le taux de chômage et l’inflation avait recommencé à augmenter depuis 1987, selon une configuration typique de « courbe de Phillips », incitant la Fed à relever progressivement ses taux à partir de 1988 ; les Fed Funds avaient alors atteint un niveau très punitif (près de 10 %, soit 5 points au-dessus de l’inflation). Sous l’effet de cette restriction monétaire, le taux de chômage cessa de diminuer et l’inflation se stabilisa en 1989 et 1990, ce qui permit à la Fed de commencer à baisser ses taux, tout en maintenant une politique monétaire profondément restrictive (le taux nominal atteignait encore 8 % en juillet 1990). C’est, en grande partie, l’effet cumulé de ces conditions monétaires strictes qui a déclenché la récession. Lorsque le choc pétrolier survint, l’inflation globale remonta temporairement, mais la Fed — à juste titre — ignora ce phénomène et reprit rapidement ses baisses de taux. Elle considérait avoir « fait le travail ».
La situation actuelle est différente. La politique monétaire est considérée par la Fed elle-même comme « neutre », plutôt que restrictive — les taux directeurs sont inférieurs d’un point de pourcentage à l’inflation sous-jacente, dans la mesure favorite de la banque centrale. Il n’est pas évident que l’inflation ait été définitivement vaincue, avant même la remontée des prix de l’énergie, déclenchée par l’attaque contre l’Iran (3,1 % sur un an en janvier 2026). L’impact direct des droits de douane mis en place en 2025 sur les produits importés s’est atténué, mais le choc a produit un « bruit de fond » qui maintient les anticipations d’inflation des ménages et des entreprises à un niveau élevé. Cette situation est favorable à une réponse d’ampleur du niveau général des prix à d’autres chocs. De plus, avant même la remontée du prix du pétrole et du gaz, les prix de l’électricité étaient déjà en hausse, en raison de la forte demande des centres de données.
Une Fed « traditionnelle », dirigée par Warsh, pourrait probablement considérer que la faiblesse du marché du travail — le secteur privé détruit des emplois depuis avril 2025, hors éducation et santé — justifierait la reprise des baisses de taux, malgré une « bosse » temporaire d’inflation, liée à la hausse des prix du pétrole. Mais, avant même le déclenchement des opérations militaires dans le Golfe, la Fed devait tenir compte d’un autre facteur « exogène » de tension inflationniste : l’arrêt total de l’immigration et le début d’une baisse de la population en âge de travailler. Cette pénurie de main-d’œuvre disponible peut conduire à une résistance des salaires, malgré le ralentissement des créations d’emplois.
Selon Kevin Warsh, une baisse des taux directeurs permettrait d’éviter les effets néfastes d’une réduction du bilan de la Fed sur les conditions financières globales. Sans cette soupape de sécurité, la réduction du montant des titres de dette publique détenus par la banque centrale, conjuguée à une augmentation des émissions de dette publique pour financer des déficits massifs, ne pourrait que se traduire par une forte tension sur les taux d’intérêt à long terme.
Warsh a une vision conservatrice de la Fed, loin des solutions opérationnelles non-conventionnelles : les marchés anticipent un retour aux pratiques traditionnelles des années 1990 et 2000.
Gilles Moëc
Dans un paysage macroéconomique aussi complexe, c’est la conviction de Warsh que les États-Unis sont à la veille d’une vague d’accélération de la productivité, génératrice d’une croissance non-inflationniste forte, qui pourrait peut-être emporter la décision dans un comité de politique monétaire aujourd’hui sceptique, mais c’est un argument difficile à manier.
L’hypothèse d’une accélération de la productivité
La phase actuelle de « croissance sans emploi » pourrait simplement refléter un comportement de précaution des entreprises face au choc douanier sans précédent. Lorsque Donald Trump a été investi pour un second mandat, Consensus Forecasts, qui agrège les prévisions de 27 institutions privées, prévoyait une croissance du PIB de 2,2 % pour 2025. Les prévisions ont ensuite été fortement révisées à la baisse lorsque la Maison-Blanche a annoncé des droits de douane bien supérieurs à ceux qui avaient été évoqués pendant la campagne. Le consensus est alors tombé à un niveau historiquement bas de 1,2 % en mai 2025, soit environ un demi-point en dessous de la tendance. La croissance s’est en fait révélée beaucoup plus résiliente que prévu au printemps dernier, et le PIB a finalement progressé, en moyenne annuelle, en 2025, exactement comme prévu au début de l’année. Les programmes d’embauche seraient tout simplement restés arrimés à la croissance médiocre attendue au printemps.
La « croissance sans emploi » de 2025 pourrait reproduire un schéma devenu assez fréquent aux États-Unis. Dans les années 1970-1980, le décalage entre le rebond du PIB et le redémarrage de l’emploi était très court. En revanche, au cours des trois dernières décennies, il a fallu en moyenne environ deux ans pour que l’emploi retrouve son niveau du dernier pic conjoncturel. Le concept de « reprise sans emploi » est apparu pour la première fois en 1991-1992, mais toutes les reprises depuis lors — à l’exception de la récession très particulière liée au Covid — ont initialement été « sans emploi ». Cette rupture avec le schéma des années 1970-1980 peut s’expliquer par un marché du travail beaucoup plus flexible, qui coïncide avec le déclin du pouvoir syndical. Les entreprises ont « appris » — et trouvé les moyens institutionnels — à rationner l’emploi durant les premières phases d’une reprise, lorsque les perspectives restent incertaines. Dans cette phase, il est plus rationnel d’intensifier l’utilisation de la main-d’œuvre existante. C’est peut-être ce qui s’est passé en 2025 : tant que la croissance restait « à risque » et que les entreprises tentaient de comprendre les implications de la guerre commerciale, elles ont adopté leur réflexe habituel : freiner les embauches.
Dans ce scénario, les créations d’emplois devraient progressivement repartir à la hausse à mesure que l’incertitude se dissipera, du moins tant que le choc énergétique, déclenché par la guerre dans le golfe Persique, ne la prolongera pas. Même si l’impact des droits de douane sur les prix à la consommation s’estompe, l’inflation pourrait rester obstinément au-dessus de l’objectif de la Fed, en raison de la baisse de la main-d’œuvre immigrée, qui freine la reprise de l’activité et de l’emploi, et ce, dans un contexte où les anticipations d’inflation restent élevées selon les enquêtes auprès des consommateurs. Le FOMC s’abstiendrait alors de nouvelles baisses de taux et pourrait même envisager une hausse.
L’interprétation en termes de décalages pourrait toutefois être remise en cause par une autre explication : l’économie américaine serait actuellement confrontée à un véritable « choc de productivité », au sens d’une amélioration structurelle de l’efficacité du travail et du capital — possiblement sous l’effet de l’adoption de l’intelligence artificielle par un nombre croissant d’entreprises, comme au début de la numérisation de l’économie il y a trente ans, et non pas à une simple intensification conjoncturelle de l’utilisation du travail. Depuis le premier trimestre 2023 — lorsque la plupart des perturbations liées au Covid se sont dissipées — la productivité horaire a augmenté à un rythme annualisé moyen de 2,7 % aux États-Unis. Il s’agit de la meilleure performance depuis les années de la « Nouvelle économie » entre 1997 et 2002.
On se souvient que la « nouvelle économie » avait conduit la Fed, sous la direction d’Alan Greenspan, à adopter une politique monétaire plus accommodante que ce que sa fonction de réaction aurait auparavant suggéré, car les coûts unitaires du travail n’augmentaient que modérément : une forte progression des salaires — cohérente avec un faible taux de chômage — était en partie compensée par de solides gains de productivité. C’est sur une telle réplication que compte aujourd’hui Kevin Warsh. Il existe toutefois une différence importante entre la fin des années 1990 et aujourd’hui. Si la reprise après 1990 a d’abord été sans emploi, l’accélération de la productivité dans les dernières années de cette décennie s’est accompagnée d’une forte croissance du nombre de personnes employées. La « nouvelle économie » n’était pas « l’ennemie du travail ». Ce n’est pas le cas aujourd’hui.
Lorsqu’il s’agit de prévoir l’effet de l’IA sur l’emploi, deux visions — défendues par deux lauréats du prix Nobel d’économie— coexistent.
Philippe Aghion défend l’hypothèse optimiste : l’IA peut déplacer les travailleurs hors de leurs occupations actuelles, mais l’emploi total augmente, car les gains de productivité et l’innovation technologique permettent l’émergence de nouvelles activités et de nouvelles industries — en l’absence de barrières à l’entrée.
Selon Daron Acemoglu, en revanche, l’impact net sur l’emploi résulte de la confrontation d’une force négative (l’automatisation) et de deux forces positives : la productivité, qui stimule la demande globale, et la « réinstauration » (re-instatement) de tâches — c’est-à-dire l’apparition de nouvelles tâches pour le travail humain. Dans son modèle, rien ne garantit que la somme des deux forces positives dépasse l’impact de l’automatisation, notamment parce qu’il suppose que la technologie n’est pas exogène, mais orientée vers l’automatisation économisant le travail.
La configuration actuelle pourrait donner raison à Acemoglu — la croissance sans emploi pourrait refléter l’impact négatif de l’automatisation. À première vue, si nous sommes dans un « monde à la Acemoglu », les dépenses d’investissement technologique pourraient continuer à soutenir la croissance du PIB sans provoquer d’expansion de l’emploi, ce qui serait compatible avec une inflation faible. Dans ce cas, la Fed devrait adopter la position accommodante défendue par Kevin Warsh. La situation est cependant plus ambiguë qu’il n’y paraît. Si les taux d’intérêt baissent constamment pour compenser la faiblesse de l’emploi et des salaires, le coût du capital diminuera également, ce qui encouragera une substitution accrue du capital au travail. À l’inverse, si les effets positifs doivent simplement apparaître avec un certain retard, donnant raison à Aghion, la Fed, en abaissant davantage ses taux, tomberait dans le même piège que dans les années 1990 et serait ensuite contrainte de corriger en relevant rapidement les taux.
Il existe enfin une troisième hypothèse. L’accélération actuelle de la productivité pourrait ne pas être structurelle, mais simplement refléter le coup de fouet temporaire donné au PIB par l’énorme investissement nécessaire pour soutenir les capacités liées à l’IA. Il n’existe, pour l’instant, aucune preuve définitive que la productivité tendancielle — l’efficacité fondamentale du travail et du capital — se soit améliorée. Il n’est pas impossible qu’une fois ce rattrapage d’investissement achevé, on découvre que les cas d’usage de l’IA sont moins nombreux qu’espéré. La productivité pourrait alors revenir au rythme observé avant la « fièvre des centres de données ».
Cette ambigüité dans les signaux aujourd’hui émis par l’économie américaine plaide pour que les décideurs publics s’en tiennent à une approche guidée par les données, plutôt que par une « vision ». Mais une telle approche empirique est précisément contestée par Kevin Warsh, qui a exprimé à de nombreuses reprises ses doutes sur l’intérêt des approches dites « data driven ». Ce pourrait être une des sources de conflit entre Warsh et le reste du FOMC.
Un contexte institutionnel délicat
Le président de la Fed n’est pas tout-puissant. Les décisions de politique monétaire sont prises par un comité. Le Président du comité de politique monétaire — le FOMC — qui est traditionnellement (mais pas juridiquement, on y reviendra) le Président du directoire de la Fed jouit d’un pouvoir d’influence important, notamment parce qu’il en est le porte-parole devant le Congrès, le public et le marché, mais il peut avoir des difficultés à faire admettre son point de vue.
La fièvre de l’IA constitue une ambiguïté économique : rien ne dit qu’elle permettra d’améliorer la productivité tendancielle — l’efficacité fondamentale du travail et du capital — de manière structurelle.
Gilles Moëc
La Fed a toujours été plus « unitaire » que la Banque d’Angleterre — qui, elle aussi, à la différence de la BCE, rend public les votes individuels — dont le Gouverneur a plusieurs fois été mis en minorité, mais la simple menace d’une dissidence d’ampleur, qui nuirait à la crédibilité du nouveau Président de la Fed, devrait amener Kevin Warsh à prendre en compte l’opinion centrale du FOMC, dont le recueil, chaque trimestre, des prévisions individuelles de ses membres, permet de se faire une idée. La prévision médiane est aujourd’hui d’une seule baisse de taux en 2026. Les minutes du FOMC suggèrent qu’un débat très ouvert a lieu au FOMC sur les risques inflationnistes, et qu’il ne pourra probablement pas être tranché sans preuve empirique forte.
Les risques de dissidence au sein du FOMC sont d’autant plus grands que certains de ses membres pourraient vouloir « surcompenser » les empiétements croissants de la Maison Blanche sur le territoire de la Fed, en maintenant une posture hostile aux baisses de taux significatives, explicitement demandées par Donald Trump. Outre les attaques verbales violentes du président des États-Unis à l’encontre du président actuel de la Fed, le département de la Justice a lancé des enquêtes contre Jerome Powell (abandonnée depuis) et Lisa Cook, un autre membre du directoire. Le président des États-Unis a même voulu révoquer cette dernière. La Cour suprême a suspendu l’exécution de cette décision, mais n’a pas encore statué sur le fond.
Ces menaces sur l’indépendance de la Fed ont conduit le sénateur republican Thom Tillis à annoncer qu’il bloquerait la confirmation du successeur de Jerome Powell tant que les poursuites contre ce dernier n’étaient pas « résolues ». Le 18 mars 2026, Jerome Powell lui-même a déclaré qu’il continuerait à présider la Fed tant qu’un successeur n’aurait pas été confirmé — ce qui est conforme à la tradition — et qu’en tout état de cause, il continuerait à siéger au board tant que les poursuites contre lui n’étaient pas « résolues ». En effet, son mandat de Président du board s’achève en mai, mais son mandat de membre du board ne vient à échéance qu’en 2028. Si Tillis a levé son opposition avec l’abandon de l’enquête, la décision de Powell n’est pas encore claire.
Il est courant que le Président démissionne du board à l’expiration de son mandat, mais ce n’est pas systématique. Il est même concevable que Jerome Powell puisse rester Président du FOMC après la confirmation de Kevin Warsh. En effet, juridiquement, le FOMC élit son président parmi les membres du board. Il n’est nulle part écrit, même si cela a toujours été le cas jusqu’à maintenant, que le Président du board doit également être le Président du FOMC. Avant même son arrivée, Kevin Warsh est un patron de la Fed « sous surveillance ».
La Fed face à la dérégulation et à la concurrence des monnaies
Si la Fed réduit son bilan, et ne peut pas réduire ses taux directeurs alors que l’offre de titres, notamment par le secteur public continue à croître, il reste une autre voie pour éviter une tension de marché : organiser l’expansion du bilan des banques commerciales américaines et les inciter à accroître leur exposition aux titres de dette publique.
La crise de 2008-2009 a conduit à un effort de régulation massif du secteur bancaire américain, qui a contraint l’expansion de son bilan. Une règle en particulier — le Supplementary Leverage Ratio (SLR) fait débat. En effet, alors que la plupart des normes prudentielles distinguent l’exposition des banques aux différentes classes d’actifs en fonction de leur niveau respectif de risque, le SLR impose un ratio de capital (capital divisé par les engagements) général, dans lequel des titres « sans risque » ont le même poids que des actifs très risqués. Ce SLR a joué un rôle dans la crise du marché obligataire américain au début de la pandémie : à la recherche coute que coute de liquidité, de nombreux investisseurs ont vendu massivement des titres publics, qui, en dépit de leur faible niveau de risque, ne trouvaient pas preneur, parce que les grandes banques commerciales américaines, normalement en charge de l’animation du marché, ne pouvaient plus étendre davantage leur bilan sans butter sur le SLR. Cet épisode a conduit la Fed, conjointement aux autres régulateurs américains, à assouplir partiellement le calcul du SLR, mais sans toutefois aller jusqu’à la sortie totale de ces titres du dénominateur.
Kevin Warsh n’est pas entré dans ce débat technique, mais il s’est déclaré favorable à un assouplissement du cadre réglementaire, en particulier en éloignant les pratiques américaines des normes prudentielles internationales, notamment celles inspirées par le comité de Bâle — dont le SLR fait partie. Pour le citer directement dans son éditorial dans le Wall Street Journal, en novembre 2025 : « Un nouveau régime réglementaire américain réformé devrait faire des États-Unis le meilleur endroit pour les banques mondiales pour faire des affaires. Cela stimulerait de nouveaux prêts ici, chez nous ». Le risque, bien sûr, est qu’une dérégulation excessive du système financier américain ne recrée les conditions d’une crise financière systémique, que la Fed n’aurait d’autre choix que de contenir en ayant recours, une nouvelle fois, à l’extension de son bilan, que Kevin Warsh récuse.
Mais ce soutien à un cadre réglementaire plus flexible s’inscrit parfaitement dans la stratégie économique d’ensemble de l’administration Trump, qui voit dans la dérégulation — financière mais aussi, par exemple, environnementale — une source d’accélération de la croissance. Cet appétit va jusqu’à menacer le principe d’unicité de la monnaie, rejoignant les propositions libertariennes de concurrence entre émetteurs de monnaie. La question des stablecoins en fournit un exemple frappant.
La multiplication des solutions de paiement échappant au contrôle de la Fed et la dérèglementation générale des activités financières seront les prochains défis de la banque centrale.
Gilles Moëc
Le soutien de l’administration américaine au développement des stablecoins — des « jetons » digitaux arrimés à des devises « traditionnelles » — est massif. Il ne reflète pas simplement une volonté de s’assurer que les États-Unis contrôlent la frontière technologique dans tous les domaines, y compris celui des moyens de paiement. La promotion des stablecoins s’inscrit dans une tentative cohérente de répondre à certaines contradictions internes de l’actuel agenda macroéconomique américain.
Jusqu’à présent, il n’y a pas eu de contraction significative du ratio déficit courant/PIB, après la mise en place des tarifs douaniers. Les États-Unis doivent continuer à attirer des flux massifs d’épargne étrangère. Attirer l’épargne internationale vers la dette publique américaine à un taux d’intérêt nul est précisément ce qu’un succès américain sur les stablecoins permettrait d’accomplir. En effet, ces stablecoins ne versent pas d’intérêts à leurs détenteurs, mais sont garantis par des « actifs de haute qualité » qui, en majorité, sont des titres d’État à court terme. La demande — aujourd’hui encore essentiellement cantonnée à l’univers des cryptos — proviendrait, dans le futur, essentiellement d’épargnants situés dans des pays émergents, dont le système bancaire est peu sophistiqué et peu sécurisé, et dont la monnaie nationale est fragile, qui chercheraient à se constituer une réserve en monnaie internationale. Mais il est tout à fait possible que les déposants américains eux-mêmes cherchent à aller vers les stablecoins, pour leur facilité d’usage, la faiblesse des frais et leurs qualités techniques (programmabilité et immédiateté des paiements, par exemple).
Une telle stratégie n’est pas sans risques pour les États-Unis eux-mêmes.
Les exemples historiques de systèmes de « narrow banking » — auxquels la croissance non régulée des stablecoins pourrait conduire — ne sont guère rassurants. En évinçant partiellement les dépôts bancaires traditionnels, les stablecoins pourraient éroder les marges d’intermédiation des banques et, à terme, contribuer à un ralentissement de l’offre de crédit. Cela devrait raviver des souvenirs douloureux aux États-Unis, car les stablecoins rappellent l’organisation monétaire qui prévalait avant 1913. En effet, si l’on met de côté les aspects technologiques, un stablecoin peut essentiellement être défini comme une forme de monnaie indirectement adossée à l’État, plutôt que comme une dette d’une banque (par exemple, un dépôt), ou de la banque centrale (les billets). Malgré leur apparence futuriste, les stablecoins nous ramèneraient en réalité au cadre monétaire dans lequel les États-Unis ont fonctionné entre 1863 et 1913.
Ce système a été décrit en détail par Milton Friedman et Anna Schwartz dans les deux premiers chapitres de leur Monetary History of the United States. Initialement, l’Union finança une partie de ses dépenses militaires pendant la guerre de Sécession en émettant des certificats de dette sans intérêt (« greenbacks »), qui étaient directement utilisés comme monnaie dans les transactions courantes — ils avaient cours légal. Il n’existait alors aucune réserve d’or ou d’argent pour les garantir. Dans la seconde moitié de la guerre civile, le système devint plus sophistiqué. Les National Banking Acts de 1863 et 1864 instaurèrent des banques nationales, dotées d’une charte fédérale, autorisées à émettre des billets imprimés par le gouvernement, eux-mêmes adossés à des obligations publiques. Ces banques nationales jouent un rôle similaire à celui des plateformes de stablecoins aujourd’hui : celui d’intermédiaire entre la dette publique et la monnaie en circulation. Leur modèle économique de base était également comparable : les plateformes comme les banques nationales tiraient profit du taux d’intérêt des titres publics, tandis que les stablecoins, comme les billets de banque, ne portaient pas intérêt.
S’il n’existe pas d’autre forme de monnaie en circulation, dans un système de « banques nationales », la limite supérieure de la quantité de monnaie en circulation est, en dernière analyse, le niveau de la dette publique — ou, s’il existe une contrainte de maturité pour les titres servant de garantie aux stablecoins ou aux billets bancaires, le niveau de la dette publique à court terme. Le système avait été conçu en temps de guerre, afin de financer une expansion rapide des dépenses publiques. À la fin de la guerre de Sécession, la dette de l’Union atteignait environ 25 % du PIB, soit environ cinq fois les recettes fiscales de l’Union. Cela correspondrait aujourd’hui à une dette publique d’environ 150 % du PIB. Au départ, il existait un large stock de dette publique pouvant servir de collatéral pour accroître la masse monétaire, ce qui facilita le développement économique des États-Unis. Cependant, lorsque la rigueur budgétaire fut rapidement rétablie aux États-Unis, l’offre de monnaie ne put, mécaniquement, plus suivre la demande de monnaie. Cela contribua à des épisodes de déflation et à des crises financières, puisqu’il n’existait aucune possibilité d’injecter de la liquidité dans le système.
Les billets des banques nationales n’étaient pas la seule forme de monnaie disponible après la guerre civile. Les banques pouvaient également « créer de la monnaie », comme elles le font aujourd’hui, en accordant du crédit à leurs clients et en élargissant ainsi la base des dépôts — ce qu’elles firent de plus en plus. Cependant, le crédit était contraint, car les banques devaient maintenir des réserves élevées par rapport à leurs dépôts (de 15 % à 25 % à New York et dans les grandes villes), et ces réserves étaient constituées à la fois de titres publics et d’or. Là encore, les fluctuations de la dette publique avaient, en fin de compte, un impact sur la création monétaire via les limites imposées au crédit (l’offre d’or était elle aussi inélastique). Finalement, le système des banques nationales fut abandonné en 1913 en partie pour résoudre le problème d’une offre de monnaie inélastique. Avec le système de la Réserve fédérale, une relation directe entre le rythme d’expansion de l’économie et la masse monétaire fut rétablie, grâce à la possibilité pour les banques d’obtenir de la monnaie de banque centrale en mettant en gage du papier commercial comme collatéral (c’était le principal collatéral utilisé au début du système de la Fed).
Personne ne propose aujourd’hui de remplacer entièrement toutes les formes existantes de monnaie et de dépôts par des stablecoins. Compte tenu de l’ampleur des déficits publics, il faudrait du reste très longtemps pour que l’ensemble du stock de dette publique américaine à court terme soit acheté par les plateformes de stablecoins (actuellement, selon la BRI, les deux principaux émetteurs détiennent ensemble environ 4,5 % de l’encours total de T-Bills). Néanmoins, la Fed ne peut pas ignorer le développement de « monnaies privées » qui pourraient entraver l’efficacité de la transmission de sa politique monétaire.
Conclusion
Les occasions de collision entre la Réserve fédérale et l’exécutif ne manqueront pas.
Toute la communauté des banquiers centraux se souvient d’Arthur Burns, président de la Fed de 1970 à 1978, qui, tout en ayant pleinement conscience du caractère insoutenable des politiques inflationnistes de l’époque, n’osa pas s’opposer aux présidents des États-Unis. C’est cette complaisance qui rendit nécessaire, en 1980, la mise en place d’une politique de restriction monétaire brutale et prolongée.
Jerome Powell a démontré sa capacité à défendre l’indépendance de la banque centrale, au prix d’une prise de risque personnelle lourde. Ce principe d’indépendance est également au cœur de la ligne conservatrice traditionnelle de Kevin Warsh. Il lui importera de rester ferme sur ces fondamentaux.