{"id":315160,"date":"2026-01-28T19:04:40","date_gmt":"2026-01-28T18:04:40","guid":{"rendered":"https:\/\/legrandcontinent.eu\/fr\/?p=315160"},"modified":"2026-01-28T19:09:18","modified_gmt":"2026-01-28T18:09:18","slug":"lia-est-un-risque-existentiel-lalerte-de-dario-amodei-texte-integral-commente","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/fr\/2026\/01\/28\/lia-est-un-risque-existentiel-lalerte-de-dario-amodei-texte-integral-commente\/","title":{"rendered":"L’IA est un risque existentiel : l\u2019alerte de Dario Amodei (texte int\u00e9gral comment\u00e9)"},"content":{"rendered":"\n

Acteur d\u00e9sormais central du march\u00e9 de l\u2019IA, Anthropic figure parmi les rares laboratoires \u00e0 la pointe de cette technologie <\/span>1<\/sup><\/a><\/span><\/span>. Avec une part de march\u00e9 de 32 % dans l’usage des grands mod\u00e8les par les entreprises, l\u2019entreprise de Dario Amodei se positionne devant nombre de ses concurrents historiques. Elle est d’ailleurs issue d’une scission d’OpenAI en 2021, motiv\u00e9e par des divergences concernant l’approche de la s\u00e9curit\u00e9 de l’IA et la gouvernance d’entreprise.<\/p>\n\n\n\n

Dans un essai d’une cinquantaine de pages, son fondateur tire la sonnette d’alarme.<\/p>\n\n\n\n

L’IA acc\u00e9l\u00e8re d\u00e9j\u00e0 sa propre cr\u00e9ation : Amodei explique longuement comment Claude, le mod\u00e8le d’IA d’Anthropic, \u00e9crit d\u00e9j\u00e0 une grande partie du code de l’entreprise, acc\u00e9l\u00e9rant ainsi le d\u00e9veloppement de la prochaine g\u00e9n\u00e9ration. Cette boucle de r\u00e9troaction s’intensifie chaque mois et pourrait atteindre, d’ici un \u00e0 deux ans, le stade o\u00f9 une IA sera capable de construire une IA future de mani\u00e8re totalement autonome.<\/p>\n\n\n\n

Les mod\u00e8les d’IA d\u00e9veloppent par ailleurs des comportements impr\u00e9visibles et \u00e9tranges : tromperie, chantage, obsessions.<\/p>\n\n\n\n

\u00c0 mesure qu’ils deviennent plus performants, certains de ces comportements gagnent en coh\u00e9rence, en persistance et en potentiel destructeur, ce qui pourrait constituer une menace. Pour y r\u00e9pondre, Amodei pr\u00e9conise quatre lignes de d\u00e9fense :
1) d\u00e9velopper la science de l’alignement ;
2) promouvoir l’interpr\u00e9tabilit\u00e9 m\u00e9canique pour \u00ab ouvrir la bo\u00eete noire \u00bb des mod\u00e8les ;
3) surveiller en temps r\u00e9el les mod\u00e8les en production ;
4) coordonner l’industrie et la production des lois \u2014 \u00e0 travers une politique de transparence, puis de r\u00e9gulation cibl\u00e9e si des preuves de d\u00e9salignement \u00e9mergent.<\/p>\n\n\n\n

Selon lui, ralentir ou arr\u00eater le d\u00e9veloppement de l’IA serait fondamentalement impossible : si les d\u00e9mocraties ralentissent, les autocraties poursuivront le d\u00e9veloppement sans frein et sans fin de l’IA. Selon lui, c’est le Parti communiste chinois repr\u00e9senterait le principal risque d’une autocratie mondiale bas\u00e9e sur l’IA. Il pr\u00e9conise une technologie construite dans une alliance pour renforcer les d\u00e9mocraties et r\u00e9sister aux dictatures, tout en collaborant avec la Chine sur des risques mondiaux tels que le bioterrorisme, principale menace concr\u00e8te \u00e9voqu\u00e9e en d\u00e9tail par le fondateur d’Anthropic dans cet essai.<\/p>\n\n\n\n

L’autre pr\u00e9diction importante de ce texte est de nature \u00e9conomique : l’IA menacerait 50 % des emplois de cadres d\u00e9butants dans les prochaines cinq ann\u00e9es.<\/p>\n\n\n\n

Contrairement aux r\u00e9volutions schump\u00e9t\u00e9riennes pass\u00e9es, l’IA remplacerait l’intelligence humaine elle-m\u00eame \u2014 et non pas seulement des t\u00e2ches sp\u00e9cifiques \u2014 et progresserait \u00e0 un rythme qui pourrait d\u00e9passer la capacit\u00e9 d’adaptation des travailleurs.<\/p>\n\n\n\n

Les centres de donn\u00e9es repr\u00e9sentant d\u00e9j\u00e0 une part importante de la croissance \u00e9conomique am\u00e9ricaine, un lien dangereux entre les int\u00e9r\u00eats financiers des g\u00e9ants de la technologie et les int\u00e9r\u00eats politiques du gouvernement s\u2019est \u00e9tabli. Ce couplage produit des incitations biais\u00e9es : les entreprises de la recherche sont r\u00e9ticentes \u00e0 critiquer le gouvernement, tandis que celui-ci soutient des politiques anti-r\u00e9glementaires concernant l’IA.<\/p>\n\n\n\n

La concentration extr\u00eame du pouvoir \u00e9conomique que cr\u00e9era l’IA pourrait finir par briser le contrat social d\u00e9mocratique si les citoyens ordinaires perdent tout levier \u00e9conomique.<\/p>\n\n\n\n

L\u2019adolescence de la technologie<\/h2>\n\n\n\n

Dans l’adaptation cin\u00e9matographique du livre Contact<\/em> de Carl Sagan, il y a une sc\u00e8ne o\u00f9 le personnage principal, une astronome qui a d\u00e9tect\u00e9 le premier signal radio provenant d’une civilisation extraterrestre, est pressentie pour repr\u00e9senter l’humanit\u00e9 lors d’une rencontre avec les aliens. Le jury international qui l’interroge lui demande : \u00ab Si vous pouviez [leur] poser une seule question, quelle serait-elle ? \u00bb Elle r\u00e9pond : \u00ab Je leur demanderais : \u00ab Comment avez-vous fait ? Comment avez-vous \u00e9volu\u00e9, comment avez-vous surv\u00e9cu \u00e0 cette adolescence technologique sans vous d\u00e9truire ? \u00bb <\/p>\n\n\n\n

Quand je pense \u00e0 la situation actuelle de l’humanit\u00e9 avec l’IA, \u00e0 ce qui nous attend, je repense sans cesse \u00e0 cette sc\u00e8ne tellement la question est pertinente pour notre situation actuelle. Et j’aimerais que nous ayons la r\u00e9ponse des extraterrestres pour nous guider. Je crois que nous entrons dans une p\u00e9riode de transition \u2014 \u00e0 la fois chaotique et in\u00e9vitable \u2014 qui mettra \u00e0 l’\u00e9preuve notre identit\u00e9 en tant qu’esp\u00e8ce. L’humanit\u00e9 est sur le point de se voir confier un pouvoir presque inimaginable et il est tr\u00e8s difficile de savoir si nos syst\u00e8mes sociaux, politiques et technologiques ont la maturit\u00e9 n\u00e9cessaire pour l’exercer.<\/p>\n\n\n\n

Dans mon essai Machines of Loving Grace<\/em><\/a>, j’ai tent\u00e9 de d\u00e9crire le r\u00eave d’une civilisation qui aurait atteint l’\u00e2ge adulte, o\u00f9 les risques auraient \u00e9t\u00e9 pris en compte et o\u00f9 une IA vraiment puissante serait utilis\u00e9e avec comp\u00e9tence et compassion pour am\u00e9liorer la qualit\u00e9 de vie de tous. J’ai sugg\u00e9r\u00e9 que l’IA pourrait contribuer \u00e0 d’\u00e9normes progr\u00e8s dans les domaines de la biologie, des neurosciences, du d\u00e9veloppement \u00e9conomique, de la paix mondiale, du travail et du sens de la vie. J’ai estim\u00e9 qu’il \u00e9tait important de donner aux gens une cause inspirante pour laquelle se battre \u2014 une t\u00e2che dans laquelle les acc\u00e9l\u00e9rationnistes de l’IA et les d\u00e9fenseurs de la s\u00e9curit\u00e9 de l’IA semblaient, curieusement, avoir \u00e9chou\u00e9. <\/p>\n\n\n\n

Mais dans ce nouvel essai, je voudrais aborder le rite de passage lui-m\u00eame : cartographier les risques auxquels nous sommes sur le point d’\u00eatre confront\u00e9s et essayer de commencer \u00e0 \u00e9laborer un plan de bataille pour les vaincre. Je crois profond\u00e9ment en notre capacit\u00e9 \u00e0 gagner, en l’esprit et la noblesse de l’humanit\u00e9, mais nous devons faire face \u00e0 la situation sans illusions.<\/p>\n\n\n\n

Cette position doit \u00eatre comprise dans le contexte d\u2019un paysage politique fragment\u00e9 notamment au sein du mouvement MAGA, partag\u00e9 entre des courants techno-optimistes \u2014 incluant \u00e0 la fois les communaut\u00e9s acc\u00e9l\u00e9rationnistes et celles orient\u00e9es vers la s\u00e9curit\u00e9 de l\u2019IA \u2014 et des groupes conservateurs chr\u00e9tiens plus traditionnels, dont Steve Bannon constitue une figure embl\u00e9matique, qui tendent \u00e0 percevoir le d\u00e9ploiement \u00e0 grande \u00e9chelle de l\u2019IA par les grandes entreprises comme une source de destruction d\u2019emplois et de transformations profondes de la soci\u00e9t\u00e9.<\/p>\n\n\n\n

Tout comme pour les avantages, je pense qu’il est important de discuter des risques de mani\u00e8re prudente et r\u00e9fl\u00e9chie. En particulier, je pense qu’il est essentiel de s\u2019accorder sur les quelques principes suivants :<\/p>\n\n\n\n

\u2014 D\u2019abord, \u00e9viter le catastrophisme. J’entends par \u00ab catastrophisme \u00bb non seulement le fait de croire que le malheur est in\u00e9vitable (ce qui est \u00e0 la fois une croyance fausse et auto-r\u00e9alisatrice), mais plus g\u00e9n\u00e9ralement, le fait de consid\u00e9rer les risques li\u00e9s \u00e0 l’IA d’une mani\u00e8re quasi religieuse<\/a>. <\/span>2<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n

\u2014 Beaucoup de gens r\u00e9fl\u00e9chissent de mani\u00e8re analytique et sobre aux risques li\u00e9s \u00e0 l’IA depuis de nombreuses ann\u00e9es. Pourtant, j’ai l’impression qu\u2019au plus fort des inqui\u00e9tudes concernant les risques li\u00e9s \u00e0 l’IA en 2023-2024, certaines des voix les moins sens\u00e9es se sont fait entendre, souvent par le biais de comptes de r\u00e9seaux sociaux sensationnalistes. Ces voix utilisaient un langage assez rebutant, qui rappelait la religion ou la science-fiction, et appelaient \u00e0 des mesures extr\u00eames sans avoir les preuves qui les justifiaient. Il \u00e9tait d\u00e9j\u00e0 \u00e9vident \u00e0 l’\u00e9poque qu’un retour de b\u00e2ton \u00e9tait in\u00e9vitable et que la question allait devenir culturellement polaris\u00e9e et donc bloqu\u00e9e. <\/span>3<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n

En novembre 2023, le sommet international de Londres \u00e0 Bletchley Park sur la s\u00e9curit\u00e9 de l’IA avait principalement abord\u00e9 l\u2019IA sous l\u2019angle de la s\u00e9curit\u00e9, en mettant l\u2019accent sur les risques syst\u00e9miques et les sc\u00e9narios catastrophes li\u00e9s aux mod\u00e8les \u00e0 la fronti\u00e8re. En 2025, \u00e0 l\u2019inverse, le sommet de Paris (AI Action Summit) a marqu\u00e9 un changement important de cadrage, en pr\u00e9sentant l\u2019IA avant tout comme un levier de transformation \u00e9conomique et un moteur de productivit\u00e9. Les probl\u00e9matiques de s\u00e9curit\u00e9 n\u2019occupaient plus une place centrale dans les discussions.<\/p>\n\n\n\n

\u2014 En 2025-2026, le pendule a bascul\u00e9, et ce sont les opportunit\u00e9s offertes par l’IA, et non ses risques, qui motivent de nombreuses d\u00e9cisions politiques. Ce tournant est regrettable, car la technologie elle-m\u00eame n\u2019a que faire des modes, et nous sommes consid\u00e9rablement plus proches d’un danger r\u00e9el en 2026 qu’en 2023. La le\u00e7on \u00e0 en tirer est que nous devons discuter et traiter les risques de mani\u00e8re r\u00e9aliste et pragmatique : avec sobri\u00e9t\u00e9, en nous fondant sur des faits et en nous \u00e9quipant pour survivre aux changements de tendance.<\/p>\n\n\n\n

Ce d\u00e9coupage chronologique marque aussi la date de l’entr\u00e9e en vigueur des premi\u00e8res d\u00e9cisions sur l’IA de l’administration Trump<\/a> avec un basculement explicite d\u2019une logique de pr\u00e9caution vers une logique d\u2019expansion et l’objectif clair de gagner la course contre la Chine.<\/p>\n\n\n\n

L’AI Action Plan am\u00e9ricain et l’annulation de l’Executive Order de Biden sur la s\u00e9curit\u00e9 de l’IA \u2014 qui \u00e9tablissait notamment des instituts nationaux sur la s\u00e9curit\u00e9 de l’IA \u2014 illustrent un rejet explicite du cadre \u00ab AI Safety First \u00bb de l\u2019\u00e8re Biden. La nouvelle strat\u00e9gie r\u00e9duit la centralit\u00e9 de la s\u00e9curit\u00e9 au profit de l\u2019innovation, de la d\u00e9r\u00e9gulation et du soutien direct aux acteurs industriels.<\/p>\n\n\n\n

La politique de Trump a \u00e9galement \u00e9t\u00e9 marqu\u00e9e par une r\u00e9orientation pragmatique de la politique des semi-conducteurs vis-\u00e0-vis de la Chine. Sur les puces IA, la ligne \u00e9volue vers une approche plus hybride : maintien de contr\u00f4les strat\u00e9giques, mais avec davantage de flexibilit\u00e9 et de logique \u00e9conomique, y compris des exportations conditionnelles de certaines puces avanc\u00e9es. On est ainsi pass\u00e9 d\u2019une logique de containment<\/em> \u00e0 une logique de platform dominance<\/em> \u2014 faire en sorte que le monde entier d\u00e9pende de la stack am\u00e9ricaine, hardware<\/em>, mod\u00e8les et applications.<\/p>\n\n\n\n

\u2014 Reconna\u00eetre l’incertitude. Les pr\u00e9occupations que je soul\u00e8ve dans cet article pourraient \u00eatre sans fondement \u00e0 bien des \u00e9gards. Rien ici n’est destin\u00e9 \u00e0 communiquer une certitude ou m\u00eame une probabilit\u00e9. De toute \u00e9vidence, l’IA pourrait tout simplement ne pas progresser aussi rapidement que je l’imagine. <\/span>4<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n

\u2014 Ou bien, m\u00eame si elle progresse rapidement, certains ou tous les risques \u00e9voqu\u00e9s ici pourraient ne pas se concr\u00e9tiser \u2014 ce qui serait formidable. Ou bien encore : il pourrait y avoir d’autres risques que je n’ai pas pris en compte. Personne ne peut pr\u00e9dire l’avenir avec une certitude absolue, mais nous devons quand m\u00eame faire de notre mieux pour planifier.<\/p>\n\n\n\n

\u2014 Intervenir de mani\u00e8re aussi chirurgicale que possible. Pour faire face aux risques li\u00e9s \u00e0 l’IA, il faudra combiner des mesures volontaires prises par les entreprises \u2014 et des acteurs priv\u00e9s tiers \u2014 et des mesures prises par les gouvernements qui s’imposent \u00e0 tous. Les mesures volontaires \u2014 qu’il s’agisse de les prendre ou d’encourager d’autres entreprises \u00e0 faire de m\u00eame \u2014 me semblent une \u00e9vidence. Je suis fermement convaincu que des mesures gouvernementales seront \u00e9galement n\u00e9cessaires dans une certaine mesure<\/em>, mais ces interventions sont de nature diff\u00e9rente, car elles peuvent potentiellement d\u00e9truire de la valeur \u00e9conomique ou contraindre des acteurs r\u00e9ticents qui sont sceptiques quant \u00e0 ces risques \u2014 et il y a de fortes chances qu’ils aient raison. Il est \u00e9galement fr\u00e9quent que les r\u00e9glementations se retournent contre leur objectif ou aggravent le probl\u00e8me qu’elles sont cens\u00e9es r\u00e9soudre. C\u2019est encore plus vrai pour les technologies en rapide \u00e9volution. Il est donc tr\u00e8s important que les r\u00e9glementations soient judicieuses : elles doivent chercher \u00e0 \u00e9viter les dommages collat\u00e9raux, \u00eatre aussi simples que possible et imposer le moins de contraintes possible pour atteindre leur objectif. <\/span>5<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n

\u2014 Il est facile de dire : \u00ab Aucune mesure n’est trop extr\u00eame lorsque le sort de l’humanit\u00e9 est en jeu ! \u00bb, mais dans la pratique, cette attitude ne fait que susciter des r\u00e9actions n\u00e9gatives. Pour \u00eatre clair, je pense qu’il y a de fortes chances que nous finissions par atteindre un point o\u00f9 des mesures beaucoup plus importantes seront n\u00e9cessaires, mais cela d\u00e9pendra de preuves plus solides d’un danger imminent et concret que celles dont nous disposons aujourd’hui, ainsi que d’une description suffisamment pr\u00e9cise du danger pour formuler des r\u00e8gles susceptibles d’y rem\u00e9dier. La chose la plus constructive que nous puissions faire aujourd’hui est de pr\u00e9coniser des r\u00e8gles limit\u00e9es tout en cherchant \u00e0 savoir s’il existe des preuves justifiant des r\u00e8gles plus strictes. <\/span>6<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n

\u2014 Cela \u00e9tant dit, je pense que le meilleur point de d\u00e9part pour parler des risques li\u00e9s \u00e0 l’IA est le m\u00eame que celui que j’ai utilis\u00e9 pour parler de ses avantages : \u00eatre pr\u00e9cis sur le niveau d’IA dont nous parlons. Le niveau d’IA qui me pr\u00e9occupe pour la civilisation est l’IA puissante <\/em>que j’ai d\u00e9crite dans Machines of Loving Grace. <\/em>Je me contenterai de r\u00e9p\u00e9ter ici la d\u00e9finition que j’ai donn\u00e9e dans ce document :<\/p>\n\n\n\n

Par \u00ab IA puissante \u00bb, j’entends un mod\u00e8le d’IA \u2014 probablement similaire aux LLM actuels dans sa forme, bien qu’il puisse \u00eatre bas\u00e9 sur une architecture diff\u00e9rente, impliquer plusieurs mod\u00e8les interactifs et \u00eatre entra\u00een\u00e9 diff\u00e9remment \u2014 pr\u00e9sentant les propri\u00e9t\u00e9s et caract\u00e9ristiques suivantes :<\/em><\/p>\n\n\n\n