La singularité harmonieuse : notre futur selon Sam Altman, concepteur de ChatGPT
« Nous construisons un cerveau pour le monde. »
« ChatGPT est déjà plus puissant que n’importe quel être humain ayant jamais vécu. »
« Puisse notre trajectoire vers la superintelligence être fluide, exponentielle et sans accroc. »
Nous traduisons et commentons les prédictions du fondateur d’OpenAI — le dernier texte de Sam Altman écrit sans l’aide de ChatGPT.
- Auteur
- Victor Storchan •
- Image
- © Nathan Posner/Shutterstock

Dans un texte publié le 10 juin dernier et dont il a affirmé être particulièrement fier, Sam Altman a essayé de donner une nouvelle définition de sa vision du futur : a gentle singularity. Le terme gentle, qu’on aurait aussi pu traduire par « douce », est ici la clef et doit être compris dans un sens emphatique. Le terme singularity (« singularité ») désigne un point hypothétique dans le futur où la croissance technologique entraînerait de manière irréversible des transformations radicales de la civilisation humaine. Ce concept est souvent associé à l’émergence d’une IA « superintelligente » dépassant les capacités humaines, susceptible d’accélérer le progrès technologique de manière difficilement prévisible.
Pour Altman, ce point de bascule est une idée fixe : il pourrait s’effectuer de manière plus ou moins soudaine et abrupte dans l’économie et la société.
Dans son texte canonique (Moore’s Law for Everything) dont nous avons proposé une traduction dans les pages du dernier volume papier du Grand Continent, Altman craignait déjà que cette révolution vers la superintelligence ne soit trop brutale et proposait avec OpenAI une voie acceptable en concluant : « l’avenir peut être incroyable ».
Depuis, il s’emploie à convaincre qu’il est possible non seulement d’atteindre ce point mais de l’atteindre de manière douce ou, pour traduire plus exactement sa vision rêvée, harmonieuse.
Il en est désormais convaincu : « l’avenir peut être infiniment meilleur que le présent. »
Dans un post sur la plateforme X 1, Sam Altman a indiqué que ce texte serait probablement le dernier qu’il rédigera sans l’aide de l’IA.
Nous avons franchi un seuil ; le décollage a commencé.
L’humanité est proche de créer une superintelligence numérique et, jusqu’à présent du moins, tout se passe de manière beaucoup moins bizarre que ce que l’on aurait pu imaginer.
Bien que l’horizon temporel ne soit pas explicitement défini, Altman laisse entendre dans ce texte que la transformation s’accélère par rapport à l’horizon de plusieurs décennies qu’il anticipait dans son texte sur la loi fondamentale de l’IA : « Dans les cinq prochaines années, des programmes informatiques capables de penser liront des documents juridiques et donneront des conseils médicaux. Dans la décennie suivante, ils effectueront du travail à la chaîne et deviendront peut-être même des compagnons. Et dans les décennies suivantes, ils feront presque tout, y compris de nouvelles découvertes scientifiques qui élargiront notre concept de ‘tout’. »
Les robots ne parcourent pas encore les rues et la plupart d’entre nous ne passons pas encore nos journées à discuter avec l’IA.
Les maladies tuent encore.
On ne peut toujours pas aller facilement dans l’espace — et de nombreux aspects de l’univers continuent à échapper à notre entendement.
Pourtant, nous avons récemment créé des systèmes qui surpassent l’être humain dans de nombreux domaines et qui sont capables d’amplifier de manière significative la productivité des personnes qui les utilisent.
La partie la plus incertaine du travail est derrière nous : les découvertes scientifiques qui ont permis des systèmes comme GPT-4 et o3 ont été chèrement acquises, mais elles nous mèneront très loin.
La majorité des chercheurs ont en effet été surpris par le niveau de performance atteint par ChatGPT et par la rapidité avec laquelle ces résultats ont été obtenus 2. Comme le relève Altman, ces réalisations ont nécessité une conviction forte de la part d’OpenAI pour passer à l’échelle les premiers des architectures de modèles 3, alors que le niveau d’investissement était très élevé par rapport au niveau d’incertitude encore en jeu.
L’IA apportera de nombreuses contributions au monde.
Les gains en qualité de vie que procureront les avancées scientifiques accélérées et l’augmentation de la productivité grâce à l’IA seront énormes.
L’avenir peut être infiniment meilleur que le présent.
Le progrès scientifique est le principal moteur du progrès global ; il est extrêmement excitant d’imaginer tout ce que nous pourrions encore accomplir.
D’une certaine manière, ChatGPT est déjà plus puissant que n’importe quel être humain ayant jamais vécu.
Des centaines de millions de personnes s’y fient chaque jour pour des tâches de plus en plus importantes ; une petite amélioration du modèle peut produire un impact extrêmement positif ; un défaut mineur d’alignement du modèle, multiplié par des centaines de millions d’utilisateurs, peut générer un impact négatif considérable.
L’alignement est un des sous-domaines de recherche en sécurité de l’IA.
Il s’agit du principe selon lequel les modèles sont affinés sur plusieurs dimensions pour produire un modèle plus sûr — par exemple sur le plan des préférences utilisateurs, des politiques de modération de contenus ou des principes de sécurité — afin de minimiser les risques.
L’année 2025 a vu l’apparition d’agents capables de réaliser un véritable travail cognitif ; on n’écrit déjà plus de code informatique comme auparavant.
2026 verra probablement l’émergence de systèmes capables de découvrir des idées nouvelles.
2027 pourrait voir l’arrivée des agents : des robots capables d’exécuter des tâches dans le monde réel.
Les agents sont des modèles d’IA, connectés à divers outils et interfaces (moteurs de recherche, bases de données, etc.), capables de raisonner et d’agir sur leur environnement afin de résoudre des tâches de manière autonome ou en interaction avec un humain. Si la durée des tâches accomplies de cette façon a fortement augmenté ces derniers mois, les agents — tout comme l’environnement dans lequel ils opèrent — doivent encore évoluer pour prolonger davantage leur capacité de travail en autonomie 4.
Beaucoup plus de gens seront capables de créer des logiciels et de l’art.
Mais la demande de l’un et de l’autre restera immense et les experts resteront probablement bien meilleurs que les profanes — s’ils adoptent ces nouveaux outils. De manière générale, la capacité d’une personne à accomplir bien plus en 2030 qu’en 2020 marquera un changement profond. Beaucoup sauront en tirer parti.
Sur les aspects les plus fondamentaux, les années 2030 ne seront peut-être pas radicalement différentes d’aujourd’hui. Les gens continueront d’aimer leur famille, d’exprimer leur créativité, de jouer, de nager dans des lacs.
Mais sous d’autres aspects, également très importants, les années 2030 seront probablement radicalement différentes de tout ce que nous avons connu auparavant.
Nous ignorons jusqu’où nous pourrons dépasser l’intelligence humaine, mais nous allons bientôt le découvrir.
Dans les années 2030, l’intelligence et l’énergie — les idées et la capacité de les concrétiser — deviendront extrêmement abondantes. Ces deux facteurs ont été les principales limites au progrès humain depuis longtemps ; avec une intelligence et une énergie abondantes — sans oublier une bonne gouvernance — nous pourrons théoriquement obtenir tout le reste.
La question philosophique d’une possibilité de « sortie » de la politique est débattue dans la Silicon Valley. En allouant un pouvoir quasi-magique à une intelligence rationnelle, une énergie abondante et une bonne gouvernance dont il ne précise pas la nature, le fondateur d’OpenAI exclut de facto toute volonté humaine. Cette prophétie cache un programme : la fin discrète de la démocratie. Comme le rappelait Giuliano da Empoli : « Prédire l’avenir est toujours un acte de pouvoir, mais imaginer des futurs alternatifs est toujours un acte de liberté. »
Nous vivons déjà avec une intelligence numérique incroyable.
Après un choc initial, la plupart d’entre nous s’y sont habitués.
Sous la direction de Giuliano da Empoli. Postface par Benjamín Labatut.
Avec les contributions de Daron Acemoğlu, Sam Altman, Marc Andreessen, Lorenzo Castellani, Adam Curtis, Mario Draghi, He Jiayan, Marietje Schaake, Vladislav Sourkov, Peter Thiel, Svetlana Tikhanovskaïa, Jianwei Xun et Curtis Yarvin.
En librairie ou sur abonnement.
Très vite, nous passons de l’émerveillement qu’une IA puisse rédiger un paragraphe magnifique à l’attente qu’elle puisse écrire un roman entier ; de l’émerveillement qu’elle puisse poser un diagnostic médical salvateur à l’attente qu’elle découvre les remèdes ; de l’émerveillement qu’elle puisse écrire un petit programme informatique à l’attente qu’elle puisse créer une entreprise entière.
C’est ainsi que progresse la singularité : les merveilles deviennent routinières, puis des acquis de base.
Des scientifiques affirment déjà qu’ils sont deux à trois fois plus productifs qu’avant grâce à l’IA.
L’IA la plus avancée est fascinante à bien des égards, mais rien n’est en fait aussi important que le fait que nous puissions l’utiliser pour accélérer la recherche en IA elle-même.
Nous pourrions découvrir de nouveaux substrats de calcul, de meilleurs algorithmes — et qui sait quoi d’autre encore. Si nous pouvons accomplir dix ans de recherche en un an, ou un mois, alors le rythme du progrès sera évidemment très différent.
Le futur qu’évoque ici Altman, est un environnement dans lequel le chercheur gère des systèmes multi-agents qui peuvent rapidement explorer en autonomie une multitudes d’hypothèses et de pistes en parallèle. DeepMind a publié en juin un document pertinent à ce sujet, fruit d’une collaboration avec le chercheur Terence Tao 5, Médaille Fields en 2006. Selon lui : « il est tentant de simplifier cela en un récit à somme nulle, avec des ‘gagnants’ et des ‘perdants’, mais je trouve au contraire qu’il est très positif que différentes approches puissent se compléter ici pour faire progresser les mathématiques. Les avantages d’une approche de type AlphaEvolve résident davantage dans l’étendue que dans la profondeur : on peut utiliser AlphaEvolve pour passer en revue de vastes ensembles de problèmes afin d’identifier les domaines où la littérature pourrait être améliorée, et des experts humains (peut-être eux-mêmes assistés par des ordinateurs) peuvent ensuite concentrer leur attention sur ces problèmes pour faire avancer davantage la recherche. »
Dès maintenant, les outils que nous avons déjà construits vont nous aider à découvrir de nouvelles connaissances scientifiques et à concevoir de meilleurs systèmes d’IA. Bien sûr, ce n’est pas la même chose qu’un système d’IA mettant à jour son propre code de manière totalement autonome, mais c’est néanmoins une version embryonnaire de l’amélioration récursive de soi.
D’autres boucles auto-renforçantes sont également en jeu.
La création de valeur économique a enclenché une dynamique de construction d’infrastructures pour faire tourner ces systèmes d’IA de plus en plus puissants.
Différentes régions du monde se sont lancées dans une course aux infrastructures (datacenters, infrastructures énergétiques). Selon certaines projections, la demande énergétique mondiale pour l’IA dans les datacenters pourrait atteindre 68 GW d’ici 2027 et 327 GW d’ici 2030. 6 Pour rappel, la capacité totale mondiale des datacenters était de seulement 88 GW en 2022 (ce chiffre comprenant les usages destinés à l’IA, mais aussi aux autres services, comme le cloud).
Les robots capables de fabriquer d’autres robots — et, dans une certaine mesure, des centres de données capables de fabriquer d’autres centres de données — sont pour bientôt.
L’IA est déjà utilisée pour accélérer sa propre chaîne de production. Elle est ainsi mobilisée pour optimiser l’efficacité énergétique des datacenters 7, pour améliorer le design des semiconducteurs 8 ou pour programmer plus efficacement des GPUs 9.
S’il faut produire le premier million de robots humanoïdes de manière traditionnelle, industrielle, mais que les robots sont ensuite capables de gérer toute la chaîne d’approvisionnement — extraire et raffiner les minerais, conduire les camions, faire fonctionner les usines, etc. — pour produire davantage de robots, qui eux-mêmes construiront davantage de fabriques de puces, de centres de données, etc. — alors le rythme de progrès changera radicalement.
À mesure que la production de centres de données sera automatisée, le coût de l’intelligence devrait finir par converger avec le coût de l’électricité.
Le coût actuel de l’IA est décomposable au premier ordre entre les variables suivantes : électricité, salaires des équipes de R&D, GPUs et accélérateurs spécialisés, autres matériels pour les serveurs.
Dans l’hypothèse, évoquée par Altman, où la chaîne de production de l’IA serait transformée en une pure commodity ou un produit standardisé sous l’effet de la progression de l’IA elle-même, seul le coût de l’énergie demeure dans l’équation 10.
(Les gens se demandent souvent combien d’énergie consomme une requête ChatGPT ; en moyenne, une requête utilise environ 0,34 watt-heure, soit ce qu’un four consommerait en un peu plus d’une seconde, ou qu’une ampoule à haute efficacité consommerait en quelques minutes. Elle consomme aussi environ 0,000085 gallon d’eau ; soit environ un quinzième de cuillère à café.)
Les parenthèses servent ici à mieux mettre en relief cet extrait, explicitement mis en avant par Sam Altman sur X comme un passage clef de son texte.
La méthodologie de calcul de ces chiffres ainsi que les modèles auxquels ils se rapportent ne sont pas précisés.
Par ailleurs, présenter la consommation d’énergie de l’IA à partir d’une requête est trompeur si l’on ne précise pas combien de requêtes sont effectuées au total — sachant que la possibilité de faire un nombre illimité de requêtes à ChatGPT est précisément ce que vend OpenAI dans ses divers abonnements.
Le rythme du progrès technologique continuera d’accélérer et les gens continueront de s’adapter à presque tout. Il y aura certes des difficultés, comme la disparition de certaines catégories d’emplois, mais d’un autre côté, le monde s’enrichira si rapidement que nous pourrons envisager de nouvelles politiques autrefois inimaginables.
Il n’existe pour l’instant pas de consensus économique sur l’impact de l’IA à court et moyen terme sur le monde du travail. Les économistes produisent des estimations quantitatives variées 11.
Nous n’adopterons sans doute pas un nouveau contrat social du jour au lendemain, mais lorsque nous regarderons en arrière dans quelques décennies, les changements progressifs auront produit quelque chose de majeur.
La transformation sociale est au cœur du projet esquissé dans ce texte, Altman ayant déjà déclaré qu’un « nouveau contrat social » était selon lui rendu indispensable par l’IA.
Il a lui-même financé des expérimentations de revenu universel de base sur trois ans 12.
Il a également récemment exprimé le fait que, selon lui, il existerait toujours de nouveaux emplois mais que l’organisation de la société devrait être débattue et repensée en profondeur 13.
Dans son texte le plus canonique, Altman présentait l’idée suivante : réformer le capitalisme à l’ère de l’IA en taxant principalement le capital — les entreprises et le foncier — plutôt que le travail. Ces impôts alimenteraient un « American Equity Fund » redistribuant chaque année aux citoyens des actions d’entreprises et des liquidités, leur donnant ainsi une part de la croissance économique.
Si l’histoire nous sert de guide, nous découvrirons de nouvelles activités et de nouveaux désirs, et assimilerons rapidement les nouveaux outils — le changement d’emploi après la révolution industrielle en est un bon exemple dans l’histoire récente. Les attentes augmenteront, mais les capacités aussi, et nous aurons tous accès à de meilleures choses. Nous construirons des merveilles toujours plus grandes les uns pour les autres. Les humains ont un avantage important et durable sur l’IA : nous sommes capables de nous soucier des autres, de leurs pensées et actions, et nous nous soucions peu des machines.
Un paysan d’il y a mille ans regarderait ce que nous faisons aujourd’hui et dirait que nous avons des emplois fictifs, pensant que nous jouons simplement pour nous divertir puisque nous avons de quoi manger et accès à un luxe inimaginable pour lui. J’espère que nous regarderons les emplois d’aujourd’hui dans mille ans et les trouverons totalement « fictifs ». Et je ne doute pas que les emplois du futur sembleront incroyablement importants et épanouissants à ceux qui les exerceront.
Le rythme des nouvelles merveilles réalisées sera immense.
Il est difficile d’imaginer aujourd’hui ce que nous aurons découvert d’ici 2035 ; peut-être passerons-nous de la résolution de la physique des hautes énergies une année à la colonisation spatiale l’année suivante ; ou d’une percée en science des matériaux une année à de véritables interfaces cerveau-ordinateur à haut débit l’année suivante.
Beaucoup de gens mèneront une vie similaire à celle d’aujourd’hui, mais certains choisiront sans doute de « se connecter ».
En anglais dans le texte original « wonders », le mot « merveilles » pourrait aussi se traduire par « miracles » ou « prodiges ». Dans une de ses premières notes de blog, Altman écrivait ceci : « les personnes qui réussissent créent des entreprises. Celles qui réussissent encore plus créent des pays. Et celles qui réussissent au-dessus des autres créent des religions. » 14
Quand on regarde vers l’avenir, tout cela semble difficile à concevoir. Vivre cette évolution paraîtra probablement impressionnant mais gérable. D’un point de vue relativiste, la singularité survient petit à petit, et la fusion se fait lentement. Nous gravissons la longue courbe du progrès technologique exponentiel ; elle paraît toujours verticale quand on regarde vers l’avant et plate lorsqu’on regarde en arrière, mais c’est une courbe continue. (Repensez à 2020, et à ce qu’aurait semblé l’idée d’approcher de l’intelligence artificielle générale en 2025, comparé à ce que ces cinq dernières années ont réellement été.)
Il y a de sérieux défis à relever en parallèle des immenses opportunités.
Nous devons résoudre les problèmes de sécurité, sur les plans technique et sociétal, mais il est par la suite crucial de rendre largement accessible la superintelligence, compte tenu de ses implications économiques.
La meilleure voie pourrait donc ressembler à ceci :
1 — Résoudre le problème de l’alignement, c’est-à-dire garantir de manière robuste que les systèmes d’IA apprennent et agissent en fonction de ce que nous voulons collectivement à long terme (les fils d’actualités sur les réseaux sociaux sont un exemple d’IA mal alignée ; ces algorithmes sont extrêmement efficaces pour vous faire continuer à faire scroller et comprennent clairement vos préférences à court terme, mais ils exploitent un biais de votre cerveau qui éclipse vos préférences à long terme).
2 — S’attacher à rendre la superintelligence peu coûteuse, largement accessible et non concentrée entre les mains d’un individu, d’une entreprise ou d’un pays. La société est résiliente, créative et s’adapte vite. Si nous pouvons mobiliser la volonté et la sagesse collectives, alors même si nous ferons beaucoup d’erreurs et que certaines choses tourneront mal, nous apprendrons et nous nous adapterons rapidement. Nous saurons exploiter cette technologie pour maximiser les bénéfices et minimiser les risques. Accorder beaucoup de liberté aux utilisateurs, dans les larges limites définies par la société, me semble très important. Le plus tôt le monde commencera à discuter de ces limites et de la façon de définir un alignement collectif, le mieux ce sera.
Cette notion de liberté de l’utilisateur se reflète dans le débat sur les stratégies de déploiement des modèles, notamment entre open source ou API fermées. Récemment, Altman a suggéré qu’OpenAI avait été du mauvais côté de l’histoire sur l’open source et qu’un modèle ouvert allait être annoncé 15.
Nous — je parle de l’ensemble du secteur, et pas seulement d’OpenAI — construisons un cerveau pour le monde.
Il sera extrêmement personnalisé et facile à utiliser pour chacun ; nous ne serons limités que par les bonnes idées. Longtemps, les techniciens des startups se sont moqués des « gens à idées » : ceux qui avaient une idée mais cherchaient une équipe pour la concrétiser.
Il me semble aujourd’hui que leur heure de gloire est arrivée.
Sam Altman a été le président de l’incubateur californien Y Combinator jusqu’en 2019. Il a également anticipé l’idée de l’émergence prochaine de startups valant un milliard de dollars (licornes) créées par une seule personne, rendues possibles grâce à l’IA 16.
OpenAI est aujourd’hui bien des choses, mais avant tout, nous sommes une entreprise de recherche en superintelligence.
Nous avons encore beaucoup de travail devant nous mais la plus grande partie du chemin est désormais éclairée — les zones d’ombre reculent vite. Nous sommes extraordinairement reconnaissants de pouvoir faire ce que nous faisons.
Une intelligence à un coût négligeable est à portée de main.
Cela peut paraître fou à dire, mais si nous vous avions dit en 2020 où nous en serions aujourd’hui, cela aurait sans doute semblé plus fou encore que nos prédictions actuelles pour 2030.
Puisse notre trajectoire vers la superintelligence être fluide, exponentielle et sans accroc.
Sources
- Sam Altman, X, 10 juin 2025.
- Voir par exemple : Yoshua Bengio, « My testimony in front of the U.S. Senate – The urgency to act against AI threats to democracy, society and national security », 25 juillet 2023.
- Fireside Chat with Ilya Sutskever and Jensen Huang : AI Today and Vision of the Future, NVIDIA On-Demand, mars 2023.
- Measuring AI Ability to Complete Long Tasks, METR, 19 mars 2025.
- AlphaEvolve : A Gemini-powered coding agent for designing advanced algorithms, Google DeepMind, 14 mai 2025.
- AI to drive 165 % increase in data center power demand by 2030, Goldman Sachs, 4 février 2025.
- Richard Evans, Jim Gao, DeepMind AI Reduces Google Data Centre Cooling Bill by 40 %, Google DeepMind, 20 juillet 2016.
- John Sullivan, AI slashes cost and time for chip design, but that is not all, Princeton Engineering, 6 janvier 2025.
- KernelBench : Can LLMs Write Efficient GPU Kernels ?
- How Much Does It Cost to Train Frontier AI Models ?, Epoch AI, 3 juin 2024.
- Joe Seydl, Jonathan Linden, « How AI can boost productivity and jump start growth », J.P.Morgan, 16 juillet 2024.
- Findings | OpenResearch.
- Alexandra Bustos Iliescu, AI and the Social Contract : How Sam Altman Envisions Tomorrow’s World, AI for Good, 15 juillet 2024.
- Sam Altman, Successful People, 8 mars 2013.
- Will Knight, Sam Altman Says OpenAI Will Release an ‘Open Weight’ AI Model This Summer, WIRED, 31 mars 2025.
- Paolo Confino, « Could AI create a one-person unicorn ? Sam Altman thinks so—and Silicon Valley sees the technology ‘waiting for us’ », Fortune, 4 février 2024.