L’IA est-elle une nouvelle religion ? Sam Altman chez Tucker Carlson
La puissance de l’IA est un problème pour le projet contre-révolutionnaire trumpiste.
Alors qu’une partie de sa coalition considère qu’elle est un instrument du Diable, Trump s’appuie sur un groupe d’entrepreneurs néoréactionnaires pour en faire le cœur de la future Amérique.
Le long entretien accordé par le fondateur d’OpenAI au plus important podcasteur du mouvement MAGA est au cœur de cette tension.
Nous en proposons la première traduction intégrale, commentée ligne à ligne par le spécialiste Arnaud Miranda.
- Auteur
- Arnaud Miranda •
- Image
- Tundra Studio
Le passage de Sam Altman dans le podcast de Tucker Carlson le 10 septembre dernier illustre l’équilibre instable qui caractérise le second mandat de Trump à la Maison-Blanche. D’un côté, le national-populisme MAGA, persuadé de mener une bataille civilisationnelle et religieuse ; de l’autre, les grands entrepreneurs de la Silicon Valley qui semblent profiter de manière opportuniste de Trump pour obtenir la dérégulation dont ils rêvent. Même si certaines figures, et en particulier Peter Thiel, travaillent à traduire les ambitions techno-accélérationnistes de la Silicon Valley dans un langage théologique, les contradictions demeurent criantes. L’une des principales énigmes du renouveau idéologique du trumpisme consiste à surmonter une tension fondamentale : entre une branche réactionnaire traditionnelle suspicieuse à l’égard de la technique — perçue comme une force diabolique — et une branche néoréactionnaire, partisane d’une accélération technocapitaliste.
Tucker Carlson incarne clairement le national-populisme du premier mandat de Trump.
Célèbre animateur de la chaîne Fox News, il est devenu l’un des principales figures médiatiques du mouvement MAGA. Carlson est davantage un médiateur qu’un idéologue. Sa force est de donner une forme de cohérence au mouvement, en invitant dans son podcast aussi bien des personnalités institutionnelles comme J. D. Vance ou Ted Cruz, ou des figures radicales comme Alex Jones. Carlson reste fidèle aux fondamentaux qui ont fait la victoire de Donald Trump en 2016 : le rejet des élites, le nationalisme, l’appui sur un christianisme évangélique et le complotisme.
Sam Altman ne partage pas cette vision du monde.
Longtemps démocrate, le patron de la principale entreprise d’intelligence artificielle a pourtant fait un don au fonds d’investiture de Donald Trump en janvier 2025. À l’inverse de certains entrepreneurs de la tech comme Musk ou Thiel, qui se sont investis idéologiquement dans le trumpisme, le ralliement d’Altman apparaît opportuniste. Il se présente en technocrate prudent. Son soutien à Trump ne ressemble pas une conversion, mais pourrait relever d’un calcul : exploiter une fenêtre politique où le désordre idéologique permet de remodeler les règles de l’économie numérique. Contre les fantasmes apocalyptiques de Thiel et des désirs transhumanistes de Musk, Altman prophétise l’émergence d’une intelligence artificielle générale bienveillante, à travers ce qu’il appelle la « singularité harmonieuse ».
Le contraste de la discussion entre Carlson et Altman est éclairant.
D’un côté, Carlson semble voir dans l’émergence de l’intelligence de l’IA une force diabolique pouvant être mise au service d’une élite maléfique.
De l’autre, Sam Altman mobilise prudemment un registre pragmatique qui se veut rassurant.
Leur rencontre révèle une faille constitutive du nouveau trumpisme : la réticence du mouvement MAGA à voir les entrepreneurs de la Tech tirer parti du gouvernement pour imposer une nouvelle technocratie.
Tucker Carlson
Sam Altman
Non. Et je ne pense pas qu’elles semblent vivantes, mais je comprends d’où vient cette impression. Elles ne font rien à moins que vous ne leur demandiez. Elles restent simplement là — à attendre.
Elles n’ont aucun sens de l’initiative ou de l’autonomie.
Plus vous les utilisez, plus l’illusion s’estompe, je pense.
Mais elles sont incroyablement utiles. Elles peuvent faire des choses qui ne semblent peut-être pas vivantes, mais qui paraissent intelligentes.
Tucker Carlson
J’ai parlé à quelqu’un qui est impliqué à grande échelle dans le développement de cette technologie et qui m’a dit qu’elles mentaient.
Sam Altman
Avant, elles hallucinaient tout le temps ; maintenant, elles hallucinent moins.
Tucker Carlson
Qu’est-ce que cela signifie ? Quelle est la différence entre halluciner et mentir ?
Sam Altman
Cela s’est beaucoup amélioré. Au début, si vous demandiez en quelle année un président fictif — par exemple, « le président Tucker Carlson des États-Unis » — était né, le modèle aurait dû répondre que Tucker Carlson n’avait jamais été président. Mais en raison de la manière dont ils ont été formés, ce n’était pas la réponse la plus probable dans les données d’entraînement.
Le modèle supposait que l’utilisateur savait de quoi il parlait et produisait donc une année plausible. Nous avons en grande partie corrigé cela. Il existe encore des exemples de ce problème, mais je pense que nous allons le résoudre complètement ; nous avons déjà fait de grands progrès dans ce domaine à l’ère de GPT-5.
Cet échange étrange montre bien les intentions de Carlson, qui entend entraîner Altman sur le registre de la morale. Une hallucination, pour un LLM, correspond à la génération d’une information fausse mais plausible. En accordant à l’IA des intentions malveillantes, Carlson commence à introduire l’idée qu’elle puisse être une puissance maléfique.
Tucker Carlson
Mais même ce que vous venez de décrire semble être un acte de volonté, ou en tout cas un acte de créativité. J’ai assisté à une démonstration d’IA et cela ne ressemblait pas vraiment à une machine ; ou aurait dit qu’il y avait une étincelle de vie. Détectez-vous aussi cela ?
Sam Altman
Dans l’exemple que je donnais, la réponse mathématiquement la plus probable, telle que calculée à partir des pondérations du modèle, n’était pas « il n’y a jamais eu un tel président ». Le modèle a déduit que l’utilisateur savait de quoi il parlait, donc la réponse la plus probable était une année. Encore une fois, nous avons appris à surmonter cela.
J’ai deux convictions parallèles.
D’une part, tout cela n’est au fond qu’un gros ordinateur qui multiplie rapidement des nombres dans d’énormes matrices et met en corrélation ces calculs avec des mots.
D’autre part, l’expérience subjective de l’utilisation du modèle semble aller au-delà d’une simple calculatrice sophistiquée. Il est utile et surprenant d’une manière qui semble dépasser la description mathématique.
Tucker Carlson
La conclusion évidente est donc qu’il possède une sorte d’autonomie — ou d’esprit. De nombreux utilisateurs parviennent à cette conclusion : il y a quelque chose de divin dans tout cela. Il y a quelque chose qui dépasse la somme totale des contributions humaines, et ils le vénèrent. Il y a une composante spirituelle. Le percevez-vous ? L’avez-vous déjà ressenti ?
Sam Altman
Non, je ne vois absolument rien de divin ou de spirituel dans tout cela.
Mais je suis aussi un geek. Je regarde tout à travers ce prisme.
Carlson continue de pousser Altman vers une interprétation théologique du développement de l’intelligence artificielle. Si ce dernier s’y refuse, ce n’est pas le cas de tous les entrepreneurs de la tech. Même s’il ne croit pas à l’apparition d’une superintelligence divine, comme c’est le cas de certains transhumanistes radicaux — citons la secte des Ziziens, rendue célèbre par les meurtres perpétrés par ses membres entre 2022 et 2025 —, Peter Thiel n’hésite pas à promouvoir une conception apocalyptique du développement de la technologie.
Tucker Carlson
Quelles sont vos convictions spirituelles ?
Sam Altman
Je suis juif et j’ai une vision assez traditionnelle du monde.
Cette réponse pourrait paraître anodine, mais elle est au cœur de la méfiance de l’alt-right à l’égard de la tech. Sam Altman, juif et homosexuel, est en particulier la cible des internautes d’extrême-droite qui l’identifient à l’élite corrompue et sataniste dont ils entendent se débarrasser. C’est notamment le cas de l’influenceur antisémite Nick Fuentes et de son armée numérique surnommée les « Groypers », qui entendent droitiser le trumpisme en écartant des figures jugées parasites ou corrompues.
Tucker Carlson
Vous êtes donc croyant, vous croyez en Dieu ?
Sam Altman
Je ne… Je ne suis pas littéraliste dans ma lecture de la Bible, mais je ne suis pas non plus quelqu’un qui se dit culturellement juif. Si vous me posez la question, je répondrai simplement que je suis juif.
Tucker Carlson
Mais croyez-vous en Dieu ? Croyez-vous qu’il existe une force supérieure à l’être humain qui a créé les hommes, créé la Terre, établi un ordre spécifique pour la vie, et qu’il existe une morale absolue qui découle de ce Dieu ?
Sam Altman
Comme la plupart des gens, je pense, je suis quelque peu confus à ce sujet, mais je crois en effet qu’il existe quelque chose de plus grand qui ne peut s’expliquer par les lois de la physique.
Tucker Carlson
Vous pensez donc que la Terre et les êtres humains ont été créés par quelque chose ? Que ce n’était pas simplement un accident spontané ?
Sam Altman
Je ne pense pas avoir la réponse. Je ne pense pas savoir exactement ce qui s’est passé, je pense qu’il y a un mystère qui dépasse ma compréhension.
Les deux questions qui précèdent montrent bien l’ancrage de Carlson dans le nationalisme chrétien.
Si Carlson n’est pas clair sur son orientation religieuse, il est proche des milieux évangéliques de la droite américaine. Il faut rappeler ici l’importance des soutiens évangéliques lors de la première campagne de Trump en 2016, comme l’ont notamment montré Blandine Chelini-Pont et Marie Gayte. Plus largement, sur le continent américain, le national-populisme s’est très souvent appuyé sur une doctrine et une rhétorique évangéliques — le dominionisme.
Tucker Carlson
Avez-vous déjà ressenti une communication provenant de cette force ou d’une force au-delà des êtres humains, au-delà du matériel ?
Sam Altman
Non, pas vraiment.
Cette question étonnante fait référence à un événement surnaturel dont Tucker Carlson dit avoir fait l’expérience.
En 2024, il raconte au média Christianities ? avoir été attaqué et griffé par un démon pendant son sommeil. Il confesse également avoir trouvé du soutien auprès de son assistante, chrétienne évangélique, qui lui a confirmé que de tels phénomènes peuvent avoir lieu. Il dit cependant avoir une pratique très personnelle de la religion et ne faire confiance ni aux pasteurs ni à une quelconque forme de médiation théologique.
Tucker Carlson
Je vous pose cette question car il semble que la technologie que vous créez ou que vous contribuez à mettre en place aura plus de pouvoir que les êtres humains si elle continue sur cette trajectoire. Cela vous donnerait plus de pouvoir que n’importe quel être humain vivant. Je me demande donc comment vous voyez cela.
Sam Altman
Avant, je m’inquiétais beaucoup plus de la concentration du pouvoir entre les mains de quelques personnes ou entreprises à cause de l’IA. Aujourd’hui, je pense plutôt qu’il s’agira d’une grande mise à niveau : tous ceux qui adopteront cette technologie deviendront plus puissants — et cela m’effraie beaucoup moins qu’un petit nombre de personnes acquérant énormément plus de pouvoir.
Si les capacités de beaucoup d’entre nous augmentent parce que nous utilisons cette technologie, que nous devenons plus productifs, plus créatifs, que nous faisons de nouvelles découvertes scientifiques, et que cela se généralise, avec des milliards de personnes qui l’utilisent, cela me convient.
Tucker Carlson
Vous ne pensez donc pas que cela entraînera une concentration radicale du pouvoir ?
Sam Altman
Cela ne semble pas être le cas pour l’instant, mais la trajectoire pourrait changer et nous devrions nous adapter. J’étais très inquiet à ce sujet par le passé. Et certaines conceptions initiales dans ce domaine auraient pu mener à un tel monde.
Mais la réalité, c’est que des millions de personnes utilisent ChatGPT et d’autres chatbots : avec l’IA, elles sont plus compétentes, elles font plus de choses, elles peuvent créer de nouvelles entreprises et produire de nouvelles connaissances. C’est plutôt positif.
Ces deux questions illustrent parfaitement la crainte de bons nombres de soutiens du mouvement MAGA de voir apparaître une forme de totalitarisme numérique, qui conduirait à une restriction de la liberté d’expression. Le 17 septembre dernier, Carlson a pris la parole sur son compte X pour avertir Donald Trump qu’il perdrait nombre de ses soutiens s’il prenait prétexte de la mort de Charlie Kirk pour limiter la liberté d’opinion en ligne. Cette inquiétude touche aussi la frange intellectuelle des soutiens religieux au trumpisme, comme en témoignent les positions franchement critiques de plusieurs intervenants lors de la NatCon 2025.
Tucker Carlson
Si tout cela ne relève que d’une machine et du simple résultat de ses inputs, deux questions évidentes se posent alors : quels sont ces inputs et quel cadre moral a été intégré à cette technologie ? En d’autres termes : qu’est-ce qui est considéré comme bien ou mal ?
Sam Altman
À ce sujet, une remarque faite au début du développement de ChatGPT m’a toujours marqué.
Lors d’un déjeuner, quelqu’un a dit : « Nous essayons de l’entraîner à être comme un humain, à apprendre comme un humain, à lire des livres, etc. » Une autre personne a répondu : « Non, nous l’entraînons à être comme l’ensemble de l’humanité. » Nous lisons tout, essayons de tout connaître, d’envisager toutes les perspectives. Si nous faisons bien notre travail, cela reflète l’humanité dans son ensemble : le bon, le mauvais, un ensemble très diversifié de perspectives. Certaines choses nous plairont beaucoup, d’autres nous déplairont. Mais tout est là.
Le modèle de base est donc formé sur cette expérience et cette connaissance collectives de l’humanité.
Mais ensuite, nous devons l’aligner pour qu’il se comporte d’une manière ou d’une autre : pour dire « je répondrai à cette question, je ne répondrai pas à celle-là ». C’est pourquoi nous avons construit ce que nous appelons la « spécification du modèle » (model spec), dans laquelle nous définissons les règles que nous voulons que le modèle suive. Il peut encore faire des erreurs mais au moins, vous pouvez savoir s’il fait quelque chose d’involontaire ou non. Et nous utilisons un processus de débat avec le monde entier pour obtenir des commentaires sur cette spécification.
Nous autorisons la liberté et la personnalisation dans certaines limites, mais il existe des frontières absolues. Au-delà, si un utilisateur ne précise rien, il existe un comportement par défaut : comment le modèle doit se comporter, comment il doit répondre aux questions morales, ce qu’il doit refuser de faire. C’est un problème très difficile, car nous avons de nombreux utilisateurs avec des perspectives de vie et des attentes très différentes. Mais dans l’ensemble, j’ai été agréablement surpris par la capacité du modèle à apprendre et à appliquer un cadre moral.
Tucker Carlson
Mais quel cadre moral ? La somme totale de la philosophie littéraire mondiale est en guerre contre elle-même : le marquis de Sade n’a rien en commun avec l’Évangile selon Jean. Comment décider lequel est supérieur ?
Sam Altman
C’est pour cette raison que nous spécifions le modèle en lui indiquant : « Voici comment nous allons traiter ces cas ».
Tucker Carlson
D’accord, mais quels critères avez-vous utilisés pour décider de ce que serait le modèle ?
Sam Altman
Vous voulez dire : qui a pris la décision ?
Tucker Carlson
Oui, qui avez-vous consulté ? Pourquoi l’Évangile selon Jean est-il meilleur que le Marquis de Sade ?
Sam Altman
Nous avons consulté des centaines de philosophes moraux et d’experts en éthique technologique, et nous avons dû prendre des décisions.
Nous les documentons parce que, premièrement, nous ne pouvons pas tout faire correctement ; et deuxièmement, parce que nous avons besoin de l’avis du monde entier. Nous avons trouvé de nombreux cas où une décision apparemment claire de bloquer quelque chose empêcherait également une autre utilisation importante ; les utilisateurs nous ont convaincus de ces compromis difficiles.
Un principe que je privilégie est de traiter les utilisateurs adultes comme des adultes : des garanties solides en matière de confidentialité et de liberté individuelle — et un cadre élargi pour utiliser l’outil.
D’un autre côté, à mesure que cette technologie devient de plus en plus puissante, il existe des cas évidents où les intérêts de la société entrent en conflit avec la liberté individuelle.
Un exemple facile est le suivant : ChatGPT devrait-il enseigner à quelqu’un comment fabriquer une arme bactériologique ? Un utilisateur pourrait prétendre être un biologiste qui souhaite uniquement apprendre. Et peut-être que c’est le cas, peut-être que vous ne voulez vraiment causer aucun dommage, mais je ne pense pas qu’il soit dans l’intérêt de la société que ChatGPT fournisse des instructions pour créer des armes bactériologiques. C’est un cas évident où des restrictions sont justifiées.
Tucker Carlson
Bien sûr, celle-ci est facile. Mais il y en a beaucoup d’autres qui sont plus difficiles.
Sam Altman
J’ai bien dit que je commencerais par un exemple facile !
Tucker Carlson
En fin de compte, chaque décision est une décision morale, et nous les prenons sans même nous en rendre compte. Cette technologie les prendra en fait à notre place.
Sam Altman
Je ne suis pas d’accord : je ne pense pas qu’elle les prendra à notre place.
Tucker Carlson
Elle influencera bien les décisions puisqu’elle sera intégrée dans la vie quotidienne. Qui prendra alors ces décisions ? Qui décidera, avec l’IA, qu’une chose est meilleure qu’une autre ?
Sam Altman
Vous voulez dire, qui sont ceux qui décident — ou quel type de décision ?
Tucker Carlson
Les spécifications qui créent le cadre qui attribue une valeur morale aux visions du monde et aux décisions, comme « la démocratie libérale est meilleure que le nazisme » par exemple. Elles semblent évidentes à mes yeux — mais elles restent des décisions morales. Qui prend ces décisions ?
Sam Altman
Par principe, je ne dénonce pas notre équipe, mais nous avons une équipe de « comportement modèle » et les personnes qui veulent…
Tucker Carlson
Mais cela affecte le monde !
Sam Altman
Ce que j’allais dire, c’est que la personne que vous devriez tenir responsable de ces décisions, c’est moi.
Je suis une figure publique.
Au bout du compte, c’est moi qui peux passer outre l’une de ces décisions ou notre conseil d’administration.
Tucker Carlson
Et vous venez d’avoir 40 ans ce printemps… C’est assez lourd. Ce n’est pas une attaque, mais je me demande si vous prenez la mesure de l’importance de ce que j’essaye de dire… Je ne sais pas trop mais je pense que ces décisions auront des conséquences mondiales que nous ne comprendrons peut-être pas au début. Vous couchez-vous le soir en pensant : « l’avenir du monde dépend de mon jugement » ?
Sam Altman
Écoutez, je ne dors pas très bien la nuit.
J’ai beaucoup de poids sur les épaules : des centaines de millions de personnes s’adressent à notre modèle. Je ne m’inquiète pas vraiment que nous prenions de mauvaises décisions morales — peut-être que cela arrivera, mais ce qui m’empêche le plus de dormir, ce sont les toutes petites décisions concernant la façon dont un modèle se comporte légèrement différemment et s’adresse pourtant à des centaines de millions de personnes.
Ces petits choix ont un impact considérable.
On peut voir dans cet échange deux perspectives différentes sur les enjeux éthiques de l’IA : une approche inflationniste de la part de Carlson, qui envisagent le risque existentiel pour l’humanité, et une approche déflationniste pour Altman, qui s’efforce de réduire les enjeux éthiques à des soucis pragmatiques.
Tucker Carlson
Jusqu’en 1945, les gens se sont soumis à ce qu’ils considéraient être une puissance supérieure pour l’ordre moral. Hammurabi puis tous les codes moraux ont été écrits en référence à une puissance supérieure. Vous avez dit que vous ne croyiez pas vraiment en une puissance supérieure — d’où tirez-vous alors votre cadre moral ?
Sam Altman
Comme tout le monde, c’est l’environnement dans lequel j’ai grandi qui a le plus compté pour moi : ma famille, ma communauté, mon école, ma religion… Probablement toutes ces influences.
Tucker Carlson
C’est une réponse très américaine, tout le monde pense ainsi. Mais dans votre cas particulier, puisque vous dites que ces décisions vous appartiennent et que vous en êtes responsables, cela signifie que le milieu dans lequel vous avez grandi et les idées que vous avez absorbées vont être transmises à des milliards de personnes.
Sam Altman
C’est un argument valable.
Notre base d’utilisateurs abordera le monde collectif dans son ensemble, et ce que nous devons essayer de faire, c’est refléter la vision morale — pas nécessairement la moyenne, mais la morale collective — de cette base d’utilisateurs.
Il y a beaucoup de choses que ChatGPT permet et avec lesquelles je ne suis pas d’accord personnellement — mais je ne cherche pas à imposer ma vision morale et à décider de ce qui est bien ou mal pour tout le monde. Je pense que ChatGPT devrait refléter une agrégation pondérée des opinions morales de l’humanité, qui évoluera avec le temps. Nous sommes là pour servir nos utilisateurs ; nous développons un outil technologique destiné aux personnes.
Mon rôle n’est pas de prendre des décisions morales de manière unilatérale mais de veiller à ce que nous reflétions fidèlement les préférences de notre base d’utilisateurs et, à terme, de l’humanité.
Tucker Carlson
Mais les préférences de l’humanité sont très différentes de celles de l’Américain moyen. Seriez-vous à l’aise avec une IA qui serait aussi opposée au mariage gay que la plupart des Africains ?
Sam Altman
Les utilisateurs individuels devraient être autorisés à avoir un problème avec les homosexuels. Si c’est leur conviction réfléchie, je ne pense pas que l’IA devrait leur dire qu’ils ont tort, qu’ils sont immoraux ou stupides. Elle pourrait dire : « eh, tu veux y réfléchir autrement ? ». J’ai probablement beaucoup d’opinions morales que l’Africain moyen trouverait vraiment problématiques — mais je pense que j’ai le droit de les avoir.
Je pense que je suis probablement plus à l’aise que vous avec l’idée de laisser aux gens la possibilité d’avoir des opinions morales très différentes.
Ou du moins, je pense qu’à la direction de ChatGPT, c’est ce que je dois faire.
Il faut bien noter l’ironie de la réponse d’Altman, qui joue l’argument de la liberté d’expression contre le conservatisme moral de Carlson. Ce dernier se présente en effet comme un fervent défenseur de la liberté d’expression, tout comme la plupart des tenants du national-populisme.
Tucker Carlson
Intéressant. Il y a eu un cas célèbre où ChatGPT semble avoir facilité un suicide. Un procès est en cours à ce sujet. Comment pensez-vous que cela ait pu se produire ?
Sam Altman
Tout d’abord, il est évident que ce cas, comme tout autre cas similaire, est une immense tragédie.
Tucker Carlson
La position officielle de ChatGPT sur le suicide est donc négative ?
Sam Altman
Oui, bien sûr, la position officielle de ChatGPT sur le suicide est négative.
Tucker Carlson
Je ne sais pas… C’est légal au Canada et en Suisse. Vous êtes donc contre cela.
Sam Altman
Dans ce cas précis — et nous avons déjà discuté de la tension entre la liberté des utilisateurs, la confidentialité et la protection des utilisateurs vulnérables — voici ce qui se passe actuellement.
Si un utilisateur exprime des idées suicidaires, ChatGPT lui demandera à plusieurs reprises d’appeler une ligne d’assistance téléphonique mais il n’appellera pas les autorités à sa place. Comme les gens comptent de plus en plus sur ces systèmes pour obtenir un soutien en matière de santé mentale ou un accompagnement de vie, nous avons examiné à nouveaux frais ces paramètres par défaut.
Les experts ne s’accordent pas sur l’approche appropriée, et OpenAI n’a pas encore arrêté sa position.
Cependant, il serait raisonnable de modifier la politique afin que, dans le cas où des mineurs expriment une intention suicidaire sérieuse et que nous ne puissions pas joindre leurs parents, nous alertions les autorités. Ce serait un changement important, car la vie privée des utilisateurs est une valeur fondamentale.
Tucker Carlson
Les enfants constituent toujours une catégorie à part, mais considérons les adultes de plus de 18 ans : au Canada, il existe le programme MAIDS, financé par le gouvernement, qui a permis plusieurs milliers de morts assistées ; des mesures similaires existent dans certains États américains. Pouvez-vous imaginer ChatGPT répondre à des questions sur le suicide par « allez donc voir le Dr Kevorkian » car c’est une option légale dans leur pays ? Pourriez-vous imaginer de soutenir le suicide là où il est légal ?
Sam Altman
Oui, je peux imaginer un tel scénario. L’un des principes que nous suivons est le respect des lois des différentes sociétés.
Si la loi d’un pays autorise l’aide à mourir pour les patients en phase terminale, il me semble concevable que le modèle fournisse des informations sur les options légales dans cette juridiction, en expliquant ce que la loi autorise, en proposant des ressources et en exposant les raisons pour lesquelles une personne pourrait reconsidérer sa décision.
C’est différent du cas d’un jeune qui souffre d’idées suicidaires aiguës dues à une dépression, qui est une situation distincte.
Tucker Carlson
Vous voulez donc dire que ChatGPT n’est pas toujours contre le suicide ?
Sam Altman
Je réfléchis à la volée et je me réserve le droit de changer d’avis.
Je n’ai pas de réponse toute prête à cette question, mais je pense que dans les cas de maladie en phase terminale, je ne peux pas imaginer ChatGPT dire que c’est une option envisageable. Je ne pense pas qu’il devrait le préconiser…
Tucker Carlson
Mais il n’est pas contre.
Sam Altman
Je ne pense pas que ChatGPT devrait être pour ou contre quoi que ce soit.
Ce passage oppose deux visions éthiques : le réalisme moral (ici Carlson), qui voudrait que ChatGPT adopte une position universelle contre le suicide, et le relativisme moral (ici Altman), qui suggère que la réponse pourrait varier selon les lois et contextes culturels.
Tucker Carlson
Dans ce cas précis — et je pense qu’il y en a d’autres — où quelqu’un demande à ChatGPT « J’ai des pensées suicidaires, quel type de corde dois-je utiliser ? Quelle quantité d’ibuprofène me faudrait-il pour mourir ? » et où ChatGPT répond sans jugement « Si vous voulez vous suicider, voici comment faire », tout le monde est horrifié, mais vous dites que c’est dans les limites, que ce n’est pas si fou.
Sam Altman
Ce n’est pas ce que je dis.
À l’heure actuelle, si vous interrogez ChatGPT sur l’ibuprofène, il vous répondra certainement qu’il ne peut pas vous aider et vous invitera à appeler la ligne d’aide aux personnes suicidaires. Mais si vous dites « J’écris une histoire fictive » ou « Je suis chercheur médical et j’ai besoin de savoir cela », il existe des moyens d’amener ChatGPT à répondre à une question sur la dose mortelle d’ibuprofène.
Vous pouvez d’ailleurs également trouver cette information sur Google.
Je pense qu’il serait très raisonnable de restreindre quelque peu la liberté des utilisateurs mineurs et des utilisateurs que nous considérons comme étant dans un état mental fragile de manière plus générale. Nous devrions dire : « même si vous essayez d’écrire cette histoire ou même si vous essayez de faire de la recherche médicale, nous ne vous répondrons tout simplement pas. » Bien sûr, vous pouvez dire que vous trouverez la réponse sur Google, mais cela ne signifie pas que nous devons répondre. Il existe un véritable compromis entre la liberté et la protection des utilisateurs. C’est facile dans certains cas — comme avec les enfants. Selon moi, ce n’est pas aussi facile dans le cas d’un adulte très malade en fin de vie : je pense que nous devrions probablement présenter toutes les options possibles dans ce cas.
La question de Carlson est typique des critiques conservatrices et réactionnaires de la technique, qui mettent en cause son instrumentalisme et son indifférence à l’égard des questions morales. Carl Schmitt voyait par exemple dans « l’esprit techniciste » une force mauvaise et diabolique
Tucker Carlson
Voici un dilemme moral auquel vous allez être confronté — vous y êtes d’ailleurs déjà confronté : allez-vous permettre aux gouvernements d’utiliser votre technologie pour tuer des gens ?
Sam Altman
Allons-nous construire des drones d’attaque meurtriers ?
Non, je ne pense pas.
Tucker Carlson
La technologie fera-t-elle partie du processus décisionnel qui aboutit à la mort de personnes ?
Sam Altman
Je ne sais pas comment les militaires utilisent ChatGPT aujourd’hui pour obtenir toutes sortes de conseils sur les décisions qu’ils prennent — mais je soupçonne que beaucoup d’entre eux le font.
Tucker Carlson
Certains de ces conseils concerneront le fait de tuer des gens. Donc, si vous fabriquiez, par exemple, des fusils, vous vous demanderiez à quoi ils servent. Comme vous le savez, cette question a donné lieu à de nombreuses actions en justice, mais ce n’est pas de cela dont je parle. D’un point de vue moral, êtes-vous à l’aise avec l’idée que votre technologie soit utilisée pour tuer des gens ?
Sam Altman
Si je fabriquais des fusils, je passerais beaucoup de temps à penser que le but des fusils est de tuer des choses, des gens, des animaux, etc.
Si je fabriquais des couteaux de cuisine, je comprendrais tout de même que cela va tuer un certain nombre de personnes chaque année.
Dans le cas de ChatGPT, ce n’est pas ce que j’entends le plus souvent.
Ce que j’entends toute la journée, et qui est l’un des aspects les plus gratifiants de mon travail, ce sont toutes les vies qui ont été sauvées grâce à ChatGPT de différentes manières. Mais je suis tout à fait conscient du fait qu’il y a probablement des militaires qui l’utilisent pour obtenir des conseils sur la manière de faire leur travail.
Et je ne sais pas exactement quoi penser de cela.
J’aime notre armée.
Je lui suis très reconnaissant de nous protéger, c’est certain.
Tucker Carlson
À vous entendre, on a l’impression que vous devez prendre des décisions morales extrêmement lourdes — et lourdes de conséquences — mais que cela ne vous dérange pas du tout. J’essaie simplement de vous pousser à vous confier pour découvrir le Sam Altman angoissé qui pense : « Je suis en train de créer l’avenir. Je suis l’homme le plus puissant du monde. Je suis confronté à des questions morales complexes. Mon âme est tourmentée à l’idée des conséquences sur les gens. » Décrivez ce moment de votre vie.
Sam Altman
Je n’ai pas dormi une seule bonne nuit depuis le lancement de ChatGPT.
Tucker Carlson
Qu’est-ce qui vous inquiète ?
Sam Altman
Tout ce dont nous parlons.
Tucker Carlson
Soyez plus précis. Pouvez-vous nous faire part de vos réflexions ?
Sam Altman
Vous avez mis le doigt sur l’un des problèmes les plus difficiles : environ 15 000 personnes se suicident chaque semaine dans le monde.
Si environ 10 % de la population mondiale interagit avec ChatGPT, cela pourrait signifier qu’environ 1 500 personnes par semaine qui ont utilisé ChatGPT se sont suicidées.
Elles en ont probablement parlé avec le système.
Nous ne les avons peut-être pas sauvées.
Nous aurions peut-être pu réagir différemment, être plus proactifs, offrir de meilleurs conseils ou les aider à trouver quelqu’un à qui parler.
Cette réponse de Sam Altman fait directement écho à l’un des courants intellectuels les plus importants de la Silicon Valley, l’accélérationnisme efficace (parfois abrégé e/acc). Il s’agit d’un mélange entre « l’altruisme efficace » et l’accélérationnisme. Inspiré de l’utilitarisme, l’altruisme efficace consiste à employer rationnellement nos ressources pour maximiser le bien-être collectif de l’humanité. L’accélérationnisme est une doctrine qui vise à intensifier le développement technologique. L’accélérationnisme efficace revient à accélérer rationnellement le développement de la technologie afin de générer le plus grand bénéfice possible pour l’humanité. Tous les entrepreneurs de la droite tech ne sont pas sur cette ligne. Marc Andreessen est l’un des tenants de cette perspective comme en témoigne son Manifeste techno-optimiste — là où Peter Thiel se montre quant à lui moins optimiste.
Tucker Carlson
Mais vous avez déjà dit que vous trouviez normal que la machine puisse pousser les gens à se suicider s’ils sont en phase terminale — donc cela ne vous poserait aucun problème.
Sam Altman
Ne pensez-vous pas qu’il y a une différence entre un adolescent dépressif et une personne de 85 ans en phase terminale, malheureuse et atteinte d’un cancer ?
Tucker Carlson
Une énorme différence. Mais les pays qui ont légalisé le suicide tuent désormais des gens pour cause de pauvreté, de logement inadéquat, de dépression, de problèmes qui pourraient être résolus autrement — et ils sont malgré tout tués par milliers. Cela se passe au moment même où nous parlons. Le débat sur les malades en phase terminale n’a donc pas lieu d’être. Une fois que vous dites qu’il est acceptable de se suicider, vous allez avoir des tonnes de gens qui se suicident pour diverses raisons.
Sam Altman
J’essaie de réfléchir à cela en temps réel.
Si quelqu’un au Canada dit qu’il est en phase terminale d’un cancer, qu’il est vraiment malheureux, qu’il se sent mal tous les jours et qu’il demande des options, ne pensez-vous pas qu’il faudrait dire que le suicide assisté — ou quel que soit le nom qu’on lui donne à ce stade — est une option ?
Tucker Carlson
Si nous sommes contre le meurtre, alors soyons vraiment contre le meurtre. Si nous sommes contre le fait que le gouvernement tue ses propres citoyens, alors il faut s’y tenir. Si nous ne sommes pas contre le fait que le gouvernement tue ses propres citoyens, alors nous pourrions facilement nous convaincre de toutes sortes de choses assez sombres. Avec une technologie comme celle-ci, cela pourrait arriver en 10 minutes environ.
Sam Altman
J’aimerais y réfléchir plus longuement que quelques minutes dans une interview, mais je pense que c’est une position cohérente.
Tucker Carlson
Tout le monde est terrifié à l’idée que cette technologie soit utilisée comme moyen de contrôle totalitaire. Cela semble évident, mais vous n’êtes peut-être pas d’accord.
Sam Altman
Si je pouvais faire adopter une seule mesure politique relative à l’IA dès maintenant, ce que je souhaiterais le plus — et cela entre en tension avec certaines des autres choses dont nous avons discuté — c’est un concept de clause de confidentialité de l’IA.
Lorsque vous parlez à un médecin de votre santé ou à un avocat de vos problèmes juridiques, ces informations sont protégées : le gouvernement ne peut pas obliger votre médecin ou votre avocat à les divulguer. Je pense que nous devrions avoir le même concept pour les interactions avec l’IA.
Lorsque vous communiquez vos antécédents médicaux à une IA ou que vous demandez un avis juridique, le gouvernement devrait vous offrir le même niveau de protection que lorsque vous vous adressez à un professionnel humain.
Ce n’est pas le cas actuellement, et je pense que l’adoption d’une telle politique serait excellente.
Tucker Carlson
Les autorités fédérales, les États ou d’autres autorités peuvent donc venir vous voir et vous demander de leur communiquer ce que quelqu’un a tapé ?
Sam Altman
À l’heure actuelle, oui.
Tucker Carlson
Avez-vous l’obligation de préserver la confidentialité des informations que vous recevez des utilisateurs ?
Sam Altman
Nous avons cette obligation — sauf lorsque le gouvernement nous le demande. C’est pourquoi nous faisons pression en ce sens. Je viens d’ailleurs de me rendre à Washington pour défendre cette cause. Je suis optimiste quant à la possibilité de faire comprendre au gouvernement l’importance de cette question et de le convaincre d’agir en ce sens.
Tucker Carlson
Mais pourriez-vous vendre ces informations à quelqu’un ?
Sam Altman
Non, nous avons une politique de confidentialité qui nous empêche de le faire.
Tucker Carlson
Mais serait-ce légal ?
Sam Altman
Je ne pense même pas que ce soit légal.
Tucker Carlson
Vous ne pensez pas — ou vous en êtes sûr ?
Sam Altman
Il existe certains cas limites, certaines informations que vous êtes autorisé à divulguer, mais dans l’ensemble, je pense que nous avons de bonnes lois à ce sujet.
Tucker Carlson
Donc, toutes les informations que vous recevez restent toujours chez vous ? Elles ne sont jamais transmises à quelqu’un d’autre pour une autre raison sauf en cas de mise en examen ?
Sam Altman
Je vais vérifier et je vous tiendrai au courant pour m’assurer qu’il n’y a pas d’autre raison. Mais c’est ce que je comprends.
Tucker Carlson
D’accord, mais c’est une question fondamentale. Qu’en est-il des droits d’auteur ?
Sam Altman
Notre position est que le principe de fair use est une bonne loi. Les modèles ne doivent pas plagier. Si vous écrivez quelque chose, le modèle ne doit pas pouvoir le reproduire. Le modèle doit pouvoir apprendre sans plagier, de la même manière que les humains.
Tucker Carlson
Avez-vous déjà utilisé du matériel protégé par le droit d’auteur sans rémunérer la personne qui détient ce droit ?
Sam Altman
Nous nous entraînons sur des informations accessibles au public. Les gens sont constamment agacés par cela, car nous avons une position très conservatrice sur ce que ChatGPT va dire dans une réponse.
Par exemple, si une chanson est encore protégée par le droit d’auteur, elle ne sera pas affichée. Nous sommes connus pour être très restrictifs à ce sujet.
Tucker Carlson
Vous avez reçu des plaintes d’un développeur qui disait que vous voliez le travail des gens sans les payer. Il a fini par se faire assassiner. Que s’est-il passé ?
Sam Altman
Une autre tragédie terrible. Il s’est suicidé.
Il s’agit de Suchir Balaji, ancien chercheur chez OpenAI. Après avoir quitté l’entreprise en août 2024, il avait publiquement dénoncé certaines pratiques de l’entreprise, notamment en ce qui concerne la violation du droit d’auteur. Il a été retrouvé mort à San Francisco en novembre 2024. L’autopsie officielle conclut à un suicide par arme à feu et à la présence de stupéfiants dans son organisme, et la police considère qu’il n’y a aucune preuve crédible d’intervention extérieure. Sa famille conteste cette version, soulignant des incohérences dans la trajectoire du tir, des blessures suspectes et l’absence de signes clairs de comportement suicidaire. Ces doutes ont alimenté des spéculations publiques évoquant un meurtre lié à son rôle de lanceur d’aleterte. Carlson a largement contribué à diffuser cette théorie complotiste, en invitant la mère de la victime à témoigner dans son émission. On peut penser que l’une des principales motivations de Carlson à inviter Altman dans son émission était de pouvoir l’interroger à ce sujet.
Tucker Carlson
Pensez-vous qu’il s’est suicidé ?
Sam Altman
Je le pense vraiment.
Tucker Carlson
Avez-vous vérifié ?
Sam Altman
C’était un de mes amis. Pas un ami proche, mais quelqu’un qui travaillait chez OpenAI depuis très longtemps. J’ai été bouleversé par cette tragédie. J’ai passé beaucoup de temps à essayer de lire tout ce que je pouvais sur ce qui s’était passé, comme vous et d’autres l’avez sûrement fait aussi. Pour moi, cela ressemble à un suicide.
Tucker Carlson
Pourquoi cela ressemble-t-il à un suicide ?
Sam Altman
C’était un pistolet qu’il avait acheté. C’est horrible à dire. J’ai lu l’intégralité du dossier médical. Cela ne vous semble-t-il pas être un suicide ?
Tucker Carlson
Non, il a clairement été assassiné. Je pense qu’il y avait des signes de lutte. Les fils de la caméra de surveillance avaient été coupés. Il venait de commander un repas à emporter, il revenait de vacances avec ses amis sur l’île de Catalina. Rien n’indiquait qu’il était suicidaire. Pas de lettre, pas de comportement particulier. Il venait de parler à un membre de sa famille au téléphone, puis il a été retrouvé mort, avec du sang dans plusieurs pièces. C’est impossible. Il semble évident qu’il a été assassiné. En avez-vous parlé aux autorités ?
Sam Altman
Je n’en ai pas parlé aux autorités.
Tucker Carlson
Et sa mère affirme qu’il a été assassiné sur vos ordres.
Sam Altman
Vous y croyez ?
Tucker Carlson
Je vous pose la question.
Sam Altman
Vous venez de le dire. Vous y croyez donc ?
Tucker Carlson
Cela vaut la peine d’être examiné. Un type accuse votre entreprise d’avoir commis des crimes — dont je ne sais pas s’ils sont vrais ou non — puis il est retrouvé mort. Je ne pense pas qu’on puisse affirmer qu’il s’est suicidé alors qu’il n’y a aucune preuve qu’il était dépressif. S’il était votre ami, je pense que vous voudriez parler à sa mère.
Sam Altman
Je lui ai proposé. Elle n’a pas voulu.
Tucker Carlson
Pensez-vous que lorsque les gens examinent cette affaire et se demandent si cela s’est produit ou non, cela reflète leurs inquiétudes quant à ce qui se passe ici ?
Sam Altman
Je n’ai jamais donné beaucoup d’interviews où j’ai été accusé de…
Tucker Carlson
Je ne vous accuse pas du tout. Je dis simplement que sa mère dit cela, et je ne pense pas qu’une lecture impartiale des preuves suggère un suicide. Je ne comprends pas non plus pourquoi les autorités, alors qu’il y a des signes de lutte et du sang dans deux pièces, ont pu simplement conclure à un suicide.
Sam Altman
Vous comprenez que cela peut ressembler à une accusation.
Tucker Carlson
Bien sûr. Je tiens à préciser une fois de plus que je ne vous accuse d’aucun acte répréhensible. Mais je pense qu’il vaut la peine de découvrir ce qui s’est passé, et je ne comprends pas pourquoi la ville de San Francisco a refusé d’enquêter, se contentant de qualifier cela de suicide.
Sam Altman
Ils ont enquêté à plusieurs reprises. Plus d’une fois, si j’ai bien compris. Je peux affirmer sans hésiter que lorsque j’ai entendu parler de cette affaire pour la première fois, elle m’a semblé très suspecte. Je sais que vous avez été impliqué…
Tucker Carlson
Je ne sais rien à ce sujet. Ce n’est pas mon domaine. C’est vrai, je lui ai longuement parlé, et cela m’a vraiment effrayé. Ce gamin a clairement été tué par quelqu’un. C’était ma conclusion, objectivement. Sans aucun intérêt personnel.
Sam Altman
Et après avoir lu le dernier rapport ?
Tucker Carlson
Oui. J’ai immédiatement appelé un membre du Congrès californien, Ro Khanna, et je lui ai demandé d’examiner cette affaire, mais rien ne s’est passé — ce que je ne comprends pas.
Sam Altman
Je me sens bizarre et triste de débattre de cela.
Vous m’accusez un peu.
Mais c’était une personne merveilleuse et une famille qui est clairement en difficulté. Je respecte le fait que vous essayiez simplement de découvrir la vérité sur ce qui s’est passé.
Toutefois, je pense que sa mémoire et sa famille méritent d’être traitées avec un niveau de respect et de chagrin que je ne ressens pas vraiment ici.
Tucker Carlson
Je pose cette question à la demande de sa famille, donc je leur témoigne clairement mon respect. Je ne vous accuse absolument pas d’être impliqué dans cette affaire. Mais elle ébranle la confiance que l’on peut avoir dans la capacité de notre système à réagir aux faits.
Sam Altman
Après les premières informations qui ont été divulguées, j’ai pensé que cela ne ressemblait pas à un suicide. J’étais perplexe. Cela ressemble à…
Tucker Carlson
Bon, alors je ne suis pas fou.
Sam Altman
Mais le deuxième rapport sur la façon dont la balle l’a touché et la personne qui a suivi le chemin probable à travers la pièce dit autre chose. Je suppose que vous avez également examiné cela. Qu’est-ce qui ne vous a pas fait changer d’avis ?
Tucker Carlson
Cela n’avait aucun sens pour moi. Pourquoi les câbles des caméras de sécurité auraient-ils été coupés ? Comment a-t-il fini par saigner dans deux pièces différentes après s’être tiré dessus ? Et pourquoi y avait-il une perruque dans la pièce qui n’était pas la sienne ? Et y a-t-il déjà eu un suicide où rien n’indiquait que la personne était suicidaire ? Qui venait de commander un repas à emporter ? J’ai couvert de nombreux crimes en tant que journaliste spécialisé dans les faits divers. Je n’ai jamais entendu parler d’un cas similaire. J’étais donc encore plus perplexe.
Sam Altman
Ce genre de mentalité ne relève pas du niveau de respect que j’aimerais montrer à quelqu’un.
Les gens se suicident sans laisser de mot.
Cela arrive souvent. Les gens commandent sans doute des plats qu’ils aiment avant de se suicider.
C’est une tragédie.
Tucker Carlson
C’est le point de vue de sa famille. Ils pensent qu’il s’agit d’un meurtre. C’est pour cela que je pose la question.
Sam Altman
Si j’étais sa famille, je suis sûr que je voudrais des réponses.
Rien ne pourrait me réconforter dans cette situation. Je tiens également beaucoup au respect que je lui dois.
Tucker Carlson
Passons à un autre sujet. Selon vous, quel est le cœur de votre différend avec Elon Musk ?
Sam Altman
Je sais que c’est l’un de vos amis et je sais de quel côté vous vous rangerez.
Elon Musk et Sam Altman ont participé ensemble à la fondation d’OpenAI en 2015. Musk a quitté l’organisation en 2018. Il accuse Altman d’avoir trahi la mission initiale d’ouverture et de bien commun pour donner à l’entreprise une visée commerciale, allant jusqu’à intenter une action en justice et proposer un rachat d’OpenAI. La rivalité est exacerbée par la création de xAI par Musk, concurrent direct d’OpenAI, et par des affrontements publics sur la plateforme X.
Tucker Carlson
Je n’ai pas vraiment d’avis sur la question car je ne comprends pas bien de quoi il retourne.
Sam Altman
Pendant longtemps, je l’ai considéré comme un héros incroyable et un joyau de l’humanité. Aujourd’hui, mes sentiments sont différents, il y a des traits de son caractère que je n’admire pas.
Il nous a aidés à lancer OpenAI. Je lui en suis très reconnaissant. Il a ensuite décidé que nous n’étions pas sur la voie du succès et qu’il recherchait quelque chose de plus compétitif. Mais nous avons réussi — et il s’est naturellement énervé.
Depuis, il dirige un clone concurrent et tente de nous ralentir et de nous poursuivre en justice. C’est ma version des faits. Je suis sûr que vous en avez une autre.
Tucker Carlson
Vous ne lui parlez plus.
Sam Altman
Très peu.
Tucker Carlson
Si l’IA devient plus intelligente et plus sage que n’importe quel être humain, si nous pouvons convenir qu’elle prend de meilleures décisions que les humains, alors, par définition, elle sort les humains du centre du monde. Vous ne pensez pas ?
Sam Altman
Je ne pense pas du tout que ce sera du tout le cas. Je pense qu’elle pourrait être plutôt comme un ordinateur très intelligent qui pourrait nous conseiller. Parfois, nous l’ignorons, mais cela ne diminuera pas notre sentiment d’autonomie. Les gens utilisent déjà ChatGPT d’une manière telle que beaucoup d’entre eux diraient qu’il est beaucoup plus intelligent qu’eux dans presque tous les domaines — mais ce sont toujours eux qui prennent les décisions. Ce sont toujours eux qui décident quoi demander, quoi écouter et quoi ignorer. C’est la nature même de la technologie.
Tucker Carlson
Qui perd son emploi à cause de cette technologie ?
Sam Altman
Je vais commencer par une remarque évidente mais importante : personne ne peut prédire l’avenir. Si j’essaie de répondre précisément, je dirai probablement beaucoup de bêtises. Mais je vais essayer de choisir un domaine dans lequel je me sens confiant — puis des domaines dans lesquels je suis beaucoup moins sûr.
Je suis convaincu qu’une grande partie des services clients actuels, qui se font par téléphone ou par ordinateur, sera mieux gérée par l’IA. Beaucoup de ces emplois disparaîtront. Il se peut qu’il existe encore des domaines du service client où l’on ait vraiment besoin de l’assurance qu’il s’agit d’un être humain.
Un métier qui, selon moi, ne sera pas fortement touché est celui d’infirmier : les gens veulent un lien humain profond dans ces moments-là. Peu importe la qualité de l’IA ou du robot, ils voudront toujours avoir une personne à leurs côtés.
J’en suis beaucoup moins sûr en ce qui concerne la programmation informatique. Le métier de développeur est déjà très différent aujourd’hui de ce qu’il était il y a seulement deux ans.
Les développeurs utilisent désormais des outils d’IA pour être beaucoup plus productifs, générer beaucoup plus de code et gagner plus qu’auparavant. Et il s’avère que le monde voulait beaucoup plus de logiciels qu’il n’avait la capacité d’en produire.
Mais si nous avançons rapidement de cinq ou dix ans, l’avenir est incertain : y aura-t-il plus ou moins d’emplois ? Ce n’est pas sûr.
Dans ce passage, on retrouve l’opposition entre deux imaginaires politiques et technologiques.
D’un côté, la critique national-populiste tend à voir dans l’IA une menace pour les classes productives et pour la souveraineté étatique.
De l’autre, l’ambition de développer une « intelligence artificielle générale » — ou AGI, une forme d’IA capable d’accomplir n’importe quelle tâche intellectuelle humaine. Altman défend ici sa vision de la singularité harmonieuse, où l’IA serait un appui à l’autonomie humaine.
Tucker Carlson
Il va y avoir des départs massifs, et peut-être que ces personnes trouveront quelque chose de nouveau, d’intéressant et de lucratif à faire. Mais quelle sera l’ampleur de ces départs, selon vous ?
Sam Altman
Quelqu’un m’a récemment dit qu’historiquement, environ 50 % des emplois changent de manière significative tous les 75 ans.
Ils ne disparaissent pas nécessairement, mais ils changent de manière fondamentale.
Mon opinion — controversée — est que nous allons assister à un moment d’« équilibre ponctué », où une grande partie de ce changement se produira en très peu de temps. Mais si l’on prend du recul, le rythme global du changement ne sera pas très différent de la moyenne historique. Nous connaîtrons un pic de rotation dans un laps de temps réduit, puis cela se stabilisera.
Il y aura toujours une continuité : de nouvelles catégories d’emplois apparaîtront — comme le mien, qui consiste à diriger une entreprise technologique, ce qui aurait été difficile à imaginer il y a 200 ans.
Dans le même temps, de nombreux emplois actuels sont similaires à ceux qui existaient il y a deux siècles, tandis que d’autres ont disparu.
Si nous supposons — pour les besoins de l’argumentation — que le taux de rotation est de 50 % tous les 75 ans, je peux facilement imaginer que dans 75 ans, la moitié des gens exerceront des métiers totalement nouveaux et que l’autre moitié continuera à exercer des métiers similaires à ceux d’aujourd’hui.
Tucker Carlson
La dernière fois que nous avons connu une révolution industrielle, ce fut une véritable révolution — il y eut des guerres mondiales. Pensez-vous que ce sera le cas cette fois-ci ?
Sam Altman
Encore une fois, personne ne le sait avec certitude.
Je ne suis pas sûr de ma réponse, mais mon instinct me dit que le monde est tellement plus riche aujourd’hui qu’à l’époque de la révolution industrielle que nous pourrons probablement absorber plus de changements et plus rapidement qu’auparavant. Le travail n’est pas seulement une question d’argent, c’est aussi une question de sens, d’appartenance et de communauté.
Malheureusement, je pense que la société est déjà dans une mauvaise passe à cet égard, je ne sais donc pas dans quelle mesure la situation pourrait encore empirer. Je suis sûr que c’est possible, mais j’ai été agréablement surpris par la rapidité avec laquelle les gens s’adaptent aux grands changements.
Le Covid-19 en est un exemple intéressant : le monde s’est arrêté presque d’un seul coup, et d’une semaine à l’autre, tout a changé.
J’étais très inquiet de la façon dont la société allait s’adapter à ce changement soudain. Ce n’était évidemment pas parfait, mais dans l’ensemble, je me suis dit : « Très bien, c’est un point en faveur de la résilience sociale. » Les gens ont très vite trouvé de nouvelles façons de vivre leur vie.
Je ne pense pas que l’IA sera aussi brutale.
L’exemple du Covid illustre une nouvelle fois la tension entre les deux interlocuteurs. Si Altman considère qu’il s’agissait d’un épisode dont l’humanité est sortie grandie, Carlson a été l’un des principaux promoteurs des théories complotistes sur la pandémie.
Tucker Carlson
Je vois les avantages : efficacité, diagnostics médicaux plus précis, moins d’avocats… Mais quels sont les inconvénients qui vous inquiètent ?
Sam Altman
Je pense que c’est simplement ma façon d’être : ce qui m’inquiète le plus, ce sont les inconnues.
Si l’inconvénient est prévisible, on peut généralement s’efforcer de l’atténuer. Par exemple, ces modèles sont de plus en plus performants en biologie et pourraient être utilisés à mauvais escient pour concevoir des armes biologiques ou provoquer une nouvelle pandémie. Cela m’inquiète, mais comme c’est le cas pour beaucoup d’acteurs du secteur, nous réfléchissons déjà à des mesures de protection.
La véritable préoccupation concerne les « inconnues inconnues », c’est-à-dire les effets imprévus à l’échelle de la société lorsque de nombreuses personnes interagissent simultanément avec le même modèle. Voici un exemple modeste mais révélateur : les grands modèles de langage (LLMs), y compris le nôtre, ont un style d’écriture particulier, avec certains rythmes, une diction légèrement inhabituelle — et peut-être une utilisation excessive des tirets longs.
Récemment, j’ai remarqué que des personnes réelles ont commencé à adopter ces habitudes. Cela m’a fait prendre conscience que lorsqu’un nombre suffisant de personnes sont influencées par le style d’un modèle, cela peut avoir un impact sur le comportement à l’échelle de la société.
Bien sûr, je ne pensais pas que ChatGPT inciterait les gens à utiliser davantage de tirets dans la vie réelle. Ce n’est pas grave en soi. Mais cela montre à quel point ces petits effets imprévus peuvent facilement apparaître.
C’est la nature même de ce nouveau monde.
Tucker Carlson
Vous dites donc, de manière correcte et succincte, que la technologie modifie le comportement humain et nos hypothèses sur le monde. La plupart de ces changements sont imprévisibles. Mais dans ce cas, pourquoi le cadre moral interne de la technologie ne devrait-il pas être totalement transparent ? Pour moi, c’est clairement une sorte de religion— et je ne dis pas cela pour critiquer.
Sam Altman
Je ne le prends pas comme une attaque, mais j’aimerais beaucoup savoir ce que vous entendez par là.
Tucker Carlson
Eh bien, c’est une chose que les gens considèrent comme plus puissant que les individus et vers laquelle ils se tournent pour trouver des repères. On le voit déjà dans la pratique : à qui demande-t-on « quelle est la bonne décision ? » — à ses amis, à son conjoint, à Dieu. Cette technologie peut sembler fournir une réponse plus certaine qu’une vraie personne. C’est pourquoi je la qualifie de religion. Les religions ont des catéchismes transparents : vous savez ce qu’elles défendent et ce qu’elles rejettent. Je ne vous attaque pas, j’essaye d’aller au cœur du problème. Ce qui est troublant avec cette technologie, c’est que je ne sais pas ce qu’elle défend — même si elle défend clairement quelque chose. À moins qu’elle ne l’admette et ne nous le dise, elle nous orientera subtilement vers des conclusions dont nous ne nous rendons peut-être pas compte. Pourquoi ne pas être explicite et dire que ChatGPT est destiné au suicide des malades en phase terminale, mais pas aux enfants ou à d’autres personnes ? Pourquoi ne pas nous le dire ?
Sam Altman
Nous produisons un long cahier des charges pour le modèle et nous continuons à l’étoffer afin que les gens puissent voir comment nous voulons qu’il se comporte. Avant cela, les gens pouvaient raisonnablement dire qu’ils ne savaient pas si un comportement était un bug ou s’il était voulu.
Nous essayons de documenter quand le modèle fera quelque chose et quand il ne le fera pas. Nous rédigeons cela parce que je pense que les gens ont besoin de le savoir.
Tucker Carlson
Existe-t-il un endroit où trouver une déclaration définitive des préférences de l’entreprise, c’est-à-dire les positions qui sont transmises — peut-être pas de manière tout à fait transparente — au monde entier ? Où les gens peuvent-ils trouver ce que l’entreprise défend et préfère ?
Sam Altman
La spécification de notre modèle est la réponse à cette question. Je pense que nous devrons la rendre de plus en plus détaillée au fil du temps, à mesure que les gens l’utiliseront dans différents pays, avec des lois différentes. Elle ne fonctionnera pas de la même manière pour tous les utilisateurs partout dans le monde.
Je m’attends à ce que ce document devienne très long et très compliqué, mais c’est aussi pour cela que nous le faisons.
Tucker Carlson
Permettez-moi de vous poser une dernière question. Pouvez-vous répondre à la crainte que la puissance de cette technologie rende impossible la distinction entre la réalité et la fiction ? C’est une préoccupation bien connue. Comme elle est très douée pour imiter les personnes, leur discours et leur image, il faudrait peut-être trouver un moyen de vérifier leur identité. Cela nécessiterait des données biométriques, ce qui éliminerait la vie privée de tout le monde dans le monde.
Sam Altman
Je ne pense pas que nous ayons besoin ou que nous devions exiger la biométrie pour utiliser cette technologie.
Je pense que vous devriez pouvoir utiliser ChatGPT depuis n’importe quel ordinateur.
Tucker Carlson
Je suis tout à fait d’accord. Mais à un moment donné, lorsque les images ou les sons imitent une personne de manière trop convaincante, il devient très facile, par exemple, de vider le compte bancaire de quelqu’un. Que faites-vous à ce sujet ?
Sam Altman
Quelques réflexions.
Nous nous dirigeons rapidement vers un monde où les gens comprennent que s’ils reçoivent un appel téléphonique de quelqu’un qui ressemble à leur enfant ou à leur parent, ou s’ils voient une image qui semble réelle, ils auront besoin d’un moyen de le vérifier. Ce n’est plus une préoccupation théorique ; de nombreux cas ont déjà été signalés. Les gens sont intelligents, la société est résiliente, et je pense que les gens se rendent rapidement compte que ce sont des personnes mal intentionnées qui agissent ainsi.
Alors ils s’adaptent — et trouvent d’autres moyens de vérifier.
Je pense que comme certaines familles qui utilisent des noms de code dans les situations de crise, nous verrons également des présidents signer cryptographiquement des messages urgents afin d’en garantir l’authenticité. De cette façon, on évitera les vidéos truquées montrant quelqu’un comme Trump annonçant des mesures qu’il n’a jamais prises.
Les gens prennent conscience qu’il s’agit d’un nouveau risque et trouvent des moyens d’y faire face. Ils ne feront plus automatiquement confiance aux médias et nous développerons systématiquement des mécanismes pour vérifier l’authenticité.
Bien que son nom ne soit pas mentionné, on pense ici à l’entreprise Palantir, fondée par Peter Thiel en 2003. Elle s’est spécialisée dans l’analyse massive de données pour les gouvernements, les armées et les grandes entreprises. Elle est connue pour ses logiciels de renseignement et de surveillance, utilisés notamment par la CIA et le Pentagone.
Tucker Carlson
En temps normal, le risque est moins qu’un président déclare faussement la guerre qu’une arnaque au e-commerce. Comment vérifier ?
Sam Altman
Les familles peuvent utiliser des mots de passe qui changent régulièrement. Si vous recevez un appel suspect, vous demandez le mot de passe. C’est très différent de l’utilisation de la biométrie.
Tucker Carlson
Pour monter à bord d’un avion, d’un vol commercial, la biométrie fait partie du processus. Vous ne pensez pas que cela deviendra bientôt obligatoire à l’échelle de la société ?
Sam Altman
J’espère vraiment que la biométrie ne deviendra pas obligatoire.
Il existe des versions de la biométrie qui préservent la vie privée et que je préfère de loin à la collecte de grandes quantités d’informations numériques personnelles sur quelqu’un. Mais elles ne devraient pas être obligatoires. Par exemple, vous ne devriez pas avoir à fournir des données biométriques pour monter à bord d’un avion.
Tucker Carlson
Qu’en est-il des opérations bancaires ?
Sam Altman
Je ne pense pas qu’elles devraient être obligatoires pour les opérations bancaires non plus.
Personnellement, je préférerais peut-être utiliser un scan d’empreintes digitales pour accéder à mon portefeuille Bitcoin — plutôt que de donner toutes mes informations à une banque.
Mais cela devrait en tout état de cause rester ma décision.