En 1964 paraît la transcription d’une retentissante conférence de Martin Heidegger à l’UNESCO, « la fin de la philosophie et la tâche de la pensée »1. Pour le philosophe allemand, c’est la cybernétique qui représente cette fin de la philosophie. Il voit en elle l’avènement de l’ordre rationnel, pilotable, mesurable. Où toute situation peut se réduire à un système à optimiser. Où l’individu se retrouve lui-même réduit aux données qui le constituent et n’est plus qu’une ressource exploitable. Où seule la pensée logique, qu’il appelle logistique, règne en maître dans le seul but d’optimiser ces systèmes. Dans cette perspective, il devient de plus en plus complexe de définir la tâche de la pensée subjective. Si Heidegger s’inscrit là dans une longue histoire de la pensée technocritique, dont le but n’est pas ici d’en tracer une généalogie, cette conférence résonne particulièrement aujourd’hui avec l’essor des outils d’« intelligence artificielle » (IA). Tout d’abord car la notion d’« IA » n’est pas née de OpenAI ou de DeepMind et s’ancre déjà profondément dans ce mouvement cybernétique d’après-guerre. Mais surtout car les avancées technologiques actuelles continuent de faire vibrer l’inlassable glas de la fin de l’activité humaine, philosophie et pensée comprises. 

Poser la question en ces termes revient donc à dire qu’au-delà d’une compétition technologique et géopolitique, le déploiement de l’« IA » représente surtout la continuité d’un rapport de forces idéologique majeur. Afin d’y trouver sa place, l’Union européenne doit prendre toute la mesure de cette question, sans craindre les appels prophétiques qui ne cherchent qu’à la faire s’adapter à un système néo-cybernétique. 

Les avancées technologiques actuelles continuent de faire vibrer l’inlassable glas de la fin de l’activité humaine, philosophie et pensée comprises. 

Gilles Lecerf

L’« IA » et le timonier en pilote automatique 

La cybernétique est une théorie du contrôle et de l’optimisation des systèmes, pensée en particulier par Warren McCulloch et Norbert Wiener dans les décennies qui suivirent la Seconde Guerre mondiale. Ce terme provient du grec kubernetes qui signifie timonier2 — lui sont associés les notions de  pilotage et de commande. La cybernétique se proposait d’élaborer des techniques d’optimisation d’un système, par le pilotage des actions des agents dont il est constitué. Celui-ci est assuré par la production de signaux qui doivent enclencher l’action des agents. Ces signaux sont eux-mêmes amenés à s’améliorer dans une boucle de rétroaction à mesure que le système apprend de ses erreurs, par renforcement3. La vision cybernétique ne vise donc pas l’émancipation et l’autonomie des agents mais valorise davantage l’optimisation quantitative du système par l’automatisation d’actions performantes. Si, notamment avec Wiener, le champ d’application initial de la cybernétique a été le domaine de la défense anti-aérienne, l’objectif a vite été d’élargir cette approche à d’autres pans de la société. Dans son célèbre ouvrage, L’usage humain des êtres humains4, Wiener soulève les lourds enjeux politiques et moraux liés à cette propagation, pointant en particulier l’aliénation des individus. Wiener s’inquiétait notamment de l’avènement d’un paternalisme bienveillant et technocratique où la valeur intrinsèque des individus serait reléguée au profit du bon fonctionnement du système. Il s’inquiétait également de l’aveuglement que pourrait occasionner l’outillage technologique chez les populations. Wiener estimait que cet ensemble d’artifices pourrait divertir notre attention des questions politiques et des enjeux de pouvoir dont il est pourtant issu, et qu’il instaure. 

« Son réel danger cependant est que de telles machines, quoique impuissantes à elles seules, puissent être utilisées par un être humain ou un groupe pour accroître leur contrôle sur le restant de l’humanité. »5

Avant d’aller plus loin sur ces enjeux de pouvoir, il est primordial de replacer la cybernétique dans une généalogie morale plus profonde qui est celle du conséquentialisme et de l’utilitarisme. La cybernétique s’intéresse uniquement aux résultats d’une action en tant qu’elle optimise ou non un système. Comme toute approche utilitariste, la cybernétique se fonde sur une analyse quantitative de ce système — réduit aux signaux qui le constituent — et non pas des agents, dont la qualité est niée. Ces derniers sont interchangeables et seule importe ici la conséquence quantitative d’une action, dont on doit mesurer l’impact sur la performance globale du système. L’approche utilitariste repose sur différents postulats que l’on peut synthétiser ainsi  : le développement technologique serait neutre, scientifique et objectif et notre but principal serait de mesurer les résultats et de favoriser les cas d’usage positifs tout en se prémunissant des effets négatifs. Les postulats cybernétiques et utilitaristes sont notamment de croire que tout peut être réduit à des données (i), qu’il est possible d’isoler les effets positifs des effets négatifs, qu’a minima cela est optimisable (ii), que tout peut se prévoir ou se considérer comme un risque quantitatif à gérer (iii) et qu’il n’y aurait donc pas de perte qualitative irrémédiable (iv).

La cybernétique s’intéresse uniquement aux résultats d’une action en tant qu’elle optimise ou non un système.

Gilles Lecerf

Cette approche, qui semble aujourd’hui aller de soi, ne doit pas nous aveugler sur les conséquences qualitatives de long terme, irréductibles à des données. Si l’unique boussole morale que nous observons n’indique que ce qui est quantitativement mesurable et optimisable, le danger est grand de passer totalement sous silence les éléments qualitatifs et de long terme. Dans cette logique, l’irréductible devient un impensé, un oublié. Ou plutôt, il est concevable mais jamais calculable : l’ornière utilitariste nous condamne à envisager les problèmes qualitatifs, à les attendre, mais sans jamais pouvoir  les prendre en compte. C’est tout le propre de l’ambivalence technologique6. En paraphrasant René Char, on pourrait dire que l’essentiel y est sans cesse menacé par l’insignifiant. Aujourd’hui, il est clair que l’irréductible est toujours menacé par le mesurable.

Expérience de la bobine de Tesla. Des jets d’électricité jaillissent d’une bobine dans le laboratoire du physicien et ingénieur électricien serbo-américain Nikola Tesla (1856-1943) à Colorado Springs, Colorado, États-Unis, en 1898 (domaine public). Tesla a exploité ce laboratoire de 1899 à 1900. Ici, la décharge de 12 millions de volts d’un oscillateur électrique a fait brûler l’azote et l’oxygène de l’air dans une flamme de 20 mètres de diamètre. La bobine qui porte le nom de Tesla est un type de transformateur résonant utilisé pour produire un courant électrique alternatif à haute tension, à faible intensité et à haute fréquence. Les recherches de Tesla ont permis des avancées majeures dans des domaines tels que la production et la transmission d’électricité par courant alternatif. L’unité SI de densité de flux magnétique est nommée en son honneur.

Les outils d’« IA » sont les dernières incarnations de cette théorie cybernétique qui se déploie, depuis plus de 70 ans, dans ce décor moral utilitariste. On le remarque tout d’abord par ce primat du quantitatif et de l’analyse d’un système qui repose sur les données afin d’émettre des prédictions performantes ; mais aussi via le fonctionnement même de ces outils d’« IA », dont le modèle global, ou du moins son abstraction, repose sur un parallélisme avec le cerveau humain théorisé par les pionniers de la cybernétique comme McCulloch7. En un mot, ces outils contemporains sont les dernières commandes du pilotage cybernétique, dont la genèse intellectuelle et théorique — du point de vue informatique et électronique — remonte à l’après-guerre. À rebours des déclarations un peu rapides qui considèrent l’« IA », et plus généralement la technologie, comme neutres, il faudrait donc bien plutôt en indiquer le caractère hautement moral  : son développement répond avant tout, comme avec la cybernétique, à une approche utilitariste et quantitative du réel. 

L’« IA », comme concept néo-cybernétique est bien le reflet d’un esprit du temps qui lui préexiste largement — et qui ne parvient à valoriser que ce qu’il est en mesure de réduire à des données.

Les outils d’« IA » sont les dernières incarnations d’une théorie cybernétique qui se déploie, depuis plus de 70 ans, dans ce décor moral utilitariste.

Gilles Lecerf

La fable de l’optimiste utilitariste

Reconnaître une orientation morale du développement de l’« IA » n’est pas un simple débat philosophique. C’est une question hautement politique. En particulier parce que cette orientation morale utilitariste de la cybernétique bénéficie aux producteurs de ces outils. Cela nous rappelle cette histoire que nous nous racontons, peut-être un peu naïvement, mais à laquelle pourtant nous croyons assez aisément : la fable de l’optimiste utilitariste.

Cette fable nous raconte d’abord que, dans une démarche conséquentialiste, le producteur de l’outil ne peut être tenu pour responsable de l’action, car seul compte le résultat, et non l’outil.

Ainsi nous sommes-nous racontés que les plateformes qui administrent les réseaux sociaux ne pouvaient être tenues pour responsables des conséquences de leur utilisation8 ; seuls les utilisateurs finaux devraient être traduits en justice pour des cas d’usage précis et ponctuels. La vision quantitative nous empêche également de valoriser l’impact qualitatif de ces outils sur la polarisation de nos sociétés, leur influence sur nos démocraties, l’accaparement qu’ils font de l’attention des individus et l’anxiété qu’ils génèrent. Elle permet en revanche de bien souligner les réussites de ces plateformes  : valorisations boursières, emplois créés, utilisateurs connectés et  activité commerciale générée. Le néo-cybernéticien a donc beau jeu de se targuer des réussites quantitatives qu’il peut dénombrer, reporter sur les autres les échecs de son outil et surtout rester aveugle à ce qu’il ne peut mesurer.

Le néo-cybernéticien a beau jeu de se targuer des réussites quantitatives qu’il peut dénombrer, reporter sur les autres les échecs de son outil et surtout rester aveugle à ce qu’il ne peut mesurer. 

Gilles Lecerf

L’essentiel sans cesse menacé par l’insignifiant

Cette déresponsabilisation se poursuit, et les néo-cybernéticiens militent aujourd’hui pour faire reconnaître la seule responsabilité des utilisateurs, notamment auprès de l’Union. Les récents débats autour de la (re)qualification du risque des agents conversationnels (comme ChatGPT) démontrent9 pourtant le malaise de cette approche purement quantitative  : que faire face à l’irréductible  ? Comment quantifier le risque d’un élément dont la portée ne peut se mesurer ni dans le temps ni dans l’espace  ? 

Le mode de pensée utilitariste ne peut pas appréhender un phénomène qui représente pour lui une véritable forme morale indéterminée. Ce qu’il ne peut mesurer, il ne peut le valoriser et tend à l’écraser. Alors que les Américains cherchent aujourd’hui à revenir sur la déresponsabilisation des entreprises qui possèdent les réseaux sociaux10, il semblerait habile de ne pas contourner cette question en ne cherchant qu’à s’adapter à ce cadre moral restrictif. Une approche morale non utilitariste chercherait davantage de précaution pour ce qui, par défaut, n’est ici pas dénombrable. Pour l’Union, il est tout simplement question de sa capacité à être véritablement autonome, c’est-à-dire de sa capacité à se doter de sa propre loi et non de suivre des préceptes moraux imposés par l’extérieur. Alors que les plateformes cherchent à tout faire pour se prémunir du prochain Cambridge Analytica, en mettant sous pression les régulateurs, il serait sage de se poser cette question  : dans quel cadre moral restrictif était-il acceptable de monétiser le temps et l’attention des utilisateurs sans engager la responsabilité des individus et des plateformes qui conçoivent ces outils  ? Et souhaitons-nous poursuivre dans cette perspective morale pour le futur de la technologie, et en particulier pour la régulation de ces nouvelles commandes cybernétiques ?

Alors que les Américains cherchent aujourd’hui à revenir sur la déresponsabilisation des entreprises qui possèdent les réseaux sociaux, il semblerait habile de ne pas contourner cette question en ne cherchant qu’à s’adapter à ce cadre moral restrictif.

Gilles Lecerf

Le néo-cybernéticien utilitariste continue sur sa lancée, ne captant que ce qu’il réduit et restant aveugle à l’irréductible qu’il détruit. La fable se poursuit et il nous intime de rester optimiste, nous contant que c’est par son pilotage que nous allons pouvoir régler nos problèmes, et ceux que le système technique génère. Que même s’il a parfois conscience de casser quelques éléments dans son accélération permanente, il ne faut pas trop s’en préoccuper car la balade ne fait que commencer et il se trouvera bien une solution11 en chemin.

Une idéologie optimiste du progrès

Adopter un point de vue utilitariste, c’est défendre l’approche optimiste selon laquelle tout est gérable — points négatifs compris — dans un vaste système où tout devient un problème à résoudre et à optimiser. Cette approche n’est pas en mesure de considérer une  perte irréductible, incalculable et peut-être irrémédiable. 

L’usine Wardenclyffe de Tesla, à Long Island, en cours d’achèvement. Les travaux sur le dôme de 25 mètres de diamètre n’ont pas encore commencé. On remarque ce qui semble être un wagon de charbon garé à côté du bâtiment. À partir de cette installation, Tesla espérait faire la démonstration de la transmission sans fil de l’énergie électrique vers la France. Vers 1902. Domaine public.

L’optimisme est de croire que tout va pouvoir être réglé, de l’alpha à l’oméga, par le paramétrage du système. Partager cet optimisme, c’est fondamentalement laisser la main aux promoteurs de ces technologies, qui restent irrémédiablement en avance sur la régulation potentielle. Les néo-cybernéticiens nous charment en estimant ni plus ni moins qu’ils tiendraient là dans leurs mains les clefs de notre destinée collective. Wiener était lui-même un grand critique de l’optimisme technologique, conjurant ses propres concitoyens à sortir d’un « esprit de Noël » et mettant en garde le reste du monde contre l’incapacité américaine à faire preuve de « savoir-quoi », faculté à bien des égards plus subtile que le « savoir-faire »12. Plus de 70 ans plus tard, les Grands Timoniers confessent cette même impuissance optimiste dans un lointain mais vif écho au père cybernéticien, nous mettant une fois de plus en alerte : « Pour l’instant, nous disposons d’une réalisation nouvelle et spectaculaire qui fait la gloire de l’esprit humain sous la forme de l’IA. Nous ne lui avons pas encore trouvé de finalité (destination). En devenant l’Homo Technicus, nous devons impérativement définir l’objectif (purpose) de notre espèce. C’est à nous de fournir les vraies réponses. »13

Les néo-cybernéticiens nous charment en estimant ni plus ni moins qu’ils tiendraient là dans leurs mains les clefs de notre destinée collective.

Gilles Lecerf

S’adapter et capituler 

Cet optimisme néo-cybernétique bénéficie d’une certaine aura, d’une croyance que nous allons pouvoir régler bon nombre de nos problèmes par le déploiement technologique, malgré le péril qualitatif que cela implique. La dénomination contemporaine de general-purpose AI renforce cet optimisme ainsi que son aspect incontournable  : ces outils d’IA, dans une perspective utilitariste et optimiste, seraient bons-à-tout, ils représenteraient le moyen idéal et omnipotent. 

C’est là encore prendre une décision politique et morale majeure car cela pose fondamentalement deux problèmes  : un moyen omnipotent est un moyen pour lequel on ne délibère plus, qui devient par définition une fin en soi. Il devient autotélique et autojustifié. Le second problème est que nous n’avons en contrepartie plus qu’à nous adapter à cet outil. Là encore, il est éclairant de voir que cette rhétorique de l’adaptation de l’humain à une technologie qui promet de nous apporter le progrès n’est pas nouvelle. Science finds, industrie applies, man conforms était la devise de l’Exposition universelle de Chicago en 193314, pour célébrer « un siècle de progrès », et reste aujourd’hui une illustration frappante de cet esprit du temps dont on peine à se séparer. L’amalgame entre progrès quantitatif et progrès humain bénéficie bien entendu aux promoteurs du système, qui ne peuvent que nous inviter à nous adapter et à accepter cette destinée technologique qu’ils nous présentent comme inéluctable et positive — à l’image de Larry Page15 qui, lors d’un rare entretien, tonitruait déjà  : « On ne peut pas souhaiter que ces choses n’arrivent pas, elles vont arriver. […] Vous allez avoir des capacités extraordinaires dans l’économie. Vous ne pouvez pas contourner ce phénomène (there is no way around that). Souhaiter le contraire n’y changera rien (you can’t wish it away). »16

Un moyen omnipotent est un moyen pour lequel on ne délibère plus, qui devient par définition une fin en soi. Il devient autotélique et autojustifié.

Gilles Lecerf

Inéluctable vient du latin eluctor, qui signifie « ce dont on échappe en luttant ». Claironner l’in-éluctable c’est donc tout simplement compter sur la capitulation intellectuelle et politique de son interlocuteur. C’est une invitation, somme toute très cybernétique, à ne plus penser. 

La « tâche de la pensée » dans le mouvement technologique

Or face à la cybernétique, Heidegger cherchait à nous mobiliser pour redéfinir justement la « tâche de la pensée ». Il nous incombe de reprendre cette interrogation et de la faire vivre aujourd’hui. 

« Peut-être est-il une pensée plus sobre que le déferlement irrépressible de la rationalisation et l’emportement qu’est la cybernétique. C’est plutôt cet emportement qui pourrait bien être le comble de l’irrationnel. »17

Emportement qui devient souvent un simple divertissement, au sens propre du terme  : une mise en mouvement qui nous détourne de notre voie initiale, qui nous empêche de suivre nos propres buts, d’être autonomes, et qui nous maintient à un niveau de réflexion non délibérée, purement automatique. C’est ce divertissement dont on a pu comprendre, de Pascal à Ellul, à quel point il était le premier obstacle à la pensée. En particulier à une pensée critique, constructive et vertueuse de la technologie. Si nous pouvons nous inquiéter de voir certains dirigeants cybernétiques actuels eux-mêmes divertis par leur propre course technologique18, il semble que le point capital du problème est surtout la fascination populaire produite par cet emportement et cet emballement technologique. Fascination qui représente l’atout principal des promoteurs de ce mouvement  : il est le facteur essentiel de notre divertissement puis de notre apathie collective et politique. De notre comportement puéril face à la technologie que nous appréhendons bien trop souvent comme un grand parc d’attractions technologiques où chaque manège, toujours plus sophistiqué, toujours plus fascinant, nous réconforte, nous démontre que l’on sait toujours faire plus efficace, plus rapide et plus performant. Le vertige est encore le moyen le plus commode pour s’assurer qu’on reste en mouvement.

Pour sortir de cette torpeur intellectuelle il est nécessaire de questionner ce qui relève aujourd’hui de l’évidence, la notion même d’« IA » — en particulier son usage vague et restrictif de l’intelligence. 

Il est nécessaire de questionner ce qui relève aujourd’hui de l’évidence, la notion même d’« IA » — en particulier son usage vague et restrictif de l’intelligence.

Gilles Lecerf

« Aux contempteurs de l’intelligence, j’aimerais dire un mot »19

Le vague qui entoure la notion d’« intelligence artificielle » (concept rarement défini, ou trop souvent en réemployant de façon absurde ce même mot d’intelligence20) est pourtant le cœur même du rapport de force idéologique qui nous intéresse ici. Une piste de réflexion pour penser cette question de l’intelligence nous vient de l’Histoire de la philosophie, où le concept d’intelligence n’a pas toujours été aussi vague. Les Anciens utilisaient différents termes pour parler de différentes facultés qui se rapportaient à différents objets.

La typologie entre logos, dianoia et noûs semble notamment très éclairante. Le logos, analytique, est une intelligence qui permet de faire sens du réel, de lier des données entre elles, d’opérer des calculs sur ce qui nous est donné dans l’expérience. C’est l’intelligence de la cybernétique, capable de mesurer, de calculer et d’optimiser. À l’inverse, la dianoia, parfois traduite par pensée, recouvre un champ plus créatif et plus introspectif. C’est une faculté de conceptualisation. Enfin l’intelligence morale est le noûs, terme parfois rapproché de nomos, la loi. Cette loi serait le fruit d’une faculté particulière — le noûs — qui permet d’émettre des jugements moraux, ce dont serait incapable la machine — ou plutôt d’émettre des jugements moraux qui ne reposent pas sur le simple calcul utilitariste. Repartir de cette différenciation permettrait déjà d’encadrer la notion d’intelligence artificielle en la réduisant à un simple logos artificiel. 

Nikola Tesla assis dans son laboratoire de Colorado Springs avec son «  Magnifying Transmitter  ». Domaine public

Vouloir définir ce courant néo-cybernétique est fondamentalement politique  : c’est acter que la conceptualisation d’une technologie, en l’occurence ici l’« IA », est intimement liée à un cadre moral et à un rapport de forces. Elle porte une vision utilitariste qui se déploie au profit de ses promoteurs et ne permet pas de penser de façon élargie les enjeux de notre époque. Mettre en lumière que cet outillage n’est en réalité qu’un logos artificiel, c’est pouvoir ouvrir la réflexion à d’autres champs, en particulier moraux, afin de circonscrire ces outils au domaine du calculable tout en se mobilisant sur d’autres aspects plus qualitatifs. C’est l’inverse de ce qui se passe aujourd’hui, où l’écrasement du débat sous le poids de l’« IA » in-définie, il-limitée nous borne à écouter la fable néo-cybernétique de l’utilitariste optimiste.

Vouloir définir ce courant néo-cybernétique est fondamentalement politique  : c’est acter que la conceptualisation d’une technologie, en l’occurence ici l’« IA », est intimement liée à un cadre moral et à un rapport de forces

Gilles Lecerf

À la recherche de l’« ouvert »

Heidegger définissait la technique comme un « arraisonnement »21. Comme une interpellation, une provocation, de l’individu, qui se retrouve sommé de participer au système technique et de se donner entièrement comme ressource exploitable22. Si pour lui la cybernétique représentait le point culminant du « péril » technique, il estimait que c’était à l’individu de chercher à renouer avec sa subjectivité, de cesser de n’être « qu’un serf que l’on commande »23. À l’heure où les timoniers se muent bien volontiers en pirates déterminés à arraisonner tout ce qu’ils pourront réduire, dans un élan illimité de conquête de cette nouvelle frontière technologique, cette injonction devrait nous mobiliser. Sa proposition de définir la pensée comme « ouverture »24 devrait nous aider à nous extraire de ce système cybernétique afin tout d’abord de le prendre lui-même pour objet, en commençant par en délimiter les contours. Une piste proposée ici est donc de définir plus clairement ce logos artificiel comme étant un outil maîtrisé, un moyen borné, délibéré — pour le remettre à sa juste place. Une telle définition serait la première étape vers un développement technologique qui s’émancipe de l’optimisme utilitariste, valorise le qualitatif et ne l’écrase plus sous une analyse quantitative. Qui cherche à prendre ses précautions avec l’irréductible et le protège de l’irrémédiable, sans rester impuissant devant l’indétermination et la complexité du réel. qui ne cherche pas simplement à commander des serfs automatiques par le bon signal mais à lier une communauté de personnes autonomes par la pensée. 

Se mettre en quête de cet ouvert, c’est vouloir considérer les dimensions non réductibles à des données de la vie de nos sociétés et des personnes. C’est refuser l’aplatissement total à des données en limitant la portée de l’outillage technologique, qui ne peut jamais devenir vierge de toute délibération. Porter une telle ambition, c’est fondamentalement vouloir redéfinir le cadre moral dans lequel nous opérons en défendant  la conviction que seul est inéluctable ce que nous nous refusons de voir. Il est temps de se remettre à penser. 

Sources
  1. Voir Heidegger Martin, Questions III et IV, Paris, Gallimard, coll. Tel, no 172, 2000 (pp. 281-322)
  2. Le timonier est la personne qui tient le gouvernail sur un navire. Il est ici intéressant de noter que ce n’est pas nécessairement le capitaine. 
  3. La cybernétique emprunte ici aux travaux de I. Pavlov sur le renforcement, terme que l’on utilise toujours aujourd’hui dans le domaine informatique, en particulier pour parler de l’apprentissage par renforcement.
  4. Wiener Norbert, Cybernétique et société : l’usage humain des êtres humains, Paris, Éd. du Seuil, coll. « Points », n°S216, 2014
  5. Ibid, p.208
  6. Voir par exemple Ellul Jacques, Le Bluff technologique, Paris, Pluriel, 2014 (pp.89-163).
  7. Voir en particulier McCulloch Warren S., « Through the Den of the Metaphysician », The British Journal for the Philosophy of Science, vol. 5, no 17, 1954, p. 18-31.
  8. La Section 230 de la Federal Trade Commission protège les plateformes de telles poursuites en les considérant comme de simples hébergeurs de contenus et non comme des éditeurs. Dans le même temps, la loi américaine considère ces réseaux comme des espaces privés possédés par ces plateformes, qui peuvent agir pour modérer et censurer des contenus (ceux qui sont illégaux, mais aussi qui ne respectent pas leurs conditions d’utilisation).
  9. Dans la typologie de risque de l’Union, ces outils étaient initialement considérés comme à faible risque. L’émergence d’outils très performants comme celui d’OpenAI a incité l’Union à revoir la question.
  10. Voir en particulier le cas Gonzales vs Google dont l’issue pourrait remettre en cause l’irresponsabilité des plateformes et la section 230 de la FTC.
  11. « Go fast & break things » et « the journey is 1 % finished » sont des slogans passés et présents de l’entreprise Meta
  12. « La presse exalte le « savoir-faire » américain depuis que nous avons eu le malheur de découvrir la bombe atomique. Il y a pourtant une qualité plus importante que celle-là et beaucoup plus rare aux États-Unis. C’est le « savoir quoi » grâce auquel nous déterminons non seulement les moyens d’atteindre nos buts mais aussi ce que doivent être nos buts. » in Wiener Norbert, Cybernétique et société : l’usage humain des êtres humains, 2014 (p.208)
  13. Daniel Huttenlocher, Henry Kissinger and Eric Schmidt, « ChatGPT Heralds an Intellectual Revolution », Wall Street Journal, 24 février 2023. Traduction de l’auteur. 
  14. « La science découvre, l’industrie applique et l’homme s’adapte ». On pourrait également dire « se moule ». « Science finds, Industry applies Man conforms », Chicago History Museum.
  15. Larry Page est le cofondateur de Google, avec Sergei Brin. Bien qu’ils aient tous les deux quitté leur rôle opérationnel dans Alphabet, dont la direction est aujourd’hui assurée par Sundar Pichai, ils siègent toujours au conseil d’administration de l’entreprise où ils possèdent, grâce à des actions spéciales dotées d’un droit de vote préférentiel, un poids décisif.
  16. « FT interview with Google co-founder and CEO Larry Page », Financial Times, 31 octobre 2014. Traduction de l’auteur.
  17. Heidegger Martin, Questions III et IV, Paris, Gallimard, coll. Tel, nᵒ 172, 2000. p.304.
  18. On pourrait notamment discuter de la réflexion de S.Nadella (le CEO de Microsoft) au sujet de sa fierté « d’avoir fait danser le gorille Google » en étant le premier à dévoiler son outil conversationnel, en l’occurence ChatGPT. Cf. Nillay Patel, « Microsoft thinks AI can beat Google at search — CEO Satya Nadella explains why », The Verge, 8 février 2023.
  19. Allusion à la critique nietzschéenne des derniers hommes dans « Ainsi parlait Zarathoustra ».
  20. Ce qui est le cas de l’administration américaine par le biais du National Institute of Standards & Technology – NIST — voir la page associée sur son site Internet.
  21. Voir « la question de la technique moderne » dans Heidegger Martin, Essais et conférences, Paris, Gallimard, coll. « Collection Tel », no 52, 2001 ; En particulier p.27  : « Arraisonnement (Gestell) : Ainsi appelons-nous le rassemblant de cette interpellation qui requiert l’homme, c’est-à-dire qui le provoque à dévoiler le réel, comme fonds dans le mode du commettre. Ainsi appelons nous le mode de dévoilement qui régit l’essence de la technique moderne. »
  22. On peut en particulier citer le terme allemand Bestand souvent traduit par « fonds ».
  23. Ibid.
  24. Voir Heidegger Martin, Questions III et IV, Paris, Gallimard, coll. « Collection Tel », no 172, 2000, pp.298-301