Les historiens de l’économie utilisent, pour décrire les innovations techniques les plus marquantes et les plus susceptibles de bouleverser, par leurs conséquences en cascade, l’ensemble des activités de production, le concept de « general purpose technology » (acronyme : GPT) — que l’on pourrait traduire par « technologie générique » ou « technologie à objectif indéterminé ». La machine à vapeur, l’électricité, l’informatique, font ainsi partie des principaux cas de general purpose technologies  ; chacune d’entre elles est, ex post, associée à l’occurrence d’une révolution industrielle majeure. Une general purpose technology s’étend à tous les secteurs, et entraîne dans son sillage une vague d’innovations complémentaires dans chaque industrie. Elle modifie radicalement l’organisation de la plupart des activités économiques, et les structures sociales qui les accompagnent, en bouleversant la hiérarchie des coûts entre différents modes de production. 

Ainsi, le travail animal — dont relevaient avant elle le transport ou l’agriculture, n’est plus compétitif face à l’apparition de la machine à vapeur — et le travail manuel et artisanal sont profondément affectés par la disponibilité en masse d’outils électriques. Il est donc amusant — et nous ne sommes pas les premiers à le remarquer1 — de constater que la technologie des « Generative Pre-trained Transformers », dernière itération en date des grands modèles de langage (LLM en anglais), porte un acronyme — GPT — quelque peu prédestiné, qui suggère de pousser plus loin le parallèle avec les précédentes révolutions industrielles.

Une nouvelle révolution industrielle

Parler des évolutions futures de l’IA comme de « menaces » ou d’« opportunités » éventuelles, c’est ne pas se rendre compte qu’en l’absence de tout nouveau progrès, les LLM tels qu’ils existent actuellement sont déjà susceptibles de transformer l’essentiel des activités intellectuelles, dans le sens le plus large du terme. Certains n’y voient que des perroquets stochastiques et, d’un point de vue purement technique, ils n’ont pas tort : un LLM ne fait que produire des tokens aussi plausibles que possible, les uns après les autres, en fonction de paramètres statistiques entraînés sur une base de données. Mais ce qui est remarquable, c’est que ces perroquets soient aussi puissants, versatiles et solides ; les LLM sont très loin de simplement recracher des morceaux de leur base de données. Leur production est originale, cohérente, extrêmement adaptable. Plus étonnant encore, en cherchant à développer des réponses qui approchent au plus celles que produirait une intelligence humaine, ils semblent construire de manière indépendante des modèles interprétatifs et des « raisonnements » similaires à ceux qui sous-tendent notre perception du monde.

Les LLM sont très loin de simplement recracher des morceaux de leur base de données. Leur production est originale, cohérente, extrêmement adaptable.

Raphaël Doan et Antoine Levy

Des tâches comme écrire un texte, rechercher et analyser de l’information quantitative et qualitative, communiquer avec des clients ou des fournisseurs, visualiser des données et identifier des opportunités d’action, résumer une réunion et proposer des mesures en conséquence, améliorer l’aménagement d’un lieu, traduire une conversation, planifier un voyage, sont d’ores et déjà accessibles à GPT-4 et à ses plugins ; quand elles ne le sont pas encore, elles seront automatisées dans les prochaines semaines ou mois, et disponibles sur un téléphone ou un ordinateur via une commande vocale ou textuelle. Aujourd’hui, ChatGPT n’est, malgré son succès fulgurant, qu’une application (web ou mobile) de chatbot optimisée pour le dialogue entre un utilisateur humain et un assistant avec en son coeur un LLM, permettant à des centaines de millions d’utilisateurs d’explorer et d’inventer de nouveaux usages, mais cantonné à une interface spécifique ; demain, la même technologie sera intégrée dans la plupart des recoins de nos vies numériques, dans nos mails (qui proposeront des réponses pré-rédigées), dans les traitements de texte (via des versions extrêmement améliorées des actuels correcteurs automatiques, qui suggèreront des ajouts, des modifications de style, des idées de développement), dans les messageries instantanées, dans les feuilles de calcul, dans les logiciels de présentations (la réalisation de PowerPoint sera entièrement automatisée). 

En outre, il est déjà possible, pour la plupart des tâches du travail numérique quotidien, de concevoir de petits scripts codés par ChatGPT, sans faire appel à un spécialiste, et ainsi d’automatiser une multitude d’actions qui auraient pu l’être auparavant, mais ne l’étaient pas faute de capacités suffisantes de programmation. La production d’outils informatiques nouveaux, qui était l’apanage exclusif de grandes entreprises de logiciels disposant de milliers de programmeurs de haut niveau, sera demain disponible pour chaque entreprise et chaque salarié, sur demande, via la génération de logiciels ultra-personnalisés permettant de remplir un besoin temporaire. Dans un avenir très proche, tout le monde utilisera de l’IA d’une manière ou d’une autre, aussi machinalement que les téléphones mobiles ou Internet.

En d’autres termes, nous commençons à assister à une vague de mécanisation, de massification, et de désintermédiation du travail intellectuel. Ce n’est pas exactement la première fois qu’une telle mécanisation se produit ; après tout, l’invention de l’écriture a automatisé le travail de mémorisation des informations, celle de la calculatrice a automatisé le travail de la pure comptabilité, et, bien sûr, l’informatique a automatisé une grande part du travail de traitement de données. Ces innovations ont profondément changé l’aspect des sociétés humaines. L’arrivée des IA génératives pourrait avoir un effet au moins aussi important sur nos économies, car, comme on l’a vu, elles sont des general purpose technologies qui affectent non pas des tâches intellectuelles bien spécifiques, mais la plupart d’entre elles. Comme les révolutions industrielles successives ont mécanisé le travail manuel dans son ensemble, avec les gains de productivité immenses que l’on sait, il n’est pas interdit d’imaginer des gains de productivité similaires dus aux intelligences artificielles génératives, dans des économies où le travail intellectuel représente désormais une large part de l’activité.

Dans un avenir très proche, tout le monde utilisera de l’IA d’une manière ou d’une autre, aussi machinalement que les téléphones mobiles ou Internet.

Raphaël Doan et Antoine Levy

Cette évolution signifie aussi que l’intelligence ne sera plus nécessairement le premier facteur déterminant de la répartition des revenus, comme elle l’a été depuis environ trois siècles. Il fut un temps où la force ou l’habileté physiques étaient la mesure pertinente de la domination sociale ; la complexification des sociétés puis la mécanisation du monde ont installé l’intelligence — dans toutes ses définitions — à sa place. Aujourd’hui, la corrélation entre quotient intellectuel et niveau de revenu se vérifie à tous les niveaux, seuls les 1 % les plus riches y faisant exception du fait de la part plus importante du hasard dans la détermination des très hauts revenus. Et c’est logique : un bon programmeur, ingénieur, consultant est en mesure de faire jouer la concurrence due à sa rareté, et d’obtenir un salaire intéressant. Mais si, demain, ce même travail est disponible sur demande et pour un coût négligeable, les hiérarchies sociales pourraient être intégralement rebattues. Il est probable qu’il restera toujours une forte demande pour les tout meilleurs professionnels, capables de démultiplier leur productivité grâce à l’IA ; mais les autres feront face à une concurrence nouvelle.

Alors que les révolutions industrielles antérieures ont d’abord affecté le travailleur manuel qualifié, dont la formation était longue, spécialisée et coûteuse et le devenait encore plus en comparaison d’une ligne de montage ou d’une machine-outil, celle que nous allons vivre va toucher en premier le travailleur intellectuel qualifié. La production de travail intellectuel va subir un processus de désintermédiation inédit, avec la disparition des coûts fixes de production d’outils intellectuels. Auparavant, les coûts marginaux de reproduction du travail intellectuel avaient déjà été réduits par les technologies de communication (email, Internet, progiciels), ce qui avait étendu le rayon d’action (spatial et professionnel) des travailleurs les plus qualifiés. La contrainte demeurait celle de l’investissement initial fixe et « indivisible » de ces mêmes individus : sélection des meilleurs potentiels par l’école, formation longue, identification d’opportunités, prise de risque, choix d’un domaine. En quelque sorte, chaque individu qualifié avait vu son rayon d’action et donc sa productivité s’accroître avec la baisse des coûts marginaux, mais parce que leur offre était limitée par ces « coûts fixes », l’ensemble des gains leur bénéficiait directement, sous la forme de salaires élevés et en rapide croissance depuis les années 1980. Mais avec le « on-demand knowledge work », une contrainte fondamentale du marché du travail — le nombre disponible d’heures de travail d’individus intelligents et créatifs — va s’assouplir durablement. Un programmeur, avocat, ou médecin, était une denrée rare et disputée, un fait reflété dans leur rémunération. Que se passe-t-il si leur travail se révèle en fait en grande partie automatisable ? Le travail intellectuel a atteint l’ère de sa reproductibilité technique.

La production de travail intellectuel va subir un processus de désintermédiation inédit, avec la disparition des coûts fixes de production d’outils intellectuels.

Raphaël Doan et Antoine Levy

Vrais et faux risques de l’intelligence artificielle

L’automatisation des tâches intellectuelles n’est, bien sûr, pas sans risques. Toutefois, il nous semble que les véritables menaces ne sont pas les plus évidentes ni les plus discutées. On pourrait même identifier de faux risques de l’IA, allant de certaines inquiétudes en matière de désinformation à la peur d’une super-intelligence se retournant contre l’humanité, qu’il serait une erreur de chercher à combattre, soit parce que ce combat serait une perte de temps et d’énergie, soit parce qu’il serait même contre-productif.

Nombreux sont ainsi ceux qui s’inquiètent d’une possible hausse des inégalités au travail qui serait induite par l’IA. Cette crainte est en partie le fruit d’une analogie avec les évolutions technologiques les plus récentes, comme l’informatique, qui ont bénéficié en premier lieu aux plus qualifiés. Mais les premiers résultats des études sur l’impact des LLM semblent au contraire suggérer qu’ils sont un puissant facteur égalisateur de compétences. En automatisant et en produisant en masse des compétences intellectuelles (analyse de faits et de données, capacité de synthèse, reconnaissance de motifs, écriture fluide,…)  jusqu’alors rares et inégalement distribuées, il semble probable que l’IA produise une réduction drastique des inégalités économiques, mettant à la portée de tous des activités fortement rémunérées aujourd’hui réservées à une élite triée sur le volet. Ainsi, les premiers essais randomisés de mise à disposition de ChatGPT pour des tâches quotidiennes concluent — sans doute possible — parmi des programmeurs, des étudiants du troisième cycle, ou des médecins, à une compression substantielle des résultats mesurés, obtenue via un rattrapage par les plus faibles du niveau atteint par les meilleurs. Alors que le changement technologique, notamment informatique, a jusqu’ici été « biaisé en faveur des plus compétents » (skill-biased), on pourrait presque ici parler de changement technologique dé-biaisé et vecteur de réduction des différences de productivité.

Alors que le changement technologique a jusqu’ici été « biaisé en faveur des plus compétents », on pourrait presque ici parler de changement technologique dé-biaisé et vecteur de réduction des différences de productivité.

Raphaël Doan et Antoine Levy

Intéressons-nous donc à des risques moins discutés mais plus dangereux de cette technologie. Ils sont de deux ordres : ceux qui relèvent de l’utilisation consciente et malveillante de ces outils, soit par leurs développeurs, soit par des acteurs externes, et ceux qui sont intrinsèques à leur déploiement. Les premiers sont faciles à imaginer. Ce sera, dans un premier temps, une aubaine pour les arnaques en ligne. Si les fake news génériques dont nous venons de parler étaient déjà faciles à produire avant l’avènement des IA génératives, ce n’est pas le cas des fake news personnalisées. Écrire sur les réseaux sociaux que la Russie a gagné une bataille en Ukraine alors qu’elle l’a perdue, c’est déjà facile aujourd’hui ; faire croire à quelqu’un que son conjoint est en train de lui demander son numéro de carte bleue, en imitant sa voix et son image, c’est pour l’instant beaucoup plus difficile. Les IA génératives rendent la tâche incomparablement plus simple, et aisée à reproduire à grande échelle. Il s’agira donc de travailler à la fois à l’éducation des individus et à l’authentification des communications — travail qui, sur ce dernier point, a déjà été bien entrepris.

À moyen terme, des acteurs plus puissants pourront se servir de l’IA pour démultiplier leurs capacités d’action. On sait déjà que la fabrication d’armes biochimiques peut être facilitée par l’IA, de même que la reconnaissance faciale ou la génération de code informatique destiné aux cyber-agressions. Groupes terroristes et États hostiles s’en serviront ou s’en servent déjà. Le bon côté de la chose, c’est que l’IA sera également utilisée par les entreprises et les administrations — et même les individus — pour s’en défendre. Nous sommes donc probablement à l’aube d’un nouveau type de course aux armements, au fond classique dans ses mécanismes.

Plus inédits sont les risques liés non pas aux intentions malveillantes d’utilisateurs de l’IA, mais aux conséquences intrinsèques de son adoption par la société, et aux choix politiques qui accompagneront sa massification. Il n’y a pas de raison de penser que l’IA détruira plus d’emploi que les précédentes révolutions industrielles : comme d’autres évolutions, elle réduira la demande de certaines compétences, et libérera du pouvoir d’achat ou du temps disponible pour d’autres. En revanche, une caractéristique propre à la révolution qui nous occupe est sa rapidité. Certes, les institutions sont lentes à adopter les nouvelles technologies, et leur inertie « protège » de changements trop brutaux. Il n’empêche : il y a moins de cinq ans, aucun illustrateur n’aurait imaginé voir son activité concurrencée par un logiciel quasi automatique ; et s’il est probable que les plus adaptables tireront leur épingle du jeu en intégrant les IA génératives dans leur travail quotidien, d’autres auront plus de difficultés. Cela signifie que l’effort de formation devra être rapide, réactif et de grande ampleur, le défi étant que l’avenir de ces technologies reste difficile à prévoir à plus d’un ou deux ans. L’enjeu de la course entre la diffusion de cette technologie et l’adaptation des humains aux nouvelles tâches disponibles semble jusqu’ici sous-estimé, et ce d’autant plus que l’un des premiers secteurs appelés à être révolutionnés par l’IA est précisément celui de l’éducation et de la formation. La capacité des LLM à produire, sur une quasi-infinité de sujets et en partenariat avec une supervision humaine, un enseignement adaptable et évolutif en fonction des performances de l’élève, pourrait être mise à profit pour mener à bien un effort massif de formation continue, à l’image des premiers résultats obtenus par l’application Quizlet, qui a intégré un LLM, Q-Chat, à son processus d’apprentissage personnalisé.

L’enjeu de la course entre la diffusion de cette technologie et l’adaptation des humains aux nouvelles tâches disponibles semble jusqu’ici sous-estimé, et ce d’autant plus que l’un des premiers secteurs appelés à être révolutionnés par l’IA est précisément celui de l’éducation et de la formation.

Raphaël Doan et Antoine Levy

De même, si les inégalités des revenus du travail pourraient se réduire avec la massification de l’accès à l’IA, il n’en ira pas nécessairement de même des revenus du capital, et en particulier du capital intangible, selon les choix faits par les politiques publiques. Qui disposera, par exemple, de la propriété intellectuelle et des rentes associées aux innovations — création artistique, brevets scientifiques, production intellectuelle — générées par une IA ? La révolution du travail intellectuel appellera sans doute avec elle une révolution de l’économie de la propriété intellectuelle, pour définir les conditions d’attribution des droits d’exploitation de la production des intelligences artificielles.

Perspectives de politiques publiques

La première étape, pour les décideurs politiques, est de bien prendre conscience de ce que nous nous apprêtons à vivre : une révolution industrielle rapide et imprévisible. Cela signifie, d’une part, qu’il est impensable de continuer à en parler, comme l’ont fait certains dirigeants, comme d’un simple gadget. Mais aussi qu’il est vain de vouloir, par réflexe, imposer d’emblée une régulation pour se prémunir de technologies dont nous ne distinguons que les prémices. Nous ne savons pas encore quelle forme exactement les IA génératives prendront dans quelques années ; le temps de rédiger une réglementation, la technologie aura trop évolué pour qu’elle soit adaptée. A cet égard, nous devons profiter de la phase actuelle, qui consiste en une expérimentation à grande échelle mais ne constitue pas encore une véritable massification, pour tirer le plus d’enseignements possibles en encourageant les usages les plus divers de l’IA. Mieux vaut tenter de repérer dès maintenant les possibles voies d’adaptation, les failles potentielles, la manière dont individus et entreprises s’en servent, avant de pouvoir rédiger une réglementation intelligente. La seule régulation qui pourrait s’imposer d’emblée n’a rien d’original : c’est de s’assurer que ne s’installe pas un monopole ou un oligopole dans la maîtrise de ces technologies, en permettant aux nouveaux entrants d’accéder au marché. Cela implique de ne pas nécessairement acquiescer aux demandes des leaders actuels de l’IA tendant à instaurer dès maintenant des règles strictes sur la recherche et le développement de nouveaux modèles, car le risque est grand qu’il s’agisse d’une stratégie de capture réglementaire.

La première étape, pour les décideurs politiques, est de bien prendre conscience de ce que nous nous apprêtons à vivre : une révolution industrielle rapide et imprévisible.

Raphaël Doan et Antoine Levy

En revanche, les pouvoirs publics peuvent et doivent dès maintenant expérimenter sur la manière de se servir des IA génératives dans leur propre action. Une large part du travail administratif repose sur la production et le traitement de textes ; il se prête donc particulièrement bien à un effort d’automatisation intellectuelle. L’occupation des hauts fonctionnaires, ainsi que leur formation, repose largement sur l’exercice de la note de synthèse, qui est précisément un travail auquel GPT-4 excelle… Mais ce sont quasiment tous les services au public qui pourraient être repensés pour tirer parti de cette interface en langage naturel. L’un des principaux obstacles à la numérisation des services publics — l’autre étant la sécurité des données — est l’accessibilité ; les LLM peuvent rendre toute communication avec un ordinateur ou un serveur mille fois plus faciles et naturelles. Il faudra veiller à réduire autant que possible le nombre d’hallucinations mais, pour des tâches administratives répétées à grande échelle et donc largement prévisibles, cela n’a rien d’impossible. Contrairement à un agent humain, un LLM administratif peut passer, sans s’impatienter, des centaines d’heures à dialoguer avec l’usager pour régler ses problèmes si c’est nécessaire. Les communications entre administrations pourraient être améliorées de la même manière. La justice pourrait évidemment en profiter, non pour automatiser les décisions de justice, ce sur quoi le débat tourne trop souvent, mais pour accélérer leur instruction et leur rédaction, en synthétisant et en organisant les pièces ainsi qu’en proposant aux juges des manières de rédiger la solution qu’ils auront retenue.

L’autre question que doivent se poser les pouvoirs publics est celle de la souveraineté. Inutile de tomber dans un excès de précaution : il ne serait pas dramatique de se servir d’un modèle de langage open source conçu par une compagnie américaine pour certains usages administratifs en France, tant que les données confidentielles sont effectivement protégées. Mais il va aussi de soi qu’il vaut mieux éviter à des entreprises ou des administrations européennes, dans des secteurs clés, de reposer pour des fonctionnalités fondamentales sur des appels aux API de grands groupes américains fermés.

Contrairement à un agent humain, un LLM administratif peut passer, sans s’impatienter, des centaines d’heures à dialoguer avec l’usager pour régler ses problèmes si c’est nécessaire.

Raphaël Doan et Antoine Levy

Certains se sont ainsi beaucoup lamentés que l’Europe soit en retard et n’ait pas son propre ChatGPT ; c’est en effet un échec, mais plutôt parce que c’est le symptôme des problèmes structurels entravant l’innovation sur le continent à grande échelle que parce que ce serait, en soi, un handicap irrémédiable. Dès aujourd’hui, des modèles de LLM open source, personnalisables, utilisables comme base pour de futurs développement, et déployables dans des environnements sécurisés talonnent les performances des modèles fermés comme ceux de Google ou d’OpenAI. Tenter de développer un EuroGPT « souverain », qui arriverait tardivement, serait probablement trop censuré et n’aurait pas forcément la même performance que les modèles internationaux. Ce serait une perte de temps. Il semble que dans ce domaine, le rattrapage soit beaucoup plus facile que l’extension de la frontière technologique ; c’est une bonne nouvelle pour un continent légèrement en retard.

Pour la France et l’Europe, il pourrait donc être plus judicieux de se focaliser sur l’utilisation des LLM que sur la production des modèles de base. Car là, tout est encore à construire pour les intégrer dans de nouveaux domaines et de nouvelles tâches, avec des interfaces efficaces et accessibles. Imaginons d’emblée quelques applications prometteuses :

  • L’articulation avec la robotique. Les premiers essais d’articulation entre les LLM, la reconnaissance visuelle et la robotique, comme ceux du laboratoire BEHAVIOR de Stanford, sont prometteurs ; ils pourraient à terme permettre au même robot d’effectuer des séries de tâches extrêmement variées, sur la base d’un prompt ou d’un seul exemple vidéo (ranger des chaussettes, visser un boulon, ouvrir une porte, peindre une tôle), ce qui faciliterait considérablement l’équipement des entreprises industrielles ou des ménages en permettant de convertir instantanément un robot d’une tâche à une autre, sans avoir à commander un nouveau robot pour chaque nouvelle tâche.

Il semble que dans ce domaine, le rattrapage soit beaucoup plus facile que l’extension de la frontière technologique ; c’est une bonne nouvelle pour un continent légèrement en retard.

Raphaël Doan et Antoine Levy
  • La révolution de l’éducation. Chaque élève de primaire, de secondaire voire de licence peut avoir accès à un professeur virtuel bon spécialiste de chaque matière, extrêmement pédagogue — GPT-4 brille déjà dans sa capacité à expliquer simplement des sujets complexes. L’inconvénient, c’est qu’un LLM n’a, pour l’instant, aucun moyen de forcer un élève à travailler sérieusement, ni de remplacer l’apprentissage propre au contact avec les autres élèves et avec les professeurs. Il sera intéressant de chercher un moyen de cumuler ces avantages de l’école avec ceux d’un tuteur virtuel personnalisé.
  • La recherche et le développement. Les LLM aideront par exemple non seulement à déceler des corrélations encore inaperçues dans des ensembles de données, à comparer des brevets pour imaginer de nouvelles inventions, à suggérer des champs de recherche inexplorés et prometteurs, mais aussi à adapter et personnaliser à l’infini la communication des résultats scientifiques à des publics bien plus variés, ouvrant la voie à la fertilisation croisée entre disciplines et chercheurs qui ne se parlaient que peu. Il est possible que le développement de cette technologie ruisselle sur toutes les autres.
  • L’accès aux soins. Les LLM récents, du fait de leur immense capacité de mémorisation et de reconnaissance de régularités ou d’anomalies statistiques, sont extrêmement performants en médecine généraliste et permettraient à chacun d’avoir accès un médecin toujours disponible dans sa poche, capable de diagnostiquer en vidéo en temps réel, avec un taux d’erreur inférieur aux généralistes humains. Une question difficile sera celle de la responsabilité en cas de faute, de même que pour les voitures autonomes. Mais cela ne doit pas nous empêcher de le déployer progressivement, de peur de laisser, là encore, ce champ à d’autres concurrents.

Ces quelques pistes n’ont rien d’exhaustif. Le propre des general purpose technologies est justement de pouvoir s’appliquer à presque tous les domaines. Nous serons probablement surpris, à l’avenir, par certaines utilisations des IA génératives — tout comme il était difficile de prévoir l’apparition d’Instagram ou de TikTok aux débuts d’internet. Mais il est crucial de commencer dès maintenant à explorer ces usages pour mieux s’y préparer.

Nous serons probablement surpris, à l’avenir, par certaines utilisations des IA génératives — tout comme il était difficile de prévoir l’apparition d’Instagram ou de TikTok aux débuts d’internet. Mais il est crucial de commencer dès maintenant à explorer ces usages pour mieux s’y préparer.

Raphaël Doan et Antoine Levy

L’un des défauts du débat actuel sur l’intelligence artificielle, surtout dans le milieu intellectuel français, est de trop s’attarder sur la définition de concepts abstraits. On se demande beaucoup si « intelligence artificielle » ne serait pas un oxymore, si la machine « pense » vraiment, si ce que produit un grand modèle de langage peut vraiment être qualifié de « texte ». Un autre écueil du débat, plutôt du côté américain, est de batailler pendant des heures sur les perspectives à très long terme — voire de science-fiction — de ces technologies, en imaginant d’ores et déjà, comme l’a récemment fait OpenAI, des structures de gouvernance pour une superintelligence générale dont nous ne savons pourtant absolument pas, à ce stade, à quoi elle pourrait ressembler ; ou bien en se lamentant sur l’extinction future de l’humanité, exterminée par une IA devenue hostile ou par un dommage collatéral de ses actions. À trop rester sur ces terrains, on manque ce qui devrait le plus nous occuper : les effets concrets sur nos sociétés, immédiats ou à court terme, des intelligences artificielles génératives apparues ces dernières années. Plutôt que de se demander ce que sont les IA, il est sans doute plus important, à court terme, de comprendre ce qu’elles font. Et comme il est pour l’instant certain que l’IA, pour reprendre le mot de Pascal, « ne fait rien qui puisse faire dire qu’elle a de la volonté », c’est à nous de nous en servir dès maintenant pour mieux réaliser nos propres volontés.

Sources
  1. Ainsi d’un article coécrit par les chercheurs d’OpenAI : Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). Gpts are gpts : An early look at the labor market impact potential of large language models. arXiv preprint arXiv:2303.1013