Depuis plusieurs semaines, le monde entier débat — avec angoisse ou optimisme — du succès de ChatGPT et de son développement, et la Chine ne fait pas exception à la règle. Les autorités chinoises ont notamment fait part de leur crainte envers ChatGPT en demandant aux géants technologiques chinois de ne pas proposer ses services « en raison de l’inquiétude de Pékin face aux réponses non censurées » qui « pourraient aider le gouvernement américain à répandre la désinformation et à manipuler les récits mondiaux pour servir ses propres intérêts géopolitiques »1. Ces angoisses se répandent aussi dans les sphères académiques — des auteurs comme Zhou Ting écrivent sur les dangers de l’IA comme « outil de guerre cognitive » dans les conflits mondiaux2.

Toujours est-il que le succès de ChatGPT en Occident a fait que pratiquement toutes les grandes entreprises technologiques chinoises s’intéressent et souhaitent développer leur propre IA de chatbot conversationnel. Le géant technologique Baidu est en train de lancer sa version de ChatGPT, surnommée Ernie Bot (文心一言). Jeudi 16 mars, lors d’une conférence à Pékin, le fondateur de Baidu Li Yanhong a officialisé le lancement du logiciel. Les actions de Baidu ont chuté d’environ 10 % après la conférence, les investisseurs n’ayant pas été convaincu par les compétences linguistiques et mathématiques du logiciel, ainsi que par un lancement en phase d’essai limité à un très faible nombre d’utilisateurs.

Un autre pan de la sphère intellectuelle chinoise ne considère pas ChatGPT comme « l’ennemi », et exprime une forme de fascination que l’on retrouve en Occident — tout en pointant ses limites éthiques et technologiques — pour l’outil. C’est le cas du texte traduit ici3, qui est représentatif de l’équivalent chinois de ce qu’on pourrait lire dans les pages du New York Times ou d’El Pais, bien que le format de cet article soit collectif plutôt qu’individuel. Il est issu d’une table ronde organisée par Xu Jilin (né en 1957), un historien libéral spécialiste des mouvements intellectuels du XXème siècle en Chine, et qui s’intéresse depuis de nombreuses années à la technologie et à la culture en ligne. Les collègues qui l’accompagnent dans cette conversation sont tous professeurs de l’université de East China Normal University à Shanghai.  Il s’agit ici de Jiang Yuhui (姜宇辉), de l’Institut de politique et de relations internationales, Jin Wen (金雯), du Département de chinois et Institut national de la culture chinoise, et Zhang Xiaoyu (张笑宇), du Centre de recherche sur la politique mondiale. Malgré la diversité de leurs opinions, se dégage de cette conversation une convergence de vues assez frappante — dans la droite ligne de ce que décrit Giuliano da Empoli dans le premier épisode de la série « Puissances de l’IA ».

David Ownby

Xu Jilin

Aujourd’hui, nous allons parler de ChatGPT et de l’intelligence artificielle du point de vue de la technologie, de la nature humaine et de l’éthique. Ces dernières semaines, de nombreux experts ont parlé de ChatGPT d’un point de vue technique, mais je pense que l’invention de ChatGPT n’est pas seulement un phénomène technologique, mais aussi culturel, et qu’elle est même étroitement liée à la société, à l’économie et à la politique, de sorte que nous devrions peut-être réfléchir à la manière dont cette percée révolutionnaire de l’intelligence artificielle aura un impact sur l’humanité et les individus d’un point de vue plus large. J’aimerais commencer par demander à Xiaoyu de nous expliquer ce qu’est cette technologie.

Zhang Xiaoyu 

Open AI a récemment lancé une gamme de produits similaires, dont ChatGPT, dont certains sont même plus performants que ChatGPT à divers égards, et j’aimerais utiliser ChatGPT pour parler de la signification progressive que pourrait avoir l’IA récemment apparue et des rôles qu’elle pourrait jouer.

Beaucoup de gens se souviennent probablement qu’il y a quelques années, AlphaGo a battu les meilleurs joueurs de Go du monde l’un après l’autre. À l’époque, AlphaGo avait déjà dépassé les programmes précédents qui ne pouvaient produire des résultats qu’en fonction des algorithmes écrits par les programmeurs. Au lieu de cela, il a été capable d’apprendre et d’évoluer lui-même après avoir pleinement compris les règles de base du jeu de Go. Aujourd’hui, en revanche, le deep learning de l’IA est généralement basé sur la reconnaissance d’images, qui est utilisée pour accomplir diverses tâches. Non seulement elle peut reconnaître des modèles et apprendre, mais elle peut aussi générer de nouveaux contenus, ce qui signifie qu’elle a la capacité de créer.

En termes de capacité de conversation, ChatGPT représente un saut qualitatif par rapport aux « chatbots » du passé. Bien que son algorithme de base n’ait pas encore été révélé, nous pouvons le comprendre sous plusieurs angles. Par exemple, le nom GPT contient G pour « génératif » et P pour « pré-entraîné ».  En fait, ChatGPT n’est pas un chatbot conçu pour générer des réponses en ligne en temps réel, mais il dispose d’un énorme modèle d’entraînement, sur la base duquel il fera des tentatives répétées en ligne pour résoudre le problème qui lui est présenté. Enfin, T signifie « transformateur », qui génère un langage quasi humain grâce à plusieurs couches de transformation.

En termes de capacité de conversation, ChatGPT représente un saut qualitatif par rapport aux « chatbots » du passé.

Zhang Xiaoyu

Une compréhension approximative de la première version de l’algorithme est la suivante : il commence par une lettre et, à l’aide de graphiques vectoriels, prédit la lettre suivante, puis un mot et enfin une phrase. Si nous comprenons comment cela fonctionne, nous pouvons voir que ChatGPT n’apprend pas vraiment à parler comme le font les humains, mais qu’il essaie plutôt de les imiter autant que possible. Ainsi, même s’il parle comme un humain, il ne pense pas comme un humain.

Xu Jilin

Merci, Xiaoyu, pour cette présentation. Passons maintenant à la question des émotions et parlons de l’expérience de l’utilisateur.

Jin Wen

Xiaoyu a dit quelque chose de très important il y a une minute : ChatGPT semble parler un langage humain, mais il pense d’une manière complètement différente de celle des humains. Si les humains et ChatGPT pensent de manière complètement différente, est-il possible qu’ils parlent sur la même longueur d’onde ?

Le langage humain naturel est une sorte de système symbolique qui a évolué sur une longue période grâce aux échanges et à la compréhension entre les hommes, et il possède une certaine qualité arbitraire. Même lorsque les gens parlent, les sentiments ou les idées que nous voulons exprimer ne sont jamais liés de manière transparente au langage. Le langage humain n’est pas non plus complètement naturel et spontané ; il y a toujours un processus de transcription et de traduction interne. En fait, les gens sont souvent frappés par l’impuissance du langage à exprimer leurs pensées ou leurs sentiments les plus profonds. Par exemple, dans la plupart des langues, les expressions directes de la douleur sont rares et se résument à « douleur, douleur intense ou douleur légère », alors que ces expressions ne suffisent pas à rendre compte de la douleur ressentie par les individus.

Si l’on considère toute la gamme des émotions, le langage humain est encore plus fluide. Pour exprimer un sentiment individuel, l’homme utilise souvent une approche métaphorique et détournée. Ainsi, ceux qui utilisent le langage humain de manière créative sont amenés à trouver des façons très intéressantes et uniques d’exprimer une émotion particulière.

C’est pourquoi j’ai imaginé un test pour vérifier si ChatGPT pouvait comprendre les métaphores. L’exemple que j’ai utilisé est la chanson « Treaty » du chanteur américain Leonard Cohen, dans laquelle Cohen dit quelque chose comme : « Tout le monde semble avoir péché, avoir vécu sa vie sans pouvoir se débarrasser de sa culpabilité ; et même s’ils se débarrassent de leur culpabilité, ils restent des personnes imparfaites. » Mais il n’exprime pas ces pensées directement, et a plutôt utilisé une métaphore, en chantant à propos d’un serpent qui se sent mal à l’aise à cause de ses péchés, et qui se débarrasse donc de sa peau, dans l’espoir que cela lui permettra de mettre ses péchés derrière lui.  Pourtant, même après avoir perdu sa peau, le serpent reste faible et son venin continue de pulser dans tout son corps. En d’autres termes, Cohen dit que même si l’on met Dieu derrière soi et avec lui son sentiment de culpabilité, on reste une personne abîmée et la vie est toujours douloureuse.

Si les humains et ChatGPT pensent de manière complètement différente, est-il possible qu’ils parlent sur la même longueur d’onde ?

Jin Wen

Alors, comment ChatGPT a-t-il compris la métaphore ? Il n’a pas compris que le serpent perdait sa peau à cause de ses péchés, mais il a plutôt pensé que c’était parce qu’il avait besoin de transformer sa vie de manière importante, ce qui le rendrait plus fort et plus résistant. Même si ce processus n’est pas forcément heureux, le serpent en tirera des leçons et deviendra plus fort.

Nous pouvons voir ici plusieurs caractéristiques de ChatGPT. Tout d’abord, il ne connaît pas grand-chose au langage humain des allusions ; il ignore la métaphore du serpent dans la Bible, son lien étroit avec le péché originel et le jardin d’Eden. Il ne peut donc qu’élaborer un récit basé sur les faits présentés. Deuxièmement, j’ai été frappé par le fait que ChatGPT est conçu pour être très « positif », et si vous lui parlez d’un point de vue pessimiste, il le comprendra certainement d’une manière positive et essaiera de vous remonter le moral et de vous encourager. Il commence donc par nier la culpabilité du serpent, puis insiste sur le fait que le changement de peau du serpent le rendra meilleur. Troisièmement, puisque ChatGPT ne peut pas comprendre la phrase de manière métaphorique, il ne sait pas que le serpent est une métaphore de l’homme. L’une des raisons est que ChatGPT n’est pas confronté à ce dilemme humain, et l’autre est que la machine n’a pas d’expérience, pas de corps et pas d’interactions sociales, et qu’elle a donc du mal à comprendre le concept de métaphore et la raison pour laquelle les gens utilisent une chose pour parler d’une autre.

À mon avis, tout le monde est constamment créatif dans son utilisation du langage quotidien. Le langage étant tellement « standard », les humains sont incapables de s’exprimer sans cette créativité. Par conséquent, l’utilisation du langage naturel requiert plus de créativité que nous ne le pensons, tandis que ChatGPT, dépourvu de cette créativité, est sans intérêt et ennuyeux. Je doute fortement qu’il devienne un interlocuteur intéressant à l’avenir, et cela pourrait être un obstacle très difficile à surmonter pour les grands modèles de langage.

Xu Jilin 

J’ai moi aussi passé pas mal de temps avec ChatGPT ces deux derniers jours, et j’ai le sentiment que ChatGPT est au premier rang en termes de logique, au deuxième rang en termes de connaissances, et au troisième rang en termes de capacité d’écriture. Je dis que sa logique est de premier ordre parce que son algorithme est si puissant que la conversation est très fluide et qu’il comprend votre langue et votre contexte. Les réponses qu’il propose sont parfois erronées, mais même dans ce cas, sa logique reste claire. Je dis que ses connaissances sont de deuxième ordre parce que sa base de données en anglais est si puissante qu’elle peut répondre à n’importe quelle question ; cependant, elle en sait beaucoup moins sur la Chine et les données qu’elle fournit sont souvent ridicules. Je dis que son écriture est de troisième ordre parce que ses réponses manquent toutes de personnalité. C’est comme un assistant de recherche qui possède les compétences de base adéquates ; son écriture est très standardisée et courtoise, mais elle est impersonnelle et manque de talent littéraire.

C’est comme un assistant de recherche qui possède les compétences de base adéquates ; son écriture est très standardisée et courtoise, mais elle est impersonnelle et manque de talent littéraire.

Xu Jilin

Jiang Yuhui

À ce stade, je n’ai pas l’impression que ChatGPT m’ait beaucoup aidé, mais comparé à l’énorme bulle du métavers, mon jugement sur ChatGPT est très positif. Je pense qu’il apportera finalement une énorme contribution au développement de la connaissance humaine, au développement de l’écriture et au développement de la pensée.

De nombreuses personnes craignent que l’intelligence artificielle ne se développe trop rapidement et que l’homme ne devienne l’esclave de la technologie. Pour moi, ChatGPT ne ressemble pas à un ennemi, mais plutôt à un assistant qui m’aide à effectuer des tâches répétitives et à réfléchir dans le cadre du processus d’apprentissage, de rédaction d’articles et de recherche. Cela inclut la recherche et le classement d’informations, le suivi de la littérature, etc. Grâce à cette aide, les humains ont plus de latitude pour faire preuve de créativité en termes de réflexion et de connaissances.

Bien sûr, beaucoup de mes amis ne sont pas d’accord avec cette idée et pensent que les individus ne peuvent pas s’épanouir intellectuellement sans l’expérience de l’accomplissement de tâches répétitives, telles que l’apprentissage des langues et l’acquisition de connaissances de base. Mais à l’ère de l’intelligence artificielle, les individus n’ont pas besoin de passer beaucoup de temps à effectuer ces tâches répétitives. Ils devraient plutôt se concentrer sur un travail plus créatif. J’ai lu quelque part que ChatGPT allait révolutionner l’éducation en Chine, et même dans le monde entier. Bien qu’il soit communément admis que l’éducation à l’étranger vise à inspirer l’étudiant, alors qu’en Chine tout est basé sur l’apprentissage par cœur, il y a encore beaucoup d’apprentissage mécanique et répétitif dans les systèmes éducatifs partout dans le monde. ChatGPT peut prendre en charge une partie de ce travail intellectuel et linguistique, permettant à l’éducation de se rapprocher de l' »inspiration », en stimulant la créativité et le potentiel de réflexion des gens. Bien sûr, ChatGPT pourrait aussi évoluer vers une sorte d’aliénation. Si ses capacités linguistiques et intellectuelles dépassent largement celles des êtres humains, finira-t-il par imposer une sorte de discipline à l’humanité ou se livrera-t-il à la manipulation ? Va-t-elle priver l’homme de sa liberté dans le domaine de la technologie ?

D’autre part, l’intelligence artificielle a également une grande capacité à analyser, voire à concevoir les émotions humaines. Je passe beaucoup de temps à étudier les jeux vidéo, et dans ce domaine, il existe un terme spécial appelé « ingénierie émotionnelle ». Si un jeu est amusant, c’est parce qu’il manipule les émotions humaines. Dans l’ensemble, je me réjouis de la collaboration entre ChatGPT et les êtres humains, qui permettra de libérer le potentiel des deux parties.

ChatGPT pourrait aussi évoluer vers une sorte d’aliénation. Si ses capacités linguistiques et intellectuelles dépassent largement celles des êtres humains, finira-t-il par imposer une sorte de discipline à l’humanité ou se livrera-t-il à la manipulation ? Va-t-elle priver l’homme de sa liberté dans le domaine de la technologie ?

Jiang Yuhui

Xu Jilin

Yuhui nous offre une perspective intéressante. Un jour, j’ai demandé à ChatGPT : « Pouvez-vous penser comme un être humain ? » Il m’a répondu qu’il ne pouvait pas avoir la conscience autonome et l’expérience subjective des êtres humains, ni être aussi créatif et évaluatif, ni porter des jugements moraux. Bien qu’elle excelle dans certains domaines, elle ne peut pas remplacer complètement la pensée humaine et ne peut qu’assister les êtres humains dans certaines tâches.

Alors, à mesure que l’IA continue d’évoluer, produira-t-elle une sorte de sagesse ? Certaines théories suggèrent que la sagesse s’acquiert par l’expérience, et que cette expérience n’est pas seulement la raison humaine, mais aussi l’émotion et la volonté humaines. Selon le philosophe Michael Polanyi (1891-1976), il existe une sorte de connaissance ambiguë qui est ineffable et ne peut être acquise que par la pratique, comme lorsque nous apprenons à conduire une voiture ou à nager. L’IA sans corps semble être en dehors de ces expériences, et l’IA pourrait bien être incapable d’acquérir de la sagesse comme le font les êtres humains.

Zhang Xiaoyu

Si nous partons de ce point de vue, nous ne posons pas les bonnes questions. L’intelligence artificielle n’a pas besoin d’acquérir une « sagesse ambiguë » comme les humains. La sagesse ambiguë est le résultat des limites des sens et de la capacité de réflexion de l’homme, du fait que nous devons recourir à ce que nous appelons la métaphysique ou la méditation pour comprendre quelque chose. Mais si, avec le soutien d’autres disciplines, l’IA peut parvenir à l’observation directe, à l’analyse et à la compréhension uniquement par la collecte de données, alors elle peut se passer de la « sagesse ambiguë ». Je pense donc que l’IA peut parvenir à la sagesse sans passer par ce que font les humains. 

En outre, si nous éduquons correctement l’IA, elle pourrait être capable de comprendre les métaphores. Elle ne comprendra peut-être pas de quoi vous parlez, mais elle pourra imiter votre langage. Si nous lui apprenons au préalable ce que signifie une certaine métaphore, elle peut utiliser cette métaphore naturellement dans une conversation. En fait, dans un certain sens, les métaphores utilisées dans l’histoire de la littérature et des idées ne sont rien d’autre que des imitations de ceux qui les ont créées. Dans cette perspective, il est inapproprié de nier que l’IA puisse être aussi intelligente que l’homme.

Cela nous ramène à l’expérience de pensée de Descartes, qui proposait le concept de « mauvais génie » : s’il existe des mauvais génies capables de contrôler tous vos sens et de manipuler toutes vos perceptions du monde extérieur, de quoi d’autre pouvez-vous être sûr dans votre esprit ? De même, si l’IA peut être un imitateur omnipotent, même si elle n’a pas d’émotion ou d’intelligence propre et ne peut pas penser comme un humain, elle peut imiter une personne ayant ces capacités. De ce point de vue, qui peut dire que l’IA est moins intelligente que l’homme ? Y a-t-il une raison de mettre en doute l’intelligence de l’IA autre que le fait qu’elle n’a pas d’émotions, qu’elle n’a pas de sagesse ambiguë et qu’elle n’est pas humaine ?

L’IA peut parvenir à la sagesse sans passer par ce que font les humains… Dans cette perspective, il est inapproprié de nier que l’IA puisse être aussi intelligente que l’homme.

Zhang Xiaoyu

Deuxièmement, en termes de fonction sociale et de structure politique, la mesure dans laquelle l’IA peut remplacer les humains ne dépend pas de la limite supérieure de l’algorithme, mais de la limite inférieure de la capacité humaine. Un grand nombre d’emplois en col blanc dans la vie quotidienne sont eux-mêmes constitués d’un travail répétitif nécessitant des interactions très simples. C’est le type de travail que de nombreux jeunes trouvent lorsqu’ils quittent l’école et entrent sur le marché du travail. Pensez aux assistants d’enseignement, aux assistants juridiques, aux assistants rédacteurs. Ils doivent passer par une longue période de formation avant de pouvoir gravir les échelons, mais aujourd’hui, leurs emplois sont facilement remplacés par des algorithmes. Cela pose la question suivante : si l’IA peut remplacer de nombreux emplois de base, cela entraînera-t-il une énorme injustice sociale ? L’involution provoquée par les avancées technologiques et les injustices sociales structurelles conduira-t-elle à l’avenir à une injustice intergénérationnelle ?

Xu Jilin 

J’ai un point de vue différent sur cette question. Lors d’une réunion précédente ici à la East China Normal University, un expert en IA a dit qu’ils avaient découvert au cours du processus de R&D que l’IA était très familière avec les connaissances rationnelles, mais qu’elle avait du mal à maîtriser les connaissances et les compétences possédées par les enfants.  Cela s’explique par le fait que les enfants fonctionnent moins sur la base de la raison que sur celle de l’intuition et de la perception, ce qui fait défaut à l’IA. Le point que Xiaoyu vient de soulever est lié à nos idées préconçues sur les êtres humains : les êtres humains sont considérés comme rationnels, mais ils possèdent également l’illumination et l’intuition. L’illumination et l’intuition sont fondamentales pour la créativité. Dans ce sens, qu’est-ce qu’un être humain ?  Suite aux progrès technologiques, nous réduisons souvent les êtres humains à leur rationalité, mais il s’agit là d’une compréhension très superficielle de la nature humaine. Hume a dit de manière célèbre que la raison n’est qu’un esclave de l’émotion, ce qui signifie qu’il voulait dissiper les mythes que les lumières modernes ont légués à l’homme. Cela nous amène aux limites de l’IA mise en place par Open AI, qui incluent l’absence de contenu émotionnel. Des considérations éthiques et morales entrent également en ligne de compte. Si ChatGPT a sa propre volonté et une richesse d’émotions, alors l’IA deviendra vraiment un nouveau type d’être humain difficile à contrôler pour nous, les personnes en chair et en os.

Si ChatGPT a sa propre volonté et une richesse d’émotions, alors l’IA deviendra vraiment un nouveau type d’être humain difficile à contrôler pour nous, les personnes en chair et en os.

Xu Jilin

Jin Wen

J’aimerais poursuivre le cheminement de Xiaoyu selon lequel le fait ChatGPT peut faire du bon travail en tant qu’assistant, n’éliminera pas nécessairement un grand nombre d’emplois humains et peut même fournir une aide utile à de nombreux travailleurs. Je suis d’accord avec ce point de vue, mais j’ai deux objections. Premièrement, Xiaoyu pense peut-être que les quelques génies humains qui parviennent à se surpasser sont l’espoir de toute l’humanité, mais le seuil inférieur de la plupart d’entre nous est tout simplement trop bas, d’où un sentiment de déception et de pessimisme à l’égard des êtres humains, et donc l’espoir d’un nouveau type d’intelligence.

Xiaoyu a dit il y a quelques minutes que l’illumination et l’ambiguïté sont basées sur les limites humaines. Mais si les êtres humains peuvent éprouver des émotions dont ils sont fiers, c’est précisément parce qu’ils sont dotés d’un corps matériel. Les émotions sont les réponses du corps matériel au monde extérieur. Si nous n’avions pas de corps, nous ne pourrions pas réagir, nous ne serions pas touchés par les changements et nos émotions n’existeraient pas.

Alors, est-ce que le fait d’avoir des émotions est une bonne chose ou non ? Si vous considérez les choses d’un point de vue très négatif, certaines caractéristiques humaines ne méritent tout simplement pas la fierté, mais la raison pour laquelle la civilisation et la société humaines valent encore la peine d’être préservées est que nos meilleures caractéristiques sont également basées sur ces limites. La limite supérieure de l’humanité est basée sur la limite inférieure de l’humanité.

Si l’homme n’avait pas de corps et s’il n’y avait pas de fossé entre l’expérience humaine et le langage, il n’aurait aucune raison de créer un millier de langues différentes. En fait, les civilisations humaines les plus brillantes sont précisément fondées sur les limites humaines. Comme l’exprime Borges dans la nouvelle « L’immortel », l’ultime limite des êtres humains est le fait qu’ils meurent, que leurs corps se décomposent rapidement, mais c’est la raison même de leur grandeur. C’est à cause de la décomposition de leur corps fini que les êtres humains ont un sens du soi, un sens du soi qui leur apporte une grande joie et une grande délectation, mais aussi une grande douleur. Pour faire face à ces grands bouleversements émotionnels, les êtres humains ont créé leur propre civilisation.

Ces civilisations présentent également une faiblesse fatale : elles divisent les gens. ChatGPT, ainsi que les inventions antérieures d’autres outils mécaniques, nous rappellent qu’il existe une tendance naturelle dans la société humaine à allouer plus de temps à l’élite pour ses travaux dits avancés, et à laisser les tâches répétitives et simples aux personnes « sans talent ». Au XVIIIe siècle, cette tendance a évolué vers la théorie de la division du travail : pour que le système de production d’une société soit extrêmement efficace, certaines personnes doivent faire le travail simple et nécessaire, tandis que d’autres se chargent de la coordination, de la gestion et de l’innovation.  L’émergence de ChatGPT ne menace en aucun cas de bouleverser cet ordre, mais plutôt de renforcer la division du travail. ChatGPT renforce donc un mode de pensée très erroné : certaines personnes travaillent sur des choses complexes, tandis que d’autres travaillent sur des choses simples.

ChatGPT, ainsi que les inventions antérieures d’autres outils mécaniques, nous rappellent qu’il existe une tendance naturelle dans la société humaine à allouer plus de temps à l’élite pour ses travaux dits avancés, et à laisser les tâches répétitives et simples aux personnes « sans talent ».

Jin Wen

Ce raisonnement est erroné pour deux raisons. Premièrement, le travail créatif le plus complexe requiert souvent l’intuition la plus simple, et cette intuition nécessite un travail répétitif pour se développer. Si vous n’avez jamais étudié l’espagnol, par exemple, et que vous vous fiez systématiquement à un logiciel de traduction pour traduire l’espagnol en anglais ou en chinois, vous ne serez pas en mesure de comprendre la poésie espagnole ; vous pourrez peut-être saisir le sens général du poème, mais pas le poème lui-même. De la même manière, le type de division du travail produit par l’intelligence artificielle effacerait toute créativité humaine.

Deuxièmement, elle est totalement indéfendable d’un point de vue éthique. Dans un avenir où l’intelligence artificielle participe à la division du travail, nous serons divisés en deux classes : les esclaves et les maîtres. Mais comme les maîtres ne seront pas engagés dans un simple travail répétitif, ils seront incapables de créer quoi que ce soit de nouveau, et ne feront que répéter les mêmes routines. L’inspiration de toute « création », même d’un tableau ou d’un film réalisé par une intelligence artificielle, provient de l’expérience sensorielle matérielle irremplaçable et constamment renouvelée et de l’expérience de la vie sociale des êtres humains, et non de la répétition de routines vulgarisées.

En d’autres termes, le processus de différenciation sociale fait beaucoup de mal à chaque classe : ceux qui pensent appartenir à la classe supérieure voient leur créativité effacée ; ceux qui appartiennent à la classe moyenne ou inférieure sont incapables de développer davantage leur intelligence, parce qu’ils sont limités à un travail répétitif.  D’un point de vue éthique, une division du travail trop extrême créera donc d’énormes divisions dans la société, avec des conséquences tragiques pour toutes les classes. L’émergence de ChatGPT va exacerber cette tendance tragique, mais elle servira aussi d’avertissement pour nous rappeler la crise de la division des humains et des machines en classes.

Pour prendre l’exemple le plus simple, si nous parlons tous les jours à ChatGPT, nous oublierons la limite supérieure du langage naturel. Les gens perdront progressivement la capacité de s’exprimer, ne se comprendront plus, et finalement ne pourront plus interagir avec les autres de manière saine. L’amitié humaine, l’amour et toutes les relations positives se désintégreront et la société humaine s’étiolera littéralement. C’est la plus grande crise que l’on puisse imaginer.

Si nous parlons tous les jours à ChatGPT, nous oublierons la limite supérieure du langage naturel. Les gens perdront progressivement la capacité de s’exprimer, ne se comprendront plus, et finalement ne pourront plus interagir avec les autres de manière saine.

Jin Wen

Zhang Xiaoyu

Je voudrais contester l’analyse de Jin Wen sur la structure sociale et l’histoire. Tout au long de l’histoire, la stratification et la différenciation ont accompagné le progrès humain. Nous ne devrions pas nier la rationalité de la stratification, mais nous établissons plutôt des distinctions entre ceux qui méritent de profiter de cette structure et ceux qui ne le méritent pas. Par exemple, Watt a inventé la machine à vapeur, Newton a découvert les lois de la physique et Yuan Longping a inventé le riz hybride, et ils méritent tous d’être récompensés. Mais dans le processus de progrès social, il est déraisonnable que certaines classes supérieures recourent à la violence pour s’emparer de ce qu’elles veulent et utilisent un pouvoir politique injuste pour exploiter le plus grand nombre, empêchant les autres de réaliser leur potentiel.

Si l’on fait abstraction de la technologie, la structure de la société humaine est déjà très injuste ; il n’est pas nécessaire de rejeter toute la responsabilité sur la technologie, mais plutôt d’affronter courageusement ces injustices, car ce sont les personnes à l’origine de ces injustices qui sont l’objet de notre révolution. Au lieu de diriger notre colère contre les machines, comme l’a fait le mouvement luddite pendant la révolution industrielle, nous devrions voir que les injustices sociales sont au départ causées par des structures sociales injustes. En comprenant cela, nous verrons que, tout au long de l’histoire de l’humanité, les forces technologiques ont souvent été nos alliées, et non nos ennemies, pour nous aider à renverser les structures sociales irrationnelles. Nous devons nous rendre compte que les structures sociales sont déjà injustes, qu’il y a trop de bêtises sur la société qui tournent autour des dirigeants, et que c’est ce qui fait que les humains deviennent de plus en plus des machines. Nous devons aller de l’avant et briser ces injustices sociales, et ce n’est qu’alors que chacun pourra devenir ce qu’il était censé être à l’origine.

Jiang Yuhui

Tout au long de l’histoire, la technologie a été une épée à double tranchant, y compris ChatGPT. Jin Wen pense qu’elle représente une menace pour la vraie bonté et la beauté de la nature humaine ; Xiaoyu y voit plutôt une possibilité de libération. Au stade de l’émergence de l’IA, nous devrions essayer de la faire évoluer dans une meilleure direction au lieu de l’attaquer verbalement. Ma position a toujours été que les scientifiques créent des technologies pour le bénéfice de l’humanité. Peut-être qu’à ce stade, les chercheurs en sciences humaines peuvent unir leurs forces à celles des chercheurs en technologie pour empêcher ChatGPT de prendre une mauvaise direction.

En outre, je ne pense pas que seules quelques personnes profiteront des avantages de ChatGPT. Au contraire, lorsque ChatGPT prendra en charge des tâches répétitives en termes de langage humain, de connaissances et de pensée, tout le monde devrait pouvoir développer son propre potentiel. Mais cela présuppose que la société offre des opportunités à chacun. L’évolution de la technologie doit être intégrée à l’évolution de la société. La technologie ne peut pas résoudre tous les problèmes, et l’humanité doit s’activer de manière à compléter le développement de la technologie, en rendant la société plus égalitaire.

Les machines sont peut-être mieux équipées pour créer une plateforme égalitaire sur laquelle les gens peuvent également réaliser leur potentiel individuel.

Jiang Yuhui

Après l’émergence de l’IA, la société pourrait en effet devenir plus égalitaire, car l’IA ne fait pas de discrimination comme le font les humains — sur la base de la race, du sexe, de la géographie ou même de la richesse — ce n’est pas ainsi que l’IA pense. De ce point de vue, les machines sont peut-être mieux équipées pour créer une plateforme égalitaire sur laquelle les gens peuvent également réaliser leur potentiel individuel.

Cependant, j’ai également remarqué un terme appelé « effet de bocal », créé par un universitaire étranger qui critique le Metaverse. Son argument est que toutes les masses sont dans le bocal et que, de l’intérieur, elles pensent qu’elles sont libres de nager où elles veulent ; mais en fait, ce sont les quelques élites technologiques qui se trouvent à l’extérieur du bocal qui votent les lois et les contrôlent. Par conséquent, nombreux sont ceux qui pensent que l’IA créera la plus grande inégalité jamais vue dans l’histoire de l’humanité, une inégalité fondée sur l’intelligence. Si une personne est plus intelligente que vous, si elle pense mieux que vous, elle pourra vous écraser sous son pied. Pourtant, je crois personnellement que ChatGPT peut libérer les humains des lourdes exigences du travail. Et je crois aussi que si on en donne l’occasion à tout le monde, tout le monde peut devenir créateur à un très haut niveau ; ce sont les positions institutionnalisées et le travail répétitif de la société moderne qui ne laissent aucune place à la réalisation de leur potentiel.

Je voudrais également conclure par une vision : les grandes réalisations de la civilisation dans l’histoire de l’humanité demeureront, mais la prochaine vague de création ne sera peut-être pas réalisée par les humains à l’aide du langage, des symboles et de la tradition. Au contraire, la prochaine vague de création sera le produit de la collaboration entre l’homme et la machine, les machines étant une source d’inspiration et de motivation pour l’humanité.

Xu Jilin 

La vision de Yuhui me rappelle l’imagination romantique de Greg Brockman, cofondateur d’Open AI. Il a suggéré un jour que l’IA et les robots intelligents remplaceraient tous les emplois et que le coût de la main-d’œuvre de la société serait nul à l’avenir. À l’avenir, tous les individus n’auront besoin que d’un revenu de base et pourront alors devenir des personnes libres, ce qui pourrait briser le statu quo de l’inégalité capitaliste d’aujourd’hui.

Chaque progrès technologique s’accompagnera d’un recul ailleurs. L’optimisme extrême est à éviter, et le pessimisme extrême n’est pas non plus utile, car les êtres humains, au cours de l’histoire, se sont toujours développés malgré les contradictions, et la situation difficile de l’humanité reste éternelle.

Xu Jilin

Mais je crains que cette vision ne soit une nouvelle utopie, du moins pour l’instant. Car derrière les entreprises qui développent l’intelligence artificielle et les soutiennent se trouvent les géants de l’Internet. Ces géants de l’Internet étaient présents à la naissance de l’Internet, et à l’époque, ils pensaient qu’une ère d’anarchie au sens propre du terme était sur le point de s’ouvrir, chacun ayant enfin des droits d’expression égaux. Mais après de nombreuses itérations de l’internet, la société est devenue plus inégale. Les ressources mondiales, les richesses, les technologies et les talents sont de plus en plus concentrés dans les pays et les entreprises en tête de liste. Dans le monde réel, chaque avancée technologique est poussée par le capital, dans un jeu où tout le monde gagne. Toutes les ressources, tous les talents et toutes les technologies sont concentrés entre les mains de quelques oligarques.

Une utopie de liberté et d’égalité nous attend-elle à l’avenir ? La société va-t-elle se fragmenter davantage, produisant un nouvel ordre hiérarchique ? Face à ces questions, il y a des choses auxquelles on peut réfléchir et d’autres qu’il faut attendre. Dans ce contexte, je crois en la théorie de Zhang Taiyan 章太炎 (1869-1936) exprimée dans son ouvrage Séparer l’Universel et le Particulier en évolution, écrit à la fin de la dynastie Qing : il pense que le bien et le mal progressent, le mal ayant une longueur d’avance sur le bien. Chaque progrès technologique s’accompagnera d’un recul ailleurs. L’optimisme extrême est à éviter, et le pessimisme extrême n’est pas non plus utile, car les êtres humains, au cours de l’histoire, se sont toujours développés malgré les contradictions, et la situation difficile de l’humanité reste éternelle.

Sources
  1. Cissy Zhou, China tells big tech companies not to offer ChatGPT services, Nikkei Asia, 22 février 2023.
  2. Zhou Ting, 生成式人工智能的国际传播能力及潜在治理风险, 23 février 2022.
  3. 许纪霖, « 对谈|ChatGPT:是新世界的诞生,还是人类末日的开始? » posté sur le fil WeChat de Xu Jilin le 27 février 2023.