Dans The End of Education, l’enseignant et critique américain des technologies Neil Postman affirme que l’école est confrontée à deux problèmes qui doivent être résolus : « l’un est un problème d’ingénierie, l’autre est métaphysique ». Cette dualité oppose les moyens aux fins. L’enseignement porte-t-il sur les processus techniques par lesquels les élèves peuvent devenir des travailleurs, des exécutants et des « leaders » plus efficaces ? Ou bien s’agit-il d’en apprendre davantage sur quel type de vie l’on devrait mener, plutôt que de chercher à savoir comment on devrait la gagner ?

C’est dans ce contexte que ChatGPT a fait irruption dans les salles de classe du monde entier. Il est rapidement adopté — souvent sans que les élèves ne le comprennent vraiment — comme outil de recherche et d’écriture. Sa grande promesse est de stimuler la productivité et l’efficacité, deux concepts d’une importance quasi mystique dans l’université néolibérale moderne ; mais son adoption rapide pose une myriade de problèmes aux professeurs, dont le moindre n’est pas la confiance que l’on peut accorder aux devoirs rendus par les étudiants. S’attaquer à ChatGPT et à son rôle dans la salle de classe, c’est aussi s’attaquer à la question de l’objectif de l’éducation : quels sont ses moyens et quelles sont ses fins ?

S’attaquer à ChatGPT et à son rôle dans la salle de classe, c’est aussi s’attaquer à la question de l’objectif de l’éducation : quels sont ses moyens et quelles sont ses fins ?

C.W. howell

Il y a deux façons évidentes de traiter cette question : 1) essayer de l’interdire complètement, ou 2) essayer de l’intégrer dans le programme d’études de manière responsable. J’ai d’abord essayé de l’interdire, mais cela n’a pas fonctionné. J’ai donc improvisé en créant un devoir destiné à enseigner aux élèves comment utiliser (et ne pas utiliser) ChatGPT. Mais l’une ou l’autre de ces réponses soulève des questions essentielles, non seulement sur la manière d’utiliser l’IA en classe, mais aussi sur la finalité de l’université.

Bannir ChatGPT de la salle de classe

Mon premier réflexe a été de bannir purement et simplement ChatGPT de la salle de classe, persuadé qu’un recours excessif à cette technologie nuirait au développement cognitif de mes élèves en les acclimatant à une technologie dont ils ignorent qu’elle peut être inexacte et trompeuse. Je pensais, et je pense toujours, que cela pourrait interférer avec l’objectif de l’éducation, en particulier des sciences humaines, qui est de cultiver et d’étudier l’humanité. C’est la raison pour laquelle nous lisons des livres difficiles, écrivons des essais sur des sujets obscurs et examinons des questions abstraites et difficiles sur l’éthique et la société. Pour ceux d’entre nous qui croient vraiment à la valeur d’une formation en sciences humaines tout au long de la vie, interdire les technologies qui entravent ce développement critique est une évidence.

Le problème se pose lorsque les étudiants essaient de contourner les règles et d’utiliser l’IA pour rédiger leurs travaux. Le semestre dernier, dans le cadre de mes cours d’études religieuses à l’université Elon, une université privée de Caroline du Nord, j’ai surpris plusieurs étudiants en train de faire cela 1. Ignorant apparemment que ChatGPT pouvait se tromper, quelques étudiants ont rendu des travaux contenant des informations fabulées et de fausses sources. Il a été assez facile de les attraper, mais ce sera probablement de plus en plus difficile à l’avenir, d’autant plus que les détecteurs d’IA ne sont pas toujours fiables 2.

Alors, comment affronter cette situation ? Les professeurs ne pourraient demander que des devoirs en classe, écrits à la main ; les ordinateurs portables ou les téléphones ne seraient pas autorisés. Les examens oraux pourraient faire leur retour pour les évaluations de fin d’année. Une méthode plus créative pourrait consister à imposer l’utilisation de Google Docs avec l’autorisation de consulter l’historique des fichiers, afin que les professeurs puissent voir si les étudiants ont simplement copié et collé un texte généré par l’IA.

Après tout, pourquoi devrions-nous interdire ChatGPT ? Certains ont affirmé qu’il s’agissait simplement d’un outil — quelque chose comme une calculatrice, « mais pour l’écriture ».

C.W. howell

Mais ces approches posent de nombreux problèmes. L’un d’eux est le temps considérable que cela représente pour chaque enseignant. Vérifier les sources prend déjà beaucoup de temps, mais imaginez qu’il faille en plus vérifier l’historique des versions de chaque essai ! Ajoutez à cela la difficulté de lire des rédactions manuscrites à une époque numérique où la calligraphie est moribonde, et la charge de travail, même pour un simple devoir, devient incontrôlable. En outre, la plupart des professeurs ont trop d’étudiants pour organiser des examens oraux de manière raisonnable. Cela pourrait fonctionner dans le cadre du système de tutorat de l’université d’Oxford, mais cela ne fonctionnerait pas dans une université d’État américaine de type Big Tech ; sans parler du fait qu’avec le recours croissant à des professeurs précaires dans l’enseignement supérieur 3, la charge de ce contrôle supplémentaire pèsera de manière disproportionnée sur des employés déjà sous-payés et surchargés de travail (je ne le sais que trop bien — étant moi-même professeur associé).

Au-delà de tout cela, il y a la question plus importante de l’objectif de l’éducation. Après tout, pourquoi devrions-nous interdire ChatGPT ? Certains ont affirmé qu’il s’agissait simplement d’un outil — quelque chose comme une calculatrice, « mais pour l’écriture » 4. L’interdire, selon ce point de vue, ne ferait qu’entraver les étudiants qui ont besoin de comprendre le fonctionnement de cette technologie pour être compétitifs sur le marché du travail. Si l’objectif de l’école est de « gagner sa vie », l’interdiction des technologies extérieures pénaliserait injustement les élèves qui ont besoin d’apprendre à les utiliser pour trouver un emploi et rembourser les dettes que leur éducation leur a noblement léguées. C’est du moins ce que croient la plupart des étudiants et la plupart des administrateurs. Et, pour revenir à l’argument de Postman, il est possible que le simple fait de restreindre les moyens utilisés par les étudiants pour apprendre ne règle pas la question plus importante des fins. Si les étudiants pensent que l’éducation est destinée à la formation professionnelle, l’interdiction des nouvelles technologies ne fera qu’engendrer du ressentiment et de la frustration. Nous devons réfléchir à la situation dans son ensemble, et ce n’est qu’alors que la question des objectifs sera suffisamment traitée — ce qui nous permettra ensuite de revenir à la question des moyens, et à ce que la technologie devrait ou ne devrait pas faire en classe.

L’interdiction de la technologie ne s’étant pas avérée utile, j’ai tenté une approche différente plus tard dans le semestre. Ironiquement, ce faisant, j’ai mieux réussi à convaincre mes étudiants de l’importance des sciences humaines.

Enseigner avec, et non contre, l’intelligence artificielle

Lorsque j’ai pris conscience que mes étudiants utilisaient ChatGPT sans le comprendre, j’ai décidé de créer un nouveau devoir pour leur apprendre ce qu’il fait. J’espérais qu’en apprenant à mieux le connaître, ils seraient moins enclins à l’utiliser de manière excessive. Il est facile d’oublier à quel point tout cela est neuf La plupart de mes élèves n’avaient même pas eu l’occasion d’interagir avec une IA avant le mois d’avril, lorsque Snapchat a lancé la sienne (ce qui a agacé beaucoup d’entre eux 5).

Des étudiants se sont demandés pourquoi l’IA était commercialisée avec autant d’insistance si elle présentait des défauts aussi évidents.

C.W. Howell

Mon travail consistait à demander à chaque élève de générer via ChatGPT son propre essai, à partir d’un texte que je leur donnais. Les instructions étaient assez longues et compliquées, mais l’essentiel était que chaque élève puisse ensuite noter la rédaction originale que lui donnait le logiciel ; il leur était ensuite demandé de laisser cinq commentaires sur l’essai, décrivant les forces et les faiblesses de l’essai, puis de répondre à un questionnaire sur ce qu’ils avaient appris. Le point central, pour moi, était de leur demander de chercher si ChatGPT avait halluciné des sources, c’est-à-dire fabriqué des livres, des articles, des auteurs ou même des citations qui n’étaient pas réels. À ma grande surprise, chacun des 63 essais contenait de fausses informations.

Mes étudiants ont été choqués. La plupart d’entre eux ont écrit dans leurs commentaires qu’ils n’imaginaient pas qu’une IA puisse se tromper. Certains pensaient qu’elle était « omnisciente » et ne pouvaient pas croire qu’elle soit à ce point sujette aux erreurs. D’autres se sont demandés pourquoi l’IA était commercialisée avec autant d’insistance si elle présentait des défauts aussi évidents. Beaucoup ont déclaré qu’ils seraient moins enclins à se fier à cette technologie pour leurs devoirs une fois qu’ils auraient pris conscience qu’elle n’était pas un oracle infaillible.

L’ironie de la chose, c’est qu’en utilisant la technologie en classe, mes élèves ont pris du recul et ont réfléchi au sens et à l’objectif de l’éducation. Le fait de démontrer que le moyen — l’utilisation de la technologie comme raccourci pour la rédaction d’une dissertation — n’était pas aussi efficace qu’ils le pensaient, a soulevé de nouvelles questions sur la fin de leur éducation, et en particulier sur la rédaction d’une dissertation. De nombreux étudiants ont déclaré avoir davantage confiance en leurs propres capacités — après tout, comme certains l’ont dit, ils pouvaient faire mieux que cela ! Et si l’on adoptait cette technologie sans esprit critique, écrivent beaucoup d’entre eux, cela pourrait facilement conduire à une homogénéisation de la pensée. Sans compter qu’en prenant ChatGPT pour argent comptant, on risquait d’apprendre des informations erronées. J’ai été particulièrement satisfait de voir certains étudiants commencer à réfléchir à ce que signifie être humain — et à ce qui rend l’humanité spéciale — à l’ère des machines.

J’ai été particulièrement satisfait de voir certains étudiants commencer à réfléchir à ce que signifie être humain — et à ce qui rend l’humanité spéciale — à l’ère des machines.

C.W. Howell

Cela dit, cette approche présente aussi des inconvénients. S’ils le souhaitent, les élèves pourront aussi apprendre de cet exercice comment tricher plus efficacement. En outre, bien que ce travail ait réussi à orienter ma classe vers les questions classiques des sciences humaines sur l’être, le sens et le but, dans quelle mesure une telle position solitaire et isolée peut-elle être efficace face à la vague de déshumanisation technologique ? Contre la conception axiomatique selon laquelle l’éducation ne sert à rien d’autre qu’à « obtenir un emploi » ?

Pourquoi sommes-nous ici ?

Chaque semestre, je pose cette question à mes étudiants : « Pourquoi sommes-nous ici ? À quoi sert l’université ? »

Les réponses sont invariablement : trouver un emploi, apprendre à gagner de l’argent, ou — comme l’a dit un étudiant de façon plus inquiétante — « survivre ». Ce n’est qu’après une dizaine de réponses que l’un d’entre eux, penaud, propose : « apprendre ».

Ce n’est pas nouveau. Dans son dialogue Anti-éducation, le jeune Friedrich Nietzsche faisait dire à l’un de ses personnages qu’il y avait une opposition entre « les institutions d’éducation et les institutions de lutte pour la survie. Tout ce qui existe aujourd’hui appartient à cette dernière catégorie ». Mes étudiants seraient-ils d’accord ? Le consensus général semble donc être que l’emploi et la formation professionnelle sont la finalité de l’existence des universités. Nietzsche a conclu cela il y a deux cents ans, en écrivant : « Nous avons ici l’utilité comme but et finalité de l’éducation, ou plus précisément le Gain : le revenu le plus élevé possible ». Postman a abondé dans ce sens en écrivant que le « Dieu » actuel de l’éducation est celui de l’utilité économique : « Son idée maîtresse est que le but de l’éducation est de préparer les enfants à entrer avec compétence dans la vie économique de la communauté ». D’après mon expérience, cette idée est si répandue que les élèves ne pensent même plus à la remettre en question.

Certains résistent. Johann Neem, par exemple, soutient dans What is the Point of College que nous devons retrouver l’objectif principal de l’enseignement supérieur, qui est de stimuler la recherche intellectuelle et le jugement rationnel, ce qui, en fin de compte, aiderait de toute façon les étudiants sur le marché du travail, parce qu’ils seraient capables de s’adapter à des situations nouvelles. William Deresiewicz a présenté des arguments similaires dans son livre Excellent Sheep, qui, bien qu’il porte sur l’Ivy League, est applicable presque partout. Mais ces essais ressemblent au mieux à des combats d’arrière-garde. S’il ne s’agit certes pas de véritables retraites devant l’hégémonie de l’Utilité économique, elles ne sont guère plus que des « avancées vers l’arrière » (pour reprendre la boutade de Chesty Puller à propos de sa retraite brutale pendant la guerre de Corée).

Le problème est que si le « Dieu » de l’utilité économique reste le souverain de l’éducation, l’IA ne fera qu’exacerber le problème. 

C.W. HOwell

Le problème est que si le « Dieu » de l’utilité économique reste le souverain de l’éducation, l’IA ne fera qu’exacerber le problème. Ses partisans les plus enthousiastes l’y aideront même. Dans AI 2041, les auteurs Kai-Fu Lee et Chen Quifan défendent une vision de l’avenir de l’IA qui n’est pas aussi dystopique ou effrayante que celle qui prévaut actuellement. Ils cherchent plutôt à décrire « un avenir dans lequel nous aimerions vivre et que nous aimerions façonner ». 

Cet objectif avoué rend en vérité leur vision de l’IA et de l’éducation encore plus cauchemardesque. Dans la nouvelle « Twin Sparrows », ils décrivent une école dans laquelle chaque élève dispose d’une plateforme personnelle de traitement du langage naturel (peut-être basée sur quelque chose comme GPT-4) qui adapte ses cours à ses préférences et à ses besoins individuels. La quasi-totalité de l’éducation des élèves est filtrée par un assistant numérique omniscient et ami, capable de rendre les choses « ennuyeuses » intéressantes en transformant chaque sujet sous une forme qui pourrait plaire à l’élève, comme une leçon d’histoire donnée par son personnage de dessin animé préféré. 

L’enseignant s’efface ainsi dans l’arrière-plan. Pressentant peut-être que cela éliminerait une relation humaine cruciale, les auteurs observent dans un commentaire sur l’histoire que « les enseignants humains auront encore beaucoup à faire », notamment « être des mentors et des connecteurs humains pour les élèves ». Ils pourront également se concentrer sur le développement de « l’intelligence émotionnelle, la créativité, le caractère, les valeurs et la résilience des élèves ». Dans ce grand et glorieux avenir, l’enseignant sera finalement relégué au rôle de coach de vie et de baby-sitter. Pensez, après tout, à l’argent que cela permettrait d’économiser.

Dans ce grand et glorieux avenir, l’enseignant sera finalement relégué au rôle de coach de vie et de baby-sitter. Pensez, après tout, à l’argent que cela permettrait d’économiser.

C.W. Howell

La mise en œuvre de l’IA de cette manière serait certainement fatale pour les enseignants et les élèves. Comme le souligne Postman, l’éducation est fondamentalement une entreprise communautaire. « Il ne peut y avoir de vie communautaire démocratique si les gens n’ont pas appris à participer de manière disciplinée au sein d’un groupe », écrit-il. « On pourrait même dire que les écoles n’ont jamais été essentiellement axées sur l’apprentissage individualisé ». L’adoption irréfléchie d’une technologie individualisée qui transforme l’éducation en une activité solitaire signifie que la fin de l’éducation serait en fait l’utilité économique. C’est l’aboutissement logique de la vision de chaque être humain comme un consommateur rationnel, un être mécanique dont l’existence atomique est orientée autour de ses préférences individuelles de chacun. Un tel cloisonnement intellectuel et émotionnel inverserait la célèbre phrase de John Donne : désormais, chaque être humain est une île.

Cette vision de l’éducation a du sens si le but de l’université est de « trouver un emploi », mais elle n’en a aucun pour tout ce qui prétend à davantage. Compte tenu de l’ampleur de cette notion, je ne suis pas particulièrement optimiste quant à l’avenir. Pour aborder correctement l’IA en classe, il faut également se pencher sur ces autres questions plus importantes. Nous pouvons discuter des moyens toute la journée, mais tant qu’il n’y aura pas d’accord sur la raison d’être de l’enseignement supérieur, peu de progrès réels pourront être accomplis.

Un tel cloisonnement intellectuel et émotionnel inverserait la célèbre phrase de John Donne : désormais, chaque être humain est une île.

C.W. HOwell

À court terme, ceux d’entre nous qui sont encore dans les tranchées peuvent essayer d’intégrer l’IA dans leurs cours de la manière décrite ci-dessus, dans l’espoir que cela puisse à la fois éduquer les étudiants sur ses utilisations et ses pièges, tout en l’utilisant comme un tremplin pour parler de la situation dans son ensemble. Mais il ne s’agit pas d’une solution à long terme. En s’attaquant à l’IA, les éducateurs du monde entier seront contraints de s’attaquer au problème des moyens et des fins, et de trouver des solutions à ce problème. J’espère que l’IA contribuera à stimuler la réflexion philosophique sur la finalité de l’école, au-delà de l’emploi et de la formation professionnelle. Mais je crains qu’elle ne finisse par transformer l’ensemble de l’éducation en un moyen sans fin, poursuivant ainsi la trajectoire sur laquelle elle est déjà engagée.

Sources
  1. C. W. Howell, « Don’t Want Students to Rely on ChatGPT ? Have Them Use It », Wired, 6 juin 2023.
  2. Liam Knox, « Can Turnitin Cure Higher Ed’s AI Fever ? », IHE, 3 avril 2023.
  3. Steven Mintz, « The Adjunctification of Gen Ed », IHE, 11 janvier 2021.
  4. Pia Ceres, « ChatGPT Is Coming for Classrooms. Don’t Panic », Wired, 26 janvier 2023.
  5. Samantha Murphy Kelly, « Snapchat’s new AI chatbot is already raising alarms among teens and parents », CNN Business, 27 avril 2023.