En El fin de la educación, el profesor y crítico tecnológico estadounidense Neil Postman sostiene que las escuelas se enfrentan a dos problemas que hay que resolver: «uno es un problema de ingeniería, el otro es metafísico». Esta dualidad opone los medios a los fines. ¿Se trata de enseñar los procesos técnicos gracias a los cuales los alumnos pueden convertirse en trabajadores, actores y «líderes» más eficaces? ¿O se trata más bien de aprender qué tipo de vida debemos llevar, en lugar de lograr saber cómo debemos ganárnosla?
Este es el contexto en el que ChatGPT irrumpió en las aulas de todo el mundo. Se está adoptando rápidamente, a menudo sin que los alumnos lo entiendan de verdad, como herramienta de investigación y escritura. Su gran promesa es aumentar la productividad y la eficacia, dos conceptos de importancia casi mística en la universidad neoliberal moderna; pero su rápida adopción plantea un sinfín de problemas a los profesores, entre ellos, la confianza que se puede tener en las tareas entregadas por los estudiantes. Tratar el ChatGPT y su papel en las aulas significa también tratar la cuestión de la finalidad de la educación: ¿cuáles son sus medios y cuáles sus fines?
Hay dos formas obvias de tratar esta cuestión: 1) intentar prohibirlo por completo o 2) intentar integrarlo en el plan de estudios de forma responsable. Primero intenté prohibirlo, pero no funcionó. Así que improvisé creando una tarea diseñada para enseñar a los alumnos a usar (y no usar) ChatGPT. Pero cualquiera de las dos respuestas plantea cuestionamientos esenciales, no sólo sobre cómo utilizar la IA en el aula, sino también sobre el propósito de la universidad.
Prohibir el ChatGPT en las aulas
Mi primer instinto fue prohibir por completo el uso de ChatGPT en el aula, convencido de que un uso excesivo de tal tecnología dañaría el desarrollo cognitivo de mis alumnos al aclimatarlos a una tecnología que no saben que puede ser imprecisa y engañosa. Pensaba, y sigo pensando, que esto podría interferir con el propósito de la educación, en particular de las humanidades, que es cultivar y estudiar la humanidad. Esa es la razón por la que leemos libros difíciles, escribimos ensayos sobre temas oscuros y estudiamos cuestiones abstractas y arduas sobre ética y sociedad. Para quienes creemos de verdad en el valor del aprendizaje permanente en humanidades y ciencias sociales, prohibir las tecnologías que impiden este desarrollo crítico es una obviedad.
El problema surge cuando los estudiantes intentan saltarse las normas y utilizan la IA para redactar sus trabajos. El semestre pasado, como parte de mis cursos sobre estudios religiosos en la Universidad de Elon, una universidad privada de Carolina del Norte, sorprendí a varios estudiantes haciendo precisamente eso 1. Aparentemente inconscientes de que ChatGPT podía ser erróneo, algunos estudiantes entregaron trabajos que contenían información inventada o de fuentes falsas. Fue bastante fácil descubrirlos, pero probablemente será cada vez más difícil en el futuro, sobre todo porque los detectores de IA no siempre son confiables 2.
Entonces, ¿cómo enfrentar esta situación? Los profesores sólo podrían pedir trabajos escritos a mano en clase; las computadoras y los teléfonos no estarían permitidos. Los exámenes orales podrían volver a utilizarse para las evaluaciones de fin de curso. Un enfoque más creativo podría ser imponer el uso de Google Docs con la autorización para ver el historial de archivos, de modo que los profesores puedan ver si los alumnos se han limitado a copiar y pegar un texto generado por IA.
Pero esos enfoques plantean una serie de problemas. Uno de ellos es la gran cantidad de tiempo que representa para cada profesor. Si de por sí comprobar las fuentes ya lleva mucho tiempo, ¡imagínense tener que comprobar además el historial de versiones de cada ensayo! Si a eso le añadimos la dificultad de leer redacciones escritas a mano en una era digital en la que la caligrafía está muriendo, la carga de trabajo, incluso para una tarea sencilla, se nos iría de las manos. Además, la mayoría de los profesores ya tienen demasiados alumnos como para organizar exámenes orales de forma razonable. Esto podría funcionar en el marco del sistema tutorial de Oxford, pero no funcionaría en una universidad estatal estadounidense al estilo Big Tech, por no mencionar el hecho de que, con el creciente uso de profesorado temporal en la enseñanza superior 3, la carga de esta revisión adicional recaería desproporcionadamente en un personal ya mal pagado y sobrecargado de trabajo (lo sé de buena mano, siendo yo mismo profesor adjunto).
Más allá de todo esto, está la cuestión aún más importante de la finalidad de la educación. Después de todo, ¿por qué deberíamos prohibir el ChatGPT? Algunos han argumentado que es simplemente una herramienta, algo así como una calculadora «pero para escribir» 4. Prohibirlo, según esta opinión, sólo supondría un obstáculo para los estudiantes que necesitan entender cómo funciona esta tecnología para ser competitivos en el mercado laboral. Si el objetivo de la escuela es «ganarse la vida», prohibir las tecnologías externas castigaría injustamente a los estudiantes que necesitan aprender a utilizarlas para encontrar un empleo y pagar las deudas que su educación les ha dejado “dignamente”. Al menos eso es lo que creen la mayoría de los estudiantes y la mayoría de los administradores. Y, volviendo al punto de Postman, limitarse a restringir los medios por los cuales los estudiantes aprenden puede no resuelta la cuestión más importante de los fines. Si los estudiantes creen que la educación está pensada para la formación profesional, prohibir las nuevas tecnologías sólo provocará resentimiento y frustración. Tenemos que pensar en el problema como un todo, y sólo entonces se abordará cabalmente y con suficiente profundidad la cuestión de los fines, lo que nos permitirá volver a la cuestión de los medios, y de lo que la tecnología debe o no debe hacer en las aulas.
Prohibir la tecnología resultó ser inútil, así que intenté, más adelante en el semestre, un enfoque diferente. Irónicamente, al hacerlo, tuve más éxito en convencer a mis alumnos de la importancia de las humanidades.
Enseñar con la inteligencia artificial, no contra ella
Cuando me di cuenta de que mis alumnos utilizaban el ChatGPT sin entenderlo, decidí crear una nueva tarea para enseñarles lo que hace. Esperaba que, al conocerlo mejor, se sentirían menos propensos a utilizarla en exceso. Es fácil olvidar lo nuevo que es todo esto. La mayoría de mis alumnos ni siquiera había tenido la oportunidad de interactuar con una IA hasta antes de abril, cuando Snapchat lanzó la suya (lo que molestó a muchos de ellos) 5.
Mi trabajo consistió en pedir a cada alumno que generara su propio ensayo con ChatGPT, basándose en un texto que les di. Las instrucciones eran bastante largas y complicadas, pero lo principal era que cada alumno podía, a continuación, ver la redacción original que le daba el programa. Después se les pedía que dejaran cinco comentarios sobre el ensayo, describiendo los puntos fuertes y débiles del mismo, y que respondieran un cuestionario sobre lo que habían aprendido. El punto central de la tarea, para mí, era pedirles que investigaran si el ChatGPT había “desvariado” en relación a sus fuentes, es decir, si había inventado libros, artículos, autores o incluso citas que no eran reales. Para mi sorpresa, todos y cada uno de los 63 ensayos contenían información falsa.
Mis alumnos se escandalizaron. La mayoría escribió en sus comentarios que no podían imaginar que una IA pudiera equivocarse. Algunos pensaban que era «omnisciente» y no podían creer que fuera tan propensa a cometer errores. Otros se preguntaban por qué se comercializaba la IA con tanta insistencia si tenía defectos tan evidentes. Finalmente, muchos dijeron, al darse cuenta que no era un oráculo infalible, que confiarían menos en esta tecnología para hacer las tareas
Irónicamente, al utilizar la tecnología en clase, mis alumnos “dieron un paso atrás” y reflexionaron sobre el significado y la finalidad de la educación. Demostrar que el medio, utilizar la tecnología como atajo para escribir un ensayo, no era tan eficaz como pensaban, y planteó nuevas preguntas sobre el objetivo de su educación y en particular de la redacción de un ensayo. Muchos estudiantes dijeron que confiaban más en sus propias capacidades, al fin y al cabo, como dijeron algunos, ¡seguramente ellos podían hacerlo mejor! Y si adoptáramos esta tecnología acríticamente, escribieron muchos de ellos, esta acción podría conducir fácilmente a una homogeneización del pensamiento. Por no mencionar el hecho de que tomar lo que dice ChatGPT al pie de la letra podría llevar a la gente a aprender información incorrecta. Me alegró especialmente ver que algunos estudiantes empezaban a reflexionar sobre lo que significa ser humano, y lo que hace especial a la humanidad en la era de las máquinas.
Dicho esto, este enfoque también tiene sus inconvenientes. Si lo desearan, los alumnos también podrían aprender de este ejercicio cómo hacer trampas de manera más eficaz. Además, aunque esta tarea logró dirigir a mi clase hacia cuestiones clásicas de las humanidades sobre el ser, el sentido y el fin, ¿hasta qué punto puede ser eficaz una postura tan solitaria y aislada frente a la “ola de deshumanización tecnológica”? ¿O contra la opinión axiomática de que la educación sólo sirve para «conseguir un trabajo»?
¿Por qué estamos aquí?
Cada semestre hago esa pregunta a mis alumnos: «¿Por qué estamos aquí? ¿Para qué sirve la universidad?».
Las respuestas son invariablemente: para conseguir un trabajo, aprender a ganar dinero o, como dijo un estudiante de forma más preocupante, para «sobrevivir». Sólo después de una serie de respuestas, uno de ellos sugirió tímidamente «aprender».
No es nada nuevo. En su texto Antieducación, el joven Friedrich Nietzsche hacía decir a uno de sus personajes que existía una oposición entre «las instituciones educativas y las instituciones de lucha por la supervivencia. ¿Y todo lo que existe hoy en día pertenece a esta última categoría?”. ¿Estarían de acuerdo mis alumnos? Según el consenso general parecería ser que el empleo y la formación profesional serían el propósito último de la existencia de las universidades. Nietzsche llegó a esta conclusión hace doscientos años cuando escribió: «Aquí tenemos la utilidad como fin y propósito de la educación, o más exactamente la Ganancia: el ingreso más elevado posible». Postman estuvo de acuerdo, escribiendo que el actual «Dios» de la educación es la utilidad económica: «Su idea central es que el propósito de la educación es preparar a los niños para que entren de forma competente en la vida económica de la comunidad». Según mi experiencia, esta idea está tan extendida que a los alumnos ya ni se les ocurre cuestionarla.
Algunos se resisten. Johann Neem, por ejemplo, sostiene en What is the Point of College que tenemos que volver al objetivo principal de la enseñanza superior, que es estimular la indagación intelectual y el juicio racional, lo que en última instancia ayudaría de todos modos a los estudiantes en el mercado laboral, porque serían capaces de adaptarse a nuevas situaciones. William Deresiewicz expuso argumentos similares en su libro Excellent Sheep, que, aunque se centra en la Ivy League, es aplicable en casi todos los casos. Pero estos ensayos son, en el mejor de los casos, débiles acciones para esconder el repliegue ante la fuerza enemiga o en otras palabras un combate de retaguardia. Aunque ciertamente no son auténticas capitulaciones ante la hegemonía de la utilidad Económica, a lo mucho alcanzan a ser «avances hacia atrás» (retomando el chiste de Chesty Puller acerca de su abrupta retirada durante la Guerra de Corea).
El problema es que, si el «Dios» de la utilidad económica sigue siendo el gobernante de la educación, la IA no hará sino agravar el problema. Hasta sus partidarios más entusiastas contribuirán a ello. En AI 2041 los autores Kai-Fu Lee y Chen Quifan defienden una visión del futuro de la IA que no es tan distópica ni aterradora como la que prevalece actualmente. En su lugar tratan de describir «un futuro en el que nos gustaría vivir y al que nos gustaría dar forma».
En realidad, este objetivo declarado hace que su visión de la IA y la educación sea aún más pesadillesca. En el relato «Gorriones gemelos», se describe una escuela en la que cada alumno tiene una plataforma personal de procesamiento de lenguaje natural (quizás basada en algo como GPT-4) que adapta las clases a sus preferencias y necesidades individuales. Casi toda la educación de los alumnos se filtra a través de un asistente digital omnisciente y amigable, capaz de hacer interesantes las cosas «aburridas» transformando cada materia en una forma que pueda resultar atractiva para el alumno, como por ejemplo una lección de historia impartida por su personaje de dibujos animados favorito.
De este modo, el profesor pasa a un segundo plano. Tal vez intuyendo que esto eliminaría una relación humana crucial, los autores señalan en un comentario sobre la historia que «los profesores humanos seguirán teniendo mucho que hacer», entre otras cosas «ser mentores y conectores humanos para los alumnos». También podrán centrarse en desarrollar «la inteligencia emocional, la creatividad, el carácter, los valores y la resiliencia» de los alumnos. En este gran y glorioso futuro, el profesor quedará relegado finalmente al papel de entrenador vital y niñera. ¡Pensemos, finalmente, en el dinero que eso nos permitiría ahorrar!
Implementar la IA de esta manera sería sin duda fatal tanto para los profesores como para los alumnos. Como lo señala Postman, la educación es fundamentalmente una tarea comunitaria. «No puede haber vida comunitaria democrática si la gente no ha aprendido a participar disciplinadamente dentro de un grupo», escribe. «Incluso podría decirse que las escuelas nunca han estado esencialmente basadas en el aprendizaje individualizado». La adopción irreflexiva de una tecnología individualizada que convierte la educación en una actividad solitaria significa que el objetivo último de la educación sería en realidad la utilidad económica. Este es el resultado lógico de la visión de cada ser humano como un consumidor racional, un ser mecánico cuya existencia atómica se orienta en torno a sus preferencias individuales. Este aislamiento intelectual y emocional invertiría la famosa frase de John Donne: a partir de ahora, cada ser humano es una isla.
Esta visión de la educación tiene sentido si el propósito de la universidad es «encontrar un trabajo», pero no tiene ningún sentido para nada más. Dada la amplitud de esta noción, no soy especialmente optimista sobre el futuro. Para abordar adecuadamente la IA en las aulas, también tenemos que examinar estas otras cuestiones igual de importantes. Podemos discutir todo el día sobre los recursos, pero mientras no nos hayamos puesto de acuerdo sobre la razón de ser de la enseñanza superior, poco se podrá avanzar realmente.
A corto plazo, los que todavía seguimos en la lucha podemos intentar integrar la IA a nuestros cursos de la forma descrita anteriormente, con la esperanza de que así se eduque a los estudiantes sobre sus usos y peligros, al tiempo que se utiliza como trampolín para hablar de la situación en su conjunto. Pero no es una solución a largo plazo. Al abordar la IA, los educadores de todo el mundo se verán obligados a lidiar y encontrar soluciones al problema de los medios y los fines. Espero que la IA ayude a estimular la reflexión filosófica sobre el propósito de las escuelas, más allá del empleo y la formación profesional. Pero temo que terminará transformando toda la educación en un medio para alcanzar un fin, continuando la trayectoria en la que ya se encuentra.
Notas al pie
- C. W. Howell, «Don’t Want Students to Rely on ChatGPT? Have Them Use It», Wired, 6 de junio de 2023.
- Liam Knox, «Can Turnitin Cure Higher Ed’s AI Fever?», IHE, 3 de abril de 2023.
- Steven Mintz, «The Adjunctification of Gen Ed», IHE, 11 de enero de 2021.
- Pia Ceres, «ChatGPT Is Coming for Classrooms. Don’t Panic», Wired, 26 de enero de 2023.
- Samantha Murphy Kelly, «Snapchat’s new AI chatbot is already raising alarms among teens and parents», CNN Business, 27 de abril de 2023.