Desde hace varias semanas, el mundo debate -con angustia u optimismo- sobre el éxito de ChatGPT y su desarrollo, y China no es una excepción. En particular, las autoridades chinas han expresado su temor ante ChatGPT y han pedido a los gigantes tecnológicos chinos que no ofrezcan sus servicios «debido a la preocupación de Pekín por las respuestas no censuradas» que «podrían ayudar al gobierno estadounidense a difundir desinformación y manipular las narrativas globales para servir a sus propios intereses geopolíticos» 1. Estos temores también se extienden en los círculos académicos: autores como Zhou Ting escriben sobre los peligros de la IA como «herramienta de guerra cognitiva» en los conflictos mundiales 2.
Aun así, el éxito de ChatGPT en Occidente ha hecho que prácticamente todas las grandes empresas tecnológicas chinas estén interesadas en desarrollar su propio chatbot conversacional de IA. El gigante tecnológico Baidu está a punto de lanzar su versión de ChatGPT, llamada Ernie Bot (文心一言). El jueves 16 de marzo, en una conferencia en Pekín, el fundador de Baidu, Li Yanhong, hizo oficial el lanzamiento. Las acciones de Baidu cayeron cerca de un 10% tras la conferencia, ya que a los inversionistas no les convencieron las habilidades lingüísticas y matemáticas del software, así como un lanzamiento de prueba limitado a un número muy reducido de usuarios.
Otra parte de la esfera intelectual china no considera que ChatGPT sea el «enemigo», y expresa una forma de fascinación por la herramienta que se encuentra en Occidente, al tiempo que señala sus límites éticos y tecnológicos. Este es el caso del texto traducido aquí 3, que es representativo del equivalente chino de lo que se podría leer en las páginas del New York Times o El País, aunque el formato de este artículo es colectivo y no individual. La mesa redonda fue organizada por Xu Jilin (1957), historiador liberal de los movimientos intelectuales del siglo XX en China, interesado desde hace años en la tecnología y la cultura en línea. Los colegas que lo acompañan en esta conversación son todos profesores de la Universidad Normal de China Oriental, en Shanghai. Son Jiang Yuhui (姜宇辉), del Instituto de Política y Relaciones Internacionales, Jin Wen (金雯), del Departamento de Chino e Instituto Nacional de Cultura China, y Zhang Xiaoyu (张笑宇), del Centro de Investigación sobre Política Global. A pesar de la diversidad de sus opiniones, de esta conversación surge una sorprendente convergencia de puntos de vista, en línea con lo que Giuliano da Empoli describe en el primer episodio de la serie «Poderes de la IA».
David Ownby
Xu Jilin
Hoy vamos a hablar de ChatGPT y la inteligencia artificial desde la perspectiva de la tecnología, la naturaleza humana y la ética. En las últimas semanas, muchos expertos han hablado de ChatGPT desde un punto de vista técnico, pero creo que su invención no es sólo un fenómeno tecnológico, sino también cultural, e incluso está estrechamente relacionado con la sociedad, la economía y la política, por lo que quizá deberíamos pensar en cómo este revolucionario avance de la inteligencia artificial repercutirá en la humanidad y en los individuos desde una perspectiva más amplia. Me gustaría empezar pidiendo a Xiaoyu que nos explique en qué consiste esa tecnología.
Zhang Xiaoyu
Open AI ha lanzado recientemente una serie de productos similares, entre ellos ChatGPT, algunos de los cuales son incluso mejores que ChatGPT en varios aspectos, y me gustaría utilizar ChatGPT para hablar de la importancia progresiva que podría tener la IA de reciente aparición y de las funciones que podría desempeñar.
Probablemente muchos recuerden que hace unos años, AlphaGo derrotó uno tras otro a los mejores jugadores de Go del mundo. En aquel momento, AlphaGo ya había superado a programas anteriores que solo podían producir resultados basados en algoritmos escritos por programadores. En lugar de ello, fue capaz de aprender y evolucionar por sí mismo tras comprender plenamente las reglas básicas del juego del Go. Hoy, en cambio, el aprendizaje profundo de la IA se basa generalmente en el reconocimiento de imágenes, que se utiliza para realizar diversas tareas. No sólo puede reconocer patrones y aprender, sino que también puede generar nuevos contenidos, lo que significa que tiene capacidad para crear.
En términos de capacidad conversacional, ChatGPT representa un salto cualitativo respecto a los chatbots del pasado. Aunque aún no se haya desvelado su algoritmo básico, podemos entenderlo desde varios ángulos. Por ejemplo, el nombre GPT contiene G de «generativo» y P de «preentrenado». De hecho, ChatGPT no es un chatbot diseñado para generar respuestas en línea en tiempo real, sino que cuenta con un enorme modelo de entrenamiento, en base al cual realizará repetidos intentos en línea para resolver el problema que se le presente. Por último, T significa «transformador», que genera un lenguaje casi humano mediante varias capas de transformación.
A grandes rasgos, la primera versión del algoritmo empieza con una letra y, mediante gráficos vectoriales, predice la siguiente letra, luego una palabra y, por último, una frase. Si entendemos cómo funciona esto, podemos ver que ChatGPT no aprende realmente a hablar como lo hacen los humanos, sino que intenta imitarlos en la medida de lo posible. Por eso, aunque habla como un humano, no piensa como un humano.
Xu Jilin
Gracias, Xiaoyu, por esta introducción. Pasemos al tema de las emociones y hablemos de la experiencia del usuario.
Jin Wen
Xiaoyu dijo algo muy importante hace un momento: ChatGPT parece hablar un lenguaje humano, pero piensa de forma completamente distinta a los humanos. Si los humanos y ChatGPT piensan de forma completamente distinta, ¿es posible que estén hablando en la misma longitud de onda?
El lenguaje humano natural es una especie de sistema simbólico que ha evolucionado a lo largo de mucho tiempo gracias a la interacción y el entendimiento entre seres humanos, y tiene cierta cualidad arbitraria. Incluso cuando las personas hablamos, los sentimientos o ideas que queremos expresar nunca están ligados al lenguaje de manera transparente. El lenguaje humano tampoco es completamente natural y espontáneo; siempre hay un proceso de transcripción y traducción interna. De hecho, la gente se sorprende a menudo de la impotencia del lenguaje para expresar sus pensamientos o sentimientos más profundos. Por ejemplo, en la mayoría de las lenguas, las expresiones directas de dolor son raras y se reducen a «dolor, dolor intenso o dolor leve», pero no bastan para captar el dolor que sienten las personas.
Si consideramos toda la gama de emociones, el lenguaje humano es aún más fluido. Para expresar un sentimiento individual, los humanos utilizan a menudo un enfoque metafórico e indirecto. Así, quienes utilizan el lenguaje humano de forma creativa se ven abocados a encontrar formas muy interesantes y únicas de expresar una emoción concreta.
Así que ideé una prueba para ver si ChatGPT podía entender metáforas. El ejemplo que utilicé fue la canción «Treaty» del cantante estadounidense Leonard Cohen, en la que Cohen dice algo así como: «Todo el mundo parece haber pecado, haber vivido su vida sin poder librarse de su culpa; e incluso si se libran de su culpa, siguen siendo personas imperfectas». Pero no expresó esos pensamientos directamente, sino que utilizó una metáfora, cantando sobre una serpiente que se siente incómoda a causa de sus pecados, y por eso muda su piel, con la esperanza de que esto le permita dejar atrás sus pecados. Sin embargo, incluso después de mudar la piel, la serpiente sigue débil y su veneno continúa latiendo por todo su cuerpo. En otras palabras, Cohen dice que, aunque uno deje atrás a Dios, y con él, su culpa, sigue estando acongojado y la vida sigue siendo dolorosa.
¿Cómo entendió ChatGPT la metáfora? No entendió que la serpiente estuviera mudando de piel a causa de sus pecados, sino que pensó que era porque necesitaba transformar su vida de un modo importante, lo que la haría más fuerte y resistente. Aunque este proceso no sea necesariamente feliz, la serpiente aprenderá de él y se hará más fuerte.
Aquí podemos ver varias características de ChatGPT. En primer lugar, conoce poco el lenguaje humano de las alusiones; ignora la metáfora de la serpiente en la Biblia, su estrecha relación con el pecado original y el Jardín del Edén. Así que sólo puede construir una narración basada en los hechos presentados. En segundo lugar, me llamó la atención el hecho de que ChatGPT esté diseñado para ser muy «positivo», y si le hablas desde un punto de vista pesimista, sin duda lo entenderá de forma positiva e intentará animarte y alentarte. Así que empieza negando la culpabilidad de la serpiente, y luego insiste en que cambiando la piel de la serpiente mejorará. En tercer lugar, como ChatGPT no puede entender la frase metafóricamente, no sabe que la serpiente es una metáfora del hombre. Una de las razones es que ChatGPT no se enfrenta a ese dilema humano, y la otra es que la máquina no tiene experiencia, ni cuerpo, ni interacción social, por lo que tiene dificultades para entender el concepto de metáfora y por qué la gente utiliza una cosa para referirse a otra.
En mi opinión, todo el mundo es constantemente creativo en su uso del lenguaje cotidiano. Como el lenguaje es tan «estándar», el ser humano es incapaz de expresarse sin esa creatividad. Por lo tanto, utilizar el lenguaje natural requiere más creatividad de la que pensamos, mientras que ChatGPT, sin esa creatividad, carece de sentido y es aburrido. Dudo mucho que se convierta en un interlocutor interesante en el futuro, y eso podría ser un obstáculo muy difícil de superar para los grandes modelos lingüísticos.
Xu Jilin
Yo también he pasado bastante tiempo con ChatGPT en los últimos dos días, y creo que es el primero en lógica, el segundo en conocimientos y el tercero en capacidad de escritura. Digo que su lógica es de primera porque su algoritmo es tan potente que la conversación es muy fluida y entiende tu lenguaje y contexto. A veces sus respuestas son erróneas, pero incluso entonces su lógica es clara. Digo que sus conocimientos son de segunda porque su base de datos en inglés es tan potente que puede responder a cualquier pregunta; sin embargo, sabe mucho menos sobre China y los datos que proporciona son a menudo ridículos. Digo que su redacción es de tercera porque todas sus respuestas carecen de personalidad. Es como un ayudante de investigación con los conocimientos básicos adecuados; su escritura es muy estandarizada y cortés, pero es impersonal y carece de talento literario.
Jiang Yuhui
En este momento, no siento que ChatGPT me haya ayudado mucho, pero comparado con la enorme burbuja del Metaverso, mi juicio sobre ChatGPT es muy positivo. Creo que, en última instancia, contribuirá enormemente al desarrollo del conocimiento humano, al desarrollo de la escritura y al desarrollo del pensamiento.
Mucha gente teme que la inteligencia artificial se desarrolle demasiado rápido y que los humanos se conviertan en esclavos de la tecnología. Para mí, ChatGPT no representa un enemigo, sino un asistente que me ayuda con las tareas repetitivas y el pensamiento en el proceso de aprendizaje, redacción de artículos e investigación. Esto incluye buscar y archivar información, controlar la bibliografía, etc. Con esta ayuda, el ser humano tiene más espacio para ser creativo en términos de pensamiento y conocimiento.
Por supuesto, muchos de mis amigos no están de acuerdo con esta idea y creen que los individuos no pueden desarrollarse intelectualmente sin la experiencia de realizar tareas repetitivas, como aprender idiomas y adquirir conocimientos básicos. Pero en la era de la inteligencia artificial, los individuos no necesitan pasar mucho tiempo haciendo esas tareas repetitivas. En su lugar, deberían centrarse en un trabajo más creativo. He leído en alguna parte que ChatGPT revolucionará la educación en China y, de hecho, en todo el mundo. Aunque se suela creer que la educación en el extranjero consiste en inspirar al alumno, mientras que en China todo se basa en el aprendizaje de memoria, sigue habiendo mucho aprendizaje mecánico y repetitivo en los sistemas educativos de todo el mundo. ChatGPT puede hacerse cargo de parte de ese trabajo intelectual y lingüístico, y permitir que la educación se acerque más a la «inspiración», estimulando la creatividad y el potencial de pensamiento de las personas. Por supuesto, ChatGPT también podría evolucionar hacia una especie de alienación. Si sus capacidades lingüísticas e intelectuales superan con creces las de los seres humanos, ¿acabará imponiendo algún tipo de disciplina a la humanidad, o se dedicará a la manipulación? ¿Privará al hombre de su libertad en el campo de la tecnología?
Por otra parte, la inteligencia artificial también tiene una gran capacidad para analizar e incluso diseñar las emociones humanas. Paso mucho tiempo estudiando los videojuegos, y en ese campo existe un término especial llamado «ingeniería emocional». Si un juego es divertido, es porque manipula las emociones humanas. En general, espero con impaciencia la colaboración entre ChatGPT y los humanos, que liberará el potencial de ambas partes.
Xu Jilin
Yuhui ofrece una perspectiva interesante. Una vez le pregunté a ChatGPT: «¿Puedes pensar como un ser humano?». Me contestó que no podía tener la conciencia autónoma ni la experiencia subjetiva de los seres humanos, ni ser tan creativo y evaluativo, ni emitir juicios morales. Aunque sobresalga en algunas áreas, no puede sustituir completamente al pensamiento humano y sólo puede ayudarnos en determinadas tareas.
Entonces, a medida que la IA siga evolucionando, ¿producirá una especie de sabiduría? Algunas teorías sugieren que la sabiduría se adquiere a través de la experiencia, y que esta experiencia no es sólo la razón humana, sino también la emoción y la voluntad humanas. Según el filósofo Michael Polanyi (1891-1976), existe un tipo de conocimiento ambiguo que es inefable y sólo puede adquirirse con la práctica, como cuando aprendemos a conducir un coche o a nadar. La IA sin cuerpo parece estar al margen de estas experiencias, y es muy posible que no pueda adquirir sabiduría como los humanos.
Zhang Xiaoyu
Si partimos de este punto de vista, no estamos haciendo las preguntas correctas. La inteligencia artificial no necesita adquirir «sabiduría ambigua» como los humanos. La sabiduría ambigua es el resultado de las limitaciones de los sentidos y la capacidad de pensamiento humanos, del hecho de que tengamos que recurrir a lo que llamamos metafísica o meditación para entender algo. Pero si, con el apoyo de otras disciplinas, la IA puede lograr la observación directa, el análisis y la comprensión sólo mediante la recopilación de datos, entonces podrá prescindir de la «sabiduría ambigua». Así que creo que la IA puede alcanzar la sabiduría sin pasar por lo que hacen los humanos.
Además, si educamos a la IA adecuadamente, podría ser capaz de entender metáforas. Puede que no entienda de qué estás hablando, pero puede imitar tu lenguaje. Si le enseñamos de antemano lo que significa una determinada metáfora, podrá utilizarla de forma natural en una conversación. De hecho, en cierto sentido, las metáforas utilizadas en la historia de la literatura y de las ideas no son más que imitaciones de quienes las crearon. Desde esta perspectiva, es inadecuado negar que la IA pueda ser tan inteligente como los humanos.
Esto nos remite al experimento mental de Descartes, que propuso el concepto de «demonios malignos»: si hay demonios malignos capaces de controlar todos tus sentidos y manipular todas tus percepciones del mundo exterior, ¿de qué otra cosa puedes estar seguro en tu mente? Del mismo modo, si la IA puede ser una imitadora omnipotente, aunque no tenga emociones ni inteligencia propias y no pueda pensar como un humano, puede imitar a una persona con esas capacidades. Desde este punto de vista, ¿quién puede decir que la IA es menos inteligente que los humanos? ¿Hay alguna razón para cuestionar la inteligencia de la IA aparte del hecho de que no tiene emociones, ni sabiduría ambigua y no es humana?
En segundo lugar, en términos de función social y estructura política, la medida en que la IA puede sustituir a los humanos no depende del límite superior del algoritmo, sino del límite inferior de la capacidad humana. Muchos de los empleos de cuello blanco de la vida cotidiana son en sí mismos trabajos repetitivos que requieren interacciones muy simples. Es el tipo de trabajo que encuentran muchos jóvenes cuando salen de la escuela y entran al mercado laboral. Pensemos en los auxiliares de enseñanza, los asistentes jurídicos, los ayudantes de redacción. Tienen que pasar por un largo periodo de formación antes de poder ascender en el escalafón, pero hoy sus trabajos son fácilmente sustituibles por algoritmos. Esto plantea la siguiente pregunta: si la IA puede sustituir muchos empleos básicos, ¿provocará esto una enorme injusticia social? La involución causada por los avances tecnológicos y las injusticias sociales estructurales, ¿provocará injusticias intergeneracionales en el futuro?
Xu Jilin
Tengo una opinión diferente sobre esa cuestión. En una reunión anterior aquí en la Universidad Normal de China Oriental, un experto en IA dijo que descubrieron en el proceso de I+D que la IA estaba muy familiarizada con el conocimiento racional, pero que tiene dificultades para dominar el conocimiento y las habilidades de los niños. Esto se debe a que los niños funcionan menos con base en la razón y más con base en la intuición y la percepción, de las que carece la IA. Lo que acaba de decir Xiaoyu está relacionado con nuestras ideas preconcebidas sobre los humanos: los humanos se consideran racionales, pero también poseen iluminación e intuición. La iluminación y la intuición son fundamentales para la creatividad. En este sentido, ¿qué es un ser humano? Como consecuencia de los avances tecnológicos, a menudo reducimos al ser humano a su racionalidad, pero ésa es una comprensión muy superficial de la naturaleza humana. Hume dijo que la razón no es más que una esclava de la emoción, lo que significa que quería disipar los mitos que la ilustración moderna le legó al ser humano. Esto nos lleva a los límites de la IA implementada por Open AI, que incluyen la ausencia de contenido emocional. También hay consideraciones éticas y morales. Si ChatGPT tiene voluntad propia y un caudal de emociones, entonces la IA se convertirá realmente en un nuevo tipo de ser humano difícil de controlar para nosotros, las personas de carne y hueso.
Jin Wen
Me gustaría ahondar en la opinión de Xiaoyu de que ChatGPT puede hacer un buen trabajo como asistente, que no eliminará necesariamente muchos puestos de trabajo humanos e incluso puede proporcionar una ayuda útil a muchos trabajadores. Estoy de acuerdo con esa opinión, pero tengo dos objeciones. En primer lugar, Xiaoyu puede pensar que los pocos genios humanos que consiguen superarse son la esperanza de toda la humanidad, pero el umbral más bajo de la mayoría de nosotros es simplemente demasiado bajo, de ahí un sentimiento de decepción y pesimismo sobre los seres humanos, y por tanto la esperanza de un nuevo tipo de inteligencia.
Xiaoyu dijo hace unos minutos que la iluminación y la ambigüedad se basan en las limitaciones humanas, pero si los seres humanos pueden experimentar emociones de las que se sienten orgullosos es precisamente porque tienen cuerpos materiales. Las emociones son las respuestas del cuerpo material al mundo exterior. Si no tuviéramos cuerpo, no podríamos reaccionar, no nos afectarían los cambios y nuestras emociones no existirían.
Entonces, ¿es bueno tener emociones o no? Si lo vemos desde un punto de vista muy negativo, algunas características humanas sencillamente no son dignas de orgullo, pero la razón por la que sigue valiendo la pena preservar la civilización y la sociedad humanas es que nuestras mejores características también se basan en estos límites. El límite superior de la humanidad se basa en el límite inferior de la humanidad.
Si el hombre no tuviera cuerpo y si no existiera una brecha entre la experiencia humana y el lenguaje, no habría razón para crear mil lenguas diferentes. De hecho, las civilizaciones humanas más brillantes se basan precisamente en las limitaciones humanas. Como lo expresa Borges en el cuento «El Inmortal», el límite último del ser humano es el hecho de que muere, de que su cuerpo se descompone rápidamente, pero ésa es la razón misma de su grandeza. Es debido a la descomposición de sus cuerpos finitos que los seres humanos tienen un sentido del yo, un sentido del yo que les proporciona gran alegría y deleite, pero también gran dolor. Para hacer frente a los grandes trastornos emocionales, los seres humanos han creado sus propias civilizaciones.
Tales civilizaciones también tienen una debilidad fatal: dividen a la gente. El ChatGPT, así como los inventos anteriores de otras herramientas mecánicas, nos recuerdan que existe una tendencia natural en la sociedad humana a asignar más tiempo a la élite para sus llamados trabajos avanzados, y a dejar las tareas repetitivas y sencillas a los «sin talento». En el siglo XVIII, esa tendencia evolucionó hasta convertirse en la teoría de la división del trabajo: para que el sistema de producción de una sociedad sea altamente eficiente, algunas personas deben realizar el trabajo simple y necesario, mientras que otras se encargan de la coordinación, la gestión y la innovación. La aparición de ChatGPT no amenaza con alterar ese orden, sino que refuerza la división del trabajo. ChatGPT refuerza así una forma de pensar muy equivocada: algunas personas trabajan en cosas complejas, mientras que otras trabajan en cosas sencillas.
Esta forma de pensar es errónea por dos razones. En primer lugar, el trabajo creativo más complejo suele requerir la intuición más simple, y esa intuición requiere un trabajo repetitivo para desarrollarse. Si nunca has estudiado español, por ejemplo, y confías habitualmente en un programa de traducción para traducir el español al inglés o al chino, no serás capaz de entender la poesía española; puede que seas capaz de captar el significado general del poema, pero no el poema en sí. Del mismo modo, el tipo de división del trabajo que produce la inteligencia artificial borraría toda la creatividad humana.
En segundo lugar, es totalmente indefendible desde un punto de vista ético. En un futuro en el que la inteligencia artificial participe en la división del trabajo, estaremos divididos en dos clases: esclavos y amos. Pero como los amos no se dedicarán a un simple trabajo repetitivo, serán incapaces de crear nada nuevo y se limitarán a repetir las mismas rutinas. La inspiración para cualquier «creación», incluso una pintura o una película realizada por una inteligencia artificial, procede de la experiencia sensorial material y de la experiencia de vida social insustituibles y constantemente renovadas de los seres humanos, no de la repetición de rutinas vulgarizadas.
En otras palabras, el proceso de diferenciación social perjudica enormemente a cada clase: a los que creen pertenecer a la clase alta se les borra la creatividad; los que pertenecen a la clase media o baja no pueden desarrollar más su inteligencia, porque se ven limitados a un trabajo repetitivo. Desde un punto de vista ético, una división del trabajo demasiado extrema creará por tanto enormes divisiones en la sociedad, con trágicas consecuencias para todas las clases. La aparición del ChatGPT agravará esa trágica tendencia, pero también servirá de advertencia para recordarnos la crisis de la división en clases de los seres humanos y las máquinas.
Por poner el ejemplo más sencillo, si hablamos todos los días con ChatGPT, olvidaremos el límite superior del lenguaje natural. Las personas perderán gradualmente la capacidad de expresarse, dejarán de entenderse y, finalmente, no podrán interactuar con los demás de forma saludable. La amistad humana, el amor y todas las relaciones positivas se desintegrarán y la sociedad humana se marchitará. Es la mayor crisis imaginable.
Zhang Xiaoyu
Me gustaría cuestionar el análisis de Jin Wen sobre la estructura social y la historia. A lo largo de la historia, la estratificación y la diferenciación han acompañado al progreso humano. No debemos negar la racionalidad de la estratificación, sino hacer distinciones entre quienes merecen beneficiarse de esta estructura y quienes no. Por ejemplo, Watt inventó la máquina de vapor, Newton descubrió las leyes de la física y Yuan Longping inventó el arroz híbrido, y todos ellos merecen ser recompensados. Pero en el proceso de progreso social, es inconcebible que algunas clases altas recurran a la violencia para conseguir lo que quieren y utilicen un poder político injusto para explotar a la mayoría, impidiendo que otros desarrollen su potencial.
Dejando a un lado la tecnología, la estructura de la sociedad humana ya es muy injusta; no es necesario echar toda la culpa a la tecnología, sino enfrentarse con valentía a las injusticias, porque son las personas que las crean quienes son objeto de nuestra revolución. En lugar de dirigir la ira contra las máquinas, como hizo el movimiento ludita durante la Revolución Industrial, deberíamos ver que las injusticias sociales están causadas, en primer lugar, por estructuras sociales injustas. Si entendemos esto, veremos que, a lo largo de la historia de la humanidad, las fuerzas tecnológicas han sido a menudo nuestros aliados, no nuestros enemigos, a la hora de ayudarnos a derrocar estructuras sociales irracionales. Tenemos que darnos cuenta de que las estructuras sociales ya son injustas, que hay demasiadas tonterías sobre la sociedad que gira en torno a los líderes, y que eso es lo que está provocando que los humanos se parezcan cada vez más a las máquinas. Tenemos que seguir adelante y romper esas injusticias sociales, y sólo entonces cada uno podrá llegar a ser lo que originalmente estaba destinado a ser.
Jiang Yuhui
A lo largo de la historia, la tecnología ha sido un arma de doble filo, incluido el ChatGPT. Jin Wen piensa que representa una amenaza para la verdadera bondad y belleza de la naturaleza humana; Xiaoyu la ve como una posibilidad de liberación. En la fase de emergencia de la IA, deberíamos intentar llevarla en una dirección mejor en lugar de atacarla verbalmente. Mi postura siempre ha sido que los científicos crean tecnologías en beneficio de la humanidad. Quizá en este punto, los investigadores de humanidades puedan unir fuerzas con los de tecnología para evitar que ChatGPT vaya en la dirección equivocada.
Además, no creo que sólo unos pocos vayan a disfrutar de los beneficios de ChatGPT. Al contrario, cuando ChatGPT se haga cargo de tareas repetitivas en términos de lenguaje, conocimiento y pensamiento humanos, todo el mundo debería poder desarrollar su propio potencial. Pero esto presupone que la sociedad ofrezca oportunidades a todos. La evolución de la tecnología debe integrarse en la evolución de la sociedad. La tecnología no puede resolver todos los problemas, y la humanidad debe trabajar para complementar el desarrollo de la tecnología, haciendo que la sociedad sea más igualitaria.
Tras la aparición de la IA, la sociedad podría llegar a ser más igualitaria, porque la IA no discrimina como los humanos -por motivos de raza, sexo, geografía o incluso riqueza-, no es así como piensa la IA. Desde esta perspectiva, quizá las máquinas estén mejor equipadas para crear una plataforma igualitaria en la que las personas también puedan desarrollar su potencial individual.
Sin embargo, también me he fijado en un término llamado «efecto pecera», acuñado por un académico extranjero que critica el Metaverso. Su argumento es que todas las masas están en la pecera y desde dentro creen que son libres de nadar donde quieran; pero en realidad son las pocas élites tecnológicas que están fuera de la pecera las que aprueban las leyes y las controlan. Como resultado, muchos creen que la IA creará la mayor desigualdad jamás vista en la historia de la humanidad, una desigualdad basada en la inteligencia. Si alguien es más inteligente que tú, si piensa mejor que tú, podrá aplastarte bajo sus pies. Sin embargo, personalmente creo que el ChatGPT puede liberar a los seres humanos de las pesadas exigencias del trabajo. Y también creo que, si a todo el mundo se le da la oportunidad, todo el mundo puede convertirse en creador a un nivel muy alto; son los puestos institucionalizados y el trabajo repetitivo de la sociedad moderna los que no dejan espacio para la realización de su potencial.
También me gustaría concluir con una visión: los grandes logros de la civilización en la historia de la humanidad permanecerán, pero puede que la próxima ola de creación no la realicen los humanos a través del lenguaje, los símbolos y la tradición. En su lugar, la próxima ola de creación será el producto de la colaboración entre humanos y máquinas, en la que las máquinas proporcionarán inspiración y motivación a la humanidad.
Xu Jilin
La visión de Yuhui me recuerda la imaginación romántica de Greg Brockman, cofundador de Open AI. En una ocasión sugirió que la IA y los robots inteligentes sustituirían todos los puestos de trabajo y que los costos laborales de la sociedad serían cero en el futuro. En el futuro, todos los individuos sólo necesitarán una renta básica y podrán entonces convertirse en personas libres, lo que podría romper el statu quo de la desigualdad capitalista actual.
Pero me temo que esta visión es una nueva utopía, al menos por ahora. Porque detrás de las empresas que desarrollan la inteligencia artificial y las apoyan están los gigantes de internet. Esos gigantes de internet estuvieron presentes en el nacimiento de internet, y en su momento pensaron que estaba a punto de comenzar una era de anarquía real, en la que por fin todo el mundo tendría los mismos derechos de expresión. Pero tras muchas iteraciones de internet, la sociedad se ha vuelto más desigual. Los recursos, la riqueza, la tecnología y el talento del mundo se concentran cada vez más en los países y empresas más importantes. En el mundo real, todo avance tecnológico está impulsado por el capital, en un juego en el que todos ganan. Todos los recursos, todo el talento y toda la tecnología se concentran en manos de unos pocos oligarcas.
¿Nos esperará en el futuro una utopía de libertad e igualdad? ¿Se fragmentará más la sociedad, produciéndose un nuevo orden jerárquico? Ante estas preguntas, hay cosas que pensar y cosas que esperar. En este contexto, creo en la teoría de Zhang Taiyan 章太炎 (1869-1936) expresada en su libro Separar lo universal y lo particular en la evolución, escrito a finales de la dinastía Qing: cree que el bien y el mal progresan, estando el mal un paso por delante del bien. Todo avance tecnológico irá acompañado de un declive en otros ámbitos. Hay que evitar el optimismo extremo, y el pesimismo extremo tampoco es útil, porque los seres humanos a lo largo de la historia siempre se han desarrollado a pesar de las contradicciones, y la situación difícil de la humanidad sigue siendo eterna.
Notas al pie
- Cissy Zhou, China tells big tech companies not to offer ChatGPT services, Nikkei Asia, 22 de febrero de 2023.
- Zhou Ting, 生成式人工智能的国际传播能力及潜在治理风险, 23 de febrero de 2022.
- 许纪霖, « 对谈|ChatGPT:是新世界的诞生,还是人类末日的开始? » publicado en el hilo WeChat de Xu Jilin el 27 de febrero de 2023.