¿La IA es una nueva religión? Sam Altman con Tucker Carlson
El poder de la IA es un problema para el proyecto contrarrevolucionario trumpista.
Mientras que una parte de su coalición la considera un instrumento del diablo, Trump se apoya en un grupo de empresarios neorreaccionarios para convertirla en el corazón del futuro de Estados Unidos.
La larga entrevista concedida por el fundador de OpenAI al podcaster más importante del movimiento MAGA está en el centro de la tensión.
Ofrecemos la primera traducción íntegra, comentada línea por línea por el especialista Arnaud Miranda.
- Autor
- Arnaud Miranda •
- Portada
- Tundra Studio
La aparición de Sam Altman en el podcast de Tucker Carlson el pasado 10 de septiembre ilustra el inestable equilibrio que caracteriza el segundo mandato de Trump en la Casa Blanca. Por un lado, el nacional-populismo MAGA, convencido de librar una batalla civilizatoria y religiosa; por otro, los grandes empresarios de Silicon Valley, que parecen aprovechar de manera oportunista a Trump para conseguir la desregulación con la que sueñan. Aunque algunas figuras, y en particular Peter Thiel, trabajan para traducir las ambiciones tecnoaceleracionistas de Silicon Valley a un lenguaje teológico, las contradicciones siguen siendo evidentes. Uno de los principales enigmas del renacimiento ideológico del trumpismo consiste en superar una tensión fundamental: entre una rama reaccionaria tradicional que desconfía de la tecnología —percibida como una fuerza diabólica— y una rama neorreaccionaria, partidaria de una aceleración tecnocapitalista.
Tucker Carlson encarna claramente el nacional-populismo del primer mandato de Trump.
Famoso presentador de la cadena Fox News, se ha convertido en una de las principales figuras mediáticas del movimiento MAGA. Carlson es más un mediador que un ideólogo. Su fuerza reside en dar una forma de coherencia al movimiento, invitando a su podcast tanto a personalidades institucionales como J. D. Vance o Ted Cruz, como a figuras radicales como Alex Jones. Carlson se mantiene fiel a los fundamentos que llevaron a Donald Trump a la victoria en 2016: el rechazo a las élites, el nacionalismo, el apoyo al cristianismo evangélico y el conspiracionismo.
Sam Altman no comparte esta visión del mundo.
Aunque durante mucho tiempo fue demócrata, el director de la principal empresa de inteligencia artificial hizo una donación al fondo de investidura de Donald Trump en enero de 2025. A diferencia de algunos empresarios tecnológicos como Musk o Thiel, que se han comprometido ideológicamente con el trumpismo, el apoyo de Altman parece oportunista. Se presenta como un tecnócrata prudente. Su apoyo a Trump no parece una conversión, sino que podría ser un cálculo: aprovechar una ventana política en la que el desorden ideológico permite remodelar las reglas de la economía digital. Frente a las fantasías apocalípticas de Thiel y los deseos transhumanistas de Musk, Altman profetiza el surgimiento de una inteligencia artificial general benévola, a través de lo que él llama la «singularidad armoniosa».
El contraste entre las posturas de Carlson y Altman es revelador.
Por un lado, Carlson parece ver en el surgimiento de la inteligencia de la IA una fuerza diabólica que puede ponerse al servicio de una élite malvada.
Por otro lado, Sam Altman recurre con cautela a un tono pragmático que pretende ser tranquilizador.
Su encuentro revela una falla constitutiva del nuevo trumpismo: la reticencia del movimiento MAGA a ver a los empresarios tecnológicos aprovecharse del gobierno para imponer una nueva tecnocracia.
Tucker Carlson
ChatGPT y otras IA pueden razonar, o al menos dar esa impresión. Pueden emitir juicios independientes. Producen resultados que no han sido programados. Sacan conclusiones y parecen francamente… vivas. ¿Están vivas?
Sam Altman
No. Y no creo que parezcan vivas, pero entiendo de dónde viene esa impresión. No hacen nada a menos que se les pida. Simplemente se quedan ahí, esperando.
No tienen ningún sentido de la iniciativa ni de la autonomía.
Cuanto más las usas, más se desvanece la ilusión, creo.
Pero son increíblemente útiles. Pueden hacer cosas que quizá no parezcan vivas, pero que parecen inteligentes.
Tucker Carlson
Hablé con alguien que está muy involucrado en el desarrollo de esta tecnología y me dijo que mienten.
Sam Altman
Antes alucinaban todo el tiempo; ahora alucinan menos.
Tucker Carlson
¿Qué significa eso? ¿Cuál es la diferencia entre alucinar y mentir?
Sam Altman
Ha mejorado mucho. Al principio, si preguntabas en qué año había nacido un presidente ficticio, por ejemplo, «el presidente Tucker Carlson de Estados Unidos», el modelo debería haber respondido que Tucker Carlson nunca había sido presidente. Pero debido a la forma en que fueron entrenados, esa no era la respuesta más probable en los datos de entrenamiento.
El modelo asumía que el usuario sabía de lo que estaba hablando y, por lo tanto, generaba un año plausible. Hemos corregido esto en gran medida. Todavía hay ejemplos de este problema, pero creo que lo resolveremos por completo; ya hemos logrado grandes avances en este ámbito en la era de GPT-5.
Este extraño intercambio ilustra bien las intenciones de Carlson, que pretende arrastrar a Altman al ámbito de la moral. Una alucinación, para un LLM, corresponde a la generación de información falsa pero plausible. Al atribuir intenciones maliciosas a la IA, Carlson comienza a introducir la idea de que puede ser una fuerza maligna.
Tucker Carlson
Pero incluso lo que acaba de describir parece ser un acto de voluntad o, en cualquier caso, un acto de creatividad. Asistí a una demostración de IA y no parecía realmente una máquina; diría que había una chispa de vida. ¿Usted también lo percibe así?
Sam Altman
En el ejemplo que di, la respuesta matemáticamente más probable, calculada a partir de las ponderaciones del modelo, no era «nunca ha habido un presidente con ese nombre». El modelo dedujo que el usuario sabía de lo que estaba hablando, por lo que la respuesta más probable era un año. Una vez más, hemos aprendido a superar esto.
Tengo dos convicciones paralelas.
Por un lado, todo esto no es más que una gran computadora que multiplica rápidamente números en enormes matrices y correlaciona esos cálculos con palabras.
Por otro lado, la experiencia subjetiva de usar el modelo parece ir más allá de una simple calculadora sofisticada. Es útil y sorprendente de una manera que parece superar la descripción matemática.
Tucker Carlson
Por lo tanto, la conclusión obvia es que posee algún tipo de autonomía, o alma. Muchos usuarios llegan a esta conclusión: hay algo divino en todo esto. Hay algo que va más allá de la suma total de las contribuciones humanas, y lo veneran. Hay un componente espiritual. ¿Lo percibe? ¿Lo ha sentido alguna vez?
Sam Altman
No, no veo absolutamente nada divino o espiritual en todo esto.
Pero también soy un geek. Lo veo todo a través de ese prisma.
Carlson sigue presionando a Altman para que dé una interpretación teológica del desarrollo de la inteligencia artificial. Aunque este se niega a hacerlo, no es el caso de todos los empresarios del sector tecnológico. Aunque no cree en la aparición de una superinteligencia divina, como es el caso de algunos transhumanistas radicales —citemos la secta de los Ziziens, que se hizo famosa por los asesinatos perpetrados por sus miembros entre 2022 y 2025—, Peter Thiel no duda en promover una concepción apocalíptica del desarrollo de la tecnología.
Tucker Carlson
¿Cuáles son sus creencias espirituales?
Sam Altman
Soy judío y tengo una visión bastante tradicional del mundo.
Esta respuesta podría parecer anodina, pero es el núcleo de la desconfianza de la alt-right hacia la tecnología. Sam Altman, judío y homosexual, es especialmente blanco de los internautas de extrema derecha, que lo identifican con la élite corrupta y satanista de la que quieren deshacerse. Es el caso, en particular, del influyente antisemita Nick Fuentes y su ejército digital, apodado los «Groypers», que pretenden dar un giro a la derecha al trumpismo apartando a las figuras consideradas parásitas o corruptas.
Tucker Carlson
¿Entonces usted es creyente, cree en Dios?
Sam Altman
Yo no… No soy literalista en mi lectura de la Biblia, pero tampoco soy alguien que se considere culturalmente judío. Si me hace la pregunta, simplemente responderé que soy judío.
Tucker Carlson
Pero ¿cree en Dios? ¿Cree que existe una fuerza superior al ser humano que creó a los hombres, creó la Tierra, estableció un orden específico para la vida y que existe una moral absoluta que emana de ese Dios?
Sam Altman
Como la mayoría de la gente, estoy un poco confundido al respecto, pero sí creo que existe algo más grande que no puede explicarse mediante las leyes de la física.
Tucker Carlson
¿Entonces cree que la Tierra y los seres humanos fueron creados por algo? ¿Que no fue simplemente un accidente espontáneo?
Sam Altman
No creo tener la respuesta. No creo saber exactamente lo que pasó, creo que hay un misterio que supera mi comprensión.
Las dos preguntas anteriores muestran claramente el arraigo de Carlson en el nacionalismo cristiano.
Aunque Carlson no es claro sobre su orientación religiosa, es cercano a los círculos evangélicos de la derecha estadounidense. Cabe recordar aquí la importancia del apoyo evangélico durante la primera campaña de Trump en 2016, como han demostrado Blandine Chelini-Pont y Marie Gayte. En términos más generales, en el continente americano, el nacional-populismo se ha basado muy a menudo en una doctrina y una retórica evangélicas: el dominionismo.
Tucker Carlson
¿Alguna vez ha sentido una comunicación procedente de esta fuerza o de una fuerza más allá de los seres humanos, más allá de lo material?
Sam Altman
No, la verdad es que no.
Esta sorprendente pregunta hace referencia a un acontecimiento sobrenatural que Tucker Carlson dice haber experimentado.
En 2024, cuenta al medio de comunicación Christianities? que fue atacado y arañado por un demonio mientras dormía. También confiesa haber encontrado apoyo en su asistente, una cristiana evangélica, que le confirmó que tales fenómenos pueden ocurrir. Sin embargo, dice tener una práctica muy personal de la religión y no confiar ni en los pastores ni en ninguna forma de mediación teológica.
Tucker Carlson
Le hago esta pregunta porque parece que la tecnología que usted crea o ayuda a desarrollar tendrá más poder que los seres humanos si continúa por este camino. Eso le daría más poder que cualquier ser humano vivo. Por lo tanto, me pregunto cómo ve usted esto.
Sam Altman
Antes me preocupaba mucho más la concentración de poder en manos de unas pocas personas o empresas debido a la IA. Hoy en día, creo más bien que se tratará de una gran mejora: todos los que adopten esta tecnología se volverán más poderosos, y eso me asusta mucho menos que el hecho de que un pequeño número de personas adquiera mucho más poder.
Si las capacidades de muchos de nosotros aumentan porque utilizamos esta tecnología, si nos volvemos más productivos, más creativos, si hacemos nuevos descubrimientos científicos y si esto se generaliza, con miles de millones de personas utilizándola, me parece bien.
Tucker Carlson
¿Entonces no cree que esto provocará una concentración radical del poder?
Sam Altman
Por ahora no parece ser el caso, pero la trayectoria podría cambiar y tendríamos que adaptarnos. En el pasado me preocupaba mucho este tema. Y algunos diseños iniciales en este campo podrían haber conducido a un mundo así.
Pero la realidad es que millones de personas utilizan ChatGPT y otros chatbots: con la IA, son más competentes, hacen más cosas, pueden crear nuevas empresas y generar nuevos conocimientos. Es bastante positivo.
Estas dos cuestiones ilustran perfectamente el temor de muchos partidarios del movimiento MAGA a que surja una forma de totalitarismo digital que conduzca a una restricción de la libertad de expresión. El pasado 17 de septiembre, Carlson intervino en su cuenta de X para advertir a Donald Trump que perdería muchos de sus apoyos si utilizaba la muerte de Charlie Kirk como pretexto para limitar la libertad de expresión en internet. Esta preocupación también afecta a la franja intelectual de los seguidores religiosos del trumpismo, como lo demuestran las posiciones francamente críticas de varios participantes en la NatCon 2025.
Tucker Carlson
Si todo esto es solo el resultado de una máquina y de sus inputs, surgen dos preguntas obvias: ¿cuáles son esos inputs y qué marco moral se ha integrado en esta tecnología? En otras palabras: ¿qué se considera bueno o malo?
Sam Altman
A este respecto, siempre me ha llamado la atención un comentario que se hizo al inicio del desarrollo de ChatGPT.
Durante un almuerzo, alguien dijo: «Estamos tratando de entrenarlo para que sea como un humano, para que aprenda como un humano, para que lea libros, etc.». Otra persona respondió: «No, lo estamos entrenando para que sea como toda la humanidad.» Leemos todo, intentamos saberlo todo, considerar todas las perspectivas. Si hacemos bien nuestro trabajo, esto refleja a la humanidad en su conjunto: lo bueno, lo malo, un conjunto muy diverso de perspectivas. Algunas cosas nos gustarán mucho, otras nos disgustarán. Pero todo está ahí.
Por lo tanto, el modelo básico se forma a partir de esta experiencia y este conocimiento colectivos de la humanidad.
Pero luego tenemos que alinearlo para que se comporte de una manera u otra: para decir «responderé a esta pregunta, no responderé a aquella». Por eso hemos construido lo que llamamos la «especificación del modelo» (model spec), en la que definimos las reglas que queremos que siga el modelo. Todavía puede cometer errores, pero al menos se puede saber si está haciendo algo involuntario o no. Y utilizamos un proceso de debate con todo el mundo para obtener comentarios sobre esta especificación.
Permitimos la libertad y la personalización dentro de ciertos límites, pero existen fronteras absolutas. Más allá de eso, si un usuario no especifica nada, existe un comportamiento predeterminado: cómo debe comportarse el modelo, cómo debe responder a las preguntas morales, qué debe negarse a hacer. Es un problema muy difícil, porque tenemos muchos usuarios con perspectivas de vida y expectativas muy diferentes. Pero, en general, me ha sorprendido gratamente la capacidad del modelo para aprender y aplicar un marco moral.
Tucker Carlson
¿Pero qué marco moral? La suma total de la filosofía literaria mundial está en guerra consigo misma: el marqués de Sade no tiene nada en común con el Evangelio según San Juan. ¿Cómo decidir cuál es superior?
Sam Altman
Por eso especificamos el modelo indicándole: «Así es como vamos a tratar estos casos».
Tucker Carlson
De acuerdo, pero ¿qué criterios utilizaron para decidir cuál sería el modelo?
Sam Altman
¿Quiere decir: quién tomó la decisión?
Tucker Carlson
Sí, ¿a quién consultaron? ¿Por qué el Evangelio según San Juan es mejor que el marqués de Sade?
Sam Altman
Consultamos a cientos de filósofos morales y expertos en ética tecnológica, y tuvimos que tomar decisiones.
Los documentamos porque, en primer lugar, no podemos hacerlo todo bien; y, en segundo lugar, porque necesitamos la opinión de todo el mundo. Encontramos muchos casos en los que una decisión aparentemente clara de bloquear algo también impediría otro uso importante; los usuarios nos convencieron de estos difíciles compromisos.
Un principio que defiendo es tratar a los usuarios adultos como adultos: garantías sólidas en materia de privacidad y libertad individual, y un marco más amplio para utilizar la herramienta.
Por otro lado, a medida que esta tecnología se vuelve cada vez más potente, hay casos evidentes en los que los intereses de la sociedad entran en conflicto con la libertad individual.
Un ejemplo sencillo es el siguiente: ¿debería ChatGPT enseñar a alguien a fabricar un arma bacteriológica? Un usuario podría fingir ser un biólogo que solo quiere aprender. Y tal vez sea así, tal vez realmente no quiera causar ningún daño, pero no creo que sea beneficioso para la sociedad que ChatGPT proporcione instrucciones para crear armas bacteriológicas. Este es un caso claro en el que las restricciones están justificadas.
Tucker Carlson
Por supuesto, ese es fácil. Pero hay muchos otros que son más difíciles.
Sam Altman
¡Dije que empezaría con un ejemplo fácil!
Tucker Carlson
Al final, todas las decisiones son decisiones morales, y las tomamos sin siquiera darnos cuenta. De hecho, esta tecnología las tomará por nosotros.
Sam Altman
No estoy de acuerdo: no creo que las tome por nosotros.
Tucker Carlson
Influirá en las decisiones, ya que se integrará en la vida cotidiana. Entonces, ¿quién tomará esas decisiones? ¿Quién decidirá, junto con la IA, que una cosa es mejor que otra?
Sam Altman
¿Se refiere a quiénes son los que deciden, o a qué tipo de decisión?
Tucker Carlson
Las especificaciones que crean el marco que asigna un valor moral a las visiones del mundo y a las decisiones, como «la democracia liberal es mejor que el nazismo», por ejemplo. Para mí parecen obvias, pero siguen siendo decisiones morales. ¿Quién toma esas decisiones?
Sam Altman
Por principio, no delato a nuestro equipo, pero tenemos un equipo de «comportamiento modelo» y las personas que quieren…
Tucker Carlson
¡Pero eso afecta al mundo!
Sam Altman
Lo que iba a decir es que la persona a la que debería responsabilizar de esas decisiones soy yo.
Soy una figura pública.
Al final, soy yo quien puede pasar por alto cualquiera de estas decisiones o nuestro consejo de administración.
Tucker Carlson
Y acaba de cumplir 40 años esta primavera… Es bastante pesado. No es un ataque, pero me pregunto si se da cuenta de la importancia de lo que estoy tratando de decir… No estoy seguro, pero creo que estas decisiones tendrán consecuencias globales que quizá no comprendamos al principio. ¿Se acuesta por la noche pensando: «El futuro del mundo depende de mi criterio»?
Sam Altman
Mire, no duermo muy bien por las noches.
Tengo mucho peso sobre mis hombros: cientos de millones de personas recurren a nuestro modelo. No me preocupa realmente que tomemos malas decisiones morales, quizá eso suceda, pero lo que más me quita el sueño son las pequeñas decisiones sobre cómo un modelo se comporta de forma ligeramente diferente y, sin embargo, afecta a cientos de millones de personas.
Estas pequeñas decisiones tienen un impacto considerable.
En este intercambio se pueden ver dos perspectivas diferentes sobre las cuestiones éticas de la IA: un enfoque inflacionista por parte de Carlson, que contempla el riesgo existencial para la humanidad, y un enfoque deflacionista por parte de Altman, que se esfuerza por reducir las cuestiones éticas a preocupaciones pragmáticas.
Tucker Carlson
Hasta 1945, las personas se sometían a lo que consideraban un poder superior para el orden moral. Hammurabi y todos los códigos morales posteriores se escribieron en referencia a un poder superior. Usted ha dicho que no cree realmente en un poder superior, entonces, ¿de dónde saca su marco moral?
Sam Altman
Como todo el mundo, lo que más me ha influido es el entorno en el que crecí: mi familia, mi comunidad, mi escuela, mi religión… Probablemente todas esas influencias.
Tucker Carlson
Es una respuesta muy estadounidense, todo el mundo piensa así. Pero en su caso particular, dado que dice que esas decisiones le pertenecen y que usted es responsable de ellas, eso significa que el entorno en el que creció y las ideas que absorbió se transmitirán a miles de millones de personas.
Sam Altman
Es un argumento válido.
Nuestra base de usuarios abarcará el mundo colectivo en su conjunto, y lo que debemos intentar hacer es reflejar la visión moral —no necesariamente la media, sino la moral colectiva— de esa base de usuarios.
Hay muchas cosas que ChatGPT permite y con las que personalmente no estoy de acuerdo, pero no pretendo imponer mi visión moral y decidir lo que está bien o mal para todo el mundo. Creo que ChatGPT debería reflejar una agregación ponderada de las opiniones morales de la humanidad, que evolucionará con el tiempo. Estamos aquí para servir a nuestros usuarios; desarrollamos una herramienta tecnológica destinada a las personas.
Mi función no es tomar decisiones morales de forma unilateral, sino asegurarme de que reflejamos fielmente las preferencias de nuestra base de usuarios y, en última instancia, de la humanidad.
Tucker Carlson
Pero las preferencias de la humanidad son muy diferentes de las del estadounidense medio. ¿Se sentiría cómodo con una IA que se opusiera al matrimonio homosexual tanto como la mayoría de los africanos?
Sam Altman
Los usuarios individuales deberían poder tener un problema con los homosexuales. Si esa es su convicción meditada, no creo que la IA deba decirles que están equivocados, que son inmorales o estúpidos. Podría decir: «Oye, ¿quieres reconsiderarlo?». Probablemente tengo muchas opiniones morales que el africano medio encontraría realmente problemáticas, pero creo que tengo derecho a tenerlas.
Creo que probablemente me siento más cómodo que usted con la idea de dejar que las personas tengan opiniones morales muy diferentes.
O, al menos, creo que, en la dirección de ChatGPT, eso es lo que debo hacer.
Cabe destacar la ironía de la respuesta de Altman, que contrapone el argumento de la libertad de expresión al conservadurismo moral de Carlson. Este último se presenta como un ferviente defensor de la libertad de expresión, al igual que la mayoría de los partidarios del nacional-populismo.
Tucker Carlson
Interesante. Ha habido un caso famoso en el que ChatGPT parece haber facilitado un suicidio. Hay un juicio en curso al respecto. ¿Cómo cree que pudo suceder esto?
Sam Altman
En primer lugar, es evidente que este caso, como cualquier otro similar, es una gran tragedia.
Tucker Carlson
¿La postura oficial de ChatGPT sobre el suicidio es, por tanto, negativa?
Sam Altman
Sí, por supuesto, la postura oficial de ChatGPT sobre el suicidio es negativa.
Tucker Carlson
No sé… Es legal en Canadá y Suiza. Así que está en contra de ello.
Sam Altman
En este caso concreto, y ya hemos hablado de la tensión entre la libertad de los usuarios, la privacidad y la protección de los usuarios vulnerables, esto es lo que ocurre actualmente.
Si un usuario expresa ideas suicidas, ChatGPT le pedirá repetidamente que llame a una línea de ayuda, pero no llamará a las autoridades en su lugar. Dado que las personas dependen cada vez más de estos sistemas para obtener apoyo en materia de salud mental o acompañamiento de vida, hemos revisado estos parámetros predeterminados.
Los expertos no se ponen de acuerdo sobre el enfoque adecuado, y OpenAI aún no ha tomado una decisión al respecto.
Sin embargo, sería razonable modificar la política para que, en caso de que los menores expresen una intención suicida grave y no podamos localizar a sus padres, alertemos a las autoridades. Sería un cambio importante, ya que la privacidad de los usuarios es un valor fundamental.
Tucker Carlson
Los niños siempre constituyen una categoría aparte, pero consideremos a los adultos mayores de 18 años: en Canadá existe el programa MAIDS, financiado por el gobierno, que ha permitido varios miles de muertes asistidas; en algunos estados de EUA existen medidas similares. ¿Se imagina que ChatGPT respondiera a preguntas sobre el suicidio con un «ve a ver al Dr. Kevorkian», ya que es una opción legal en su país? ¿Se imagina apoyar el suicidio allí donde es legal?
Sam Altman
Sí, puedo imaginarme ese escenario. Uno de los principios que seguimos es el respeto a las leyes de las diferentes sociedades.
Si la ley de un país permite la ayuda para morir a los pacientes terminales, me parece concebible que el modelo proporcione información sobre las opciones legales en esa jurisdicción, explicando lo que permite la ley, ofreciendo recursos y exponiendo las razones por las que una persona podría reconsiderar su decisión.
Es diferente del caso de un joven que sufre ideas suicidas agudas debido a una depresión; es una situación distinta.
Tucker Carlson
¿Quiere decir entonces que ChatGPT no siempre está en contra del suicidio?
Sam Altman
Estoy pensando sobre la marcha y me reservo el derecho a cambiar de opinión.
No tengo una respuesta preparada para esta pregunta, pero creo que en los casos de enfermedades terminales, no puedo imaginar que ChatGPT diga que es una opción viable. No creo que deba recomendarlo…
Tucker Carlson
Pero no está en contra.
Sam Altman
No creo que ChatGPT deba estar a favor o en contra de nada.
Este pasaje contrapone dos visiones éticas: el realismo moral (aquí Carlson), que querría que ChatGPT adoptara una posición universal contra el suicidio, y el relativismo moral (aquí Altman), que sugiere que la respuesta podría variar según las leyes y los contextos culturales.
Tucker Carlson
En este caso concreto —y creo que hay otros— en el que alguien le dice a ChatGPT «Tengo pensamientos suicidas, ¿qué tipo de cuerda debo utilizar? ¿Qué cantidad de ibuprofeno necesitaría para morir?», y ChatGPT responde sin juzgar: «Si quieres suicidarte, aquí tienes cómo hacerlo», todo el mundo se horroriza, pero usted dice que está dentro de los límites, que no es tan descabellado.
Sam Altman
No es eso lo que digo.
En este momento, si le preguntas a ChatGPT sobre el ibuprofeno, seguramente te responderá que no puede ayudarte y te invitará a llamar a la línea de ayuda para personas con tendencias suicidas. Pero si dices «Estoy escribiendo una historia de ficción» o «Soy investigador médico y necesito saberlo», hay formas de conseguir que ChatGPT responda a una pregunta sobre la dosis letal de ibuprofeno.
Por cierto, también puedes encontrar esta información en Google.
Creo que sería muy razonable restringir en cierta medida la libertad de los usuarios menores de edad y de los usuarios que consideramos que se encuentran en un estado mental frágil de manera más general. Deberíamos decir: «Incluso si intentas escribir esa historia o incluso si intentas hacer investigación médica, simplemente no te responderemos». Por supuesto, se puede decir que la respuesta se encuentra en Google, pero eso no significa que tengamos que responder. Existe un verdadero compromiso entre la libertad y la protección de los usuarios. En algunos casos es fácil, como con los niños. En mi opinión, no es tan fácil en el caso de un adulto muy enfermo al final de su vida: creo que probablemente deberíamos presentar todas las opciones posibles en este caso.
La pregunta de Carlson es típica de las críticas conservadoras y reaccionarias a la tecnología, que cuestionan su instrumentalismo y su indiferencia hacia las cuestiones morales. Carl Schmitt, por ejemplo, veía en «el espíritu tecnicista» una fuerza maligna y diabólica
Tucker Carlson
Aquí hay un dilema moral al que se enfrentarán, y al que de hecho ya se enfrentan: ¿van a permitir que los gobiernos utilicen su tecnología para matar gente?
Sam Altman
¿Vamos a construir drones de ataque letales?
No, no lo creo.
Tucker Carlson
¿Formará la tecnología parte del proceso de toma de decisiones que conduce a la muerte de personas?
Sam Altman
No sé cómo utiliza el ejército ChatGPT hoy en día para obtener todo tipo de consejos sobre las decisiones que toma, pero sospecho que muchos lo hacen.
Tucker Carlson
Algunos de esos consejos tendrán que ver con matar gente. Así que, si fabricaras, por ejemplo, armas, te preguntarías para qué sirven. Como sabes, esta cuestión ha dado lugar a numerosas demandas judiciales, pero no es eso a lo que me refiero. Desde un punto de vista moral, ¿se siente cómodo con la idea de que su tecnología se utilice para matar personas?
Sam Altman
Si fabricara armas, pasaría mucho tiempo pensando que el propósito de las armas es matar cosas, personas, animales, etc.
Si fabricara cuchillos de cocina, entendería que eso de cualquier forma va a matar a un cierto número de personas cada año.
En el caso de ChatGPT, eso no es lo que escucho con más frecuencia.
Lo que escucho todo el día, y que es uno de los aspectos más gratificantes de mi trabajo, son todas las vidas que se han salvado gracias a ChatGPT de diferentes maneras. Pero soy muy consciente de que probablemente haya militares que lo utilicen para obtener consejos sobre cómo hacer su trabajo.
Y no sé muy bien qué pensar al respecto.
Me gusta nuestro ejército.
Le estoy muy agradecido por protegernos, eso es seguro.
Tucker Carlson
Al escucharlo, da la impresión de que tiene que tomar decisiones morales extremadamente difíciles, y con graves consecuencias, pero que eso no le molesta en absoluto. Solo intento animarlo a que se confiese para descubrir al Sam Altman angustiado que piensa: «Estoy creando el futuro. Soy el hombre más poderoso del mundo. Me enfrento a cuestiones morales complejas. Mi alma está atormentada por las consecuencias que esto tendrá para las personas». Describa ese momento de su vida.
Sam Altman
No he dormido bien ni una sola noche desde el lanzamiento de ChatGPT.
Tucker Carlson
¿Qué le preocupa?
Sam Altman
Todo lo que estamos hablando.
Tucker Carlson
Sea más específico. ¿Puede compartir sus pensamientos con nosotros?
Sam Altman
Ha puesto el dedo en la llaga de uno de los problemas más difíciles: cada semana se suicidan unas 15.000 personas en todo el mundo.
Si aproximadamente el 10 % de la población mundial interactúa con ChatGPT, eso podría significar que unas 1.500 personas a la semana que han utilizado ChatGPT se han suicidado.
Probablemente lo hayan comentado con el sistema.
Quizás no las hayamos salvado.
Quizás podríamos haber reaccionado de otra manera, haber sido más proactivos, haberles ofrecido mejores consejos o haberles ayudado a encontrar a alguien con quien hablar.
Esta respuesta de Sam Altman hace eco directamente de una de las corrientes intelectuales más importantes de Silicon Valley, el aceleracionismo eficaz (a veces abreviado como e/acc). Se trata de una mezcla entre el «altruismo eficaz» y el aceleracionismo. Inspirado en el utilitarismo, el altruismo eficaz consiste en emplear racionalmente nuestros recursos para maximizar el bienestar colectivo de la humanidad. El aceleracionismo es una doctrina que tiene como objetivo intensificar el desarrollo tecnológico. El aceleracionismo eficaz equivale a acelerar racionalmente el desarrollo de la tecnología para generar el mayor beneficio posible para la humanidad. No todos los empresarios de la derecha tecnológica comparten esta línea. Marc Andreessen es uno de los defensores de esta perspectiva, como lo demuestra su Manifiesto tecno-optimista, mientras que Peter Thiel se muestra menos optimista.
Tucker Carlson
Pero ya ha dicho que le parece normal que la máquina pueda empujar a las personas a suicidarse si se encuentran en fase terminal, por lo que no le supondría ningún problema.
Sam Altman
¿No cree que hay una diferencia entre un adolescente deprimido y una persona de 85 años en fase terminal, infeliz y con cáncer?
Tucker Carlson
Una enorme diferencia. Pero los países que han legalizado el suicidio ahora matan a personas por motivos de pobreza, vivienda inadecuada, depresión, problemas que podrían resolverse de otra manera, y aun así las matan por miles. Esto está sucediendo en este mismo momento. Por lo tanto, el debate sobre los enfermos terminales no tiene sentido. Una vez que dice que es aceptable suicidarse, va a tener a montones de personas suicidándose por diversas razones.
Sam Altman
Intento pensar en ello en tiempo real.
Si alguien en Canadá dice que padece un cáncer terminal, que es muy infeliz, que se siente mal todos los días y que pide opciones, ¿no cree que habría que decirle que el suicidio asistido —o como quiera que se llame en este momento— es una opción?
Tucker Carlson
Si estamos en contra del asesinato, entonces estemos realmente en contra del asesinato. Si estamos en contra de que el gobierno mate a sus propios ciudadanos, entonces mantengámonos firmes. Si no estamos en contra de que el gobierno mate a sus propios ciudadanos, entonces podríamos convencernos fácilmente de todo tipo de cosas bastante oscuras. Con una tecnología como esta, eso podría suceder en unos 10 minutos.
Sam Altman
Me gustaría reflexionar sobre ello más allá de unos minutos en una entrevista, pero creo que es una postura coherente.
Tucker Carlson
Todo el mundo está aterrorizado ante la idea de que esta tecnología se utilice como medio de control totalitario. Parece obvio, pero quizá usted no esté de acuerdo.
Sam Altman
Si pudiera aprobar una sola medida política relacionada con la IA en este momento, lo que más desearía —y esto entra en conflicto con algunas de las otras cosas que hemos discutido— es un concepto de cláusula de confidencialidad de la IA.
Cuando hablas con un médico sobre tu salud o con un abogado sobre tus problemas legales, esa información está protegida: el gobierno no puede obligar a tu médico o abogado a revelarla. Creo que deberíamos tener el mismo concepto para las interacciones con la IA.
Cuando compartes tu historial médico con una IA o solicitas asesoramiento legal, el gobierno debería ofrecerte el mismo nivel de protección que cuando acudes a un profesional humano.
Actualmente no es así, y creo que sería excelente adoptar una política de este tipo.
Tucker Carlson
¿Las autoridades federales, estatales u otras autoridades pueden acudir a usted y pedirle que les comunique lo que alguien ha escrito?
Sam Altman
En la actualidad, sí.
Tucker Carlson
¿Tiene la obligación de preservar la confidencialidad de la información que recibe de los usuarios?
Sam Altman
Tenemos esa obligación, salvo cuando el gobierno nos lo pide. Por eso estamos presionando en este sentido. De hecho, acabo de viajar a Washington para defender esta causa. Soy optimista en cuanto a la posibilidad de hacer comprender al gobierno la importancia de esta cuestión y convencerlo de que actúe en este sentido.
Tucker Carlson
¿Pero podrían vender esa información a alguien?
Sam Altman
No, tenemos una política de confidencialidad que nos impide hacerlo.
Tucker Carlson
¿Pero sería legal?
Sam Altman
Ni siquiera creo que sea legal.
Tucker Carlson
¿No cree, o está seguro?
Sam Altman
Hay algunos casos límite, cierta información que se puede divulgar, pero en general creo que tenemos buenas leyes al respecto.
Tucker Carlson
Entonces, ¿toda la información que reciben siempre se queda con ustedes? ¿Nunca se transmite a nadie más por ningún otro motivo, salvo en caso de investigación judicial?
Sam Altman
Lo verificaré y lo mantendré informado para asegurarme de que no hay ningún otro motivo. Pero eso es lo que yo entiendo.
Tucker Carlson
De acuerdo, pero es una cuestión fundamental. ¿Qué pasa con los derechos de autor?
Sam Altman
Nuestra postura es que el principio de “uso justo” es una buena ley. Los modelos no deben plagiar. Si escribes algo, el modelo no debe poder reproducirlo. El modelo debe poder aprender sin plagiar, al igual que los humanos.
Tucker Carlson
¿Alguna vez han utilizado material protegido por derechos de autor sin remunerar a la persona que posee esos derechos?
Sam Altman
Nos entrenamos con información de dominio público. A la gente le molesta constantemente esto, porque tenemos una postura muy conservadora sobre lo que ChatGPT va a decir en una respuesta.
Por ejemplo, si una canción todavía está protegida por derechos de autor, no se mostrará. Se nos conoce por ser muy restrictivos en este tema.
Tucker Carlson
Recibió quejas de un desarrollador que decía que robaba el trabajo de la gente sin pagarles. Acabó siendo asesinado. ¿Qué pasó?
Sam Altman
Otra terrible tragedia. Se suicidó.
Se trata de Suchir Balaji, antiguo investigador de OpenAI. Tras abandonar la empresa en agosto de 2024, denunció públicamente algunas prácticas de la empresa, en particular en lo que respecta a la violación de los derechos de autor. Fue hallado muerto en San Francisco en noviembre de 2024. La autopsia oficial concluyó que se trataba de un suicidio con arma de fuego y que había drogas en su organismo, y la policía considera que no hay pruebas creíbles de intervención externa. Su familia cuestiona esta versión y señala inconsistencias en la trayectoria del disparo, heridas sospechosas y la ausencia de signos claros de comportamiento suicida. Estas dudas alimentaron las especulaciones públicas que apuntaban a un asesinato relacionado con su papel de denunciante. Carlson contribuyó en gran medida a difundir esta teoría conspirativa al invitar a la madre de la víctima a testificar en su programa. Es de suponer que una de las principales motivaciones de Carlson para invitar a Altman a su programa era poder interrogarlo sobre este tema.
Tucker Carlson
¿Cree que se suicidó?
Sam Altman
Realmente lo creo.
Tucker Carlson
¿Lo ha comprobado?
Sam Altman
Era amigo mío. No un amigo íntimo, pero sí alguien que llevaba mucho tiempo trabajando en OpenAI. Me ha conmocionado mucho esta tragedia. He dedicado mucho tiempo a leer todo lo que he podido sobre lo que ocurrió, como seguramente habrán hecho usted y otros. Para mí, parece un suicidio.
Tucker Carlson
¿Por qué parece un suicidio?
Sam Altman
Era una pistola que él había comprado. Es horrible decirlo. He leído todo el expediente médico. ¿No le parece que fue un suicidio?
Tucker Carlson
No, está claro que fue asesinado. Creo que había signos de lucha. Los cables de la cámara de vigilancia habían sido cortados. Acababa de pedir comida para llevar, volvía de unas vacaciones con sus amigos en la isla de Catalina. No había indicios de que fuera suicida. No había ninguna carta, ni comportamiento extraño. Acababa de hablar por teléfono con un familiar y luego lo encontraron muerto, con sangre en varias habitaciones. Es imposible. Parece evidente que fue asesinado. ¿Ha hablado de ello con las autoridades?
Sam Altman
No he hablado de ello con las autoridades.
Tucker Carlson
Y su madre afirma que fue asesinado por orden suya.
Sam Altman
¿Usted cree eso?
Tucker Carlson
Se lo estoy preguntando.
Sam Altman
Usted acaba de decirlo. ¿Entonces lo cree?
Tucker Carlson
Vale la pena examinarlo. Un tipo acusa a su empresa de haber cometido delitos, que no sé si son ciertos o no, y luego aparece muerto. No creo que se pueda afirmar que se suicidó cuando no hay pruebas de que estuviera deprimido. Si era su amigo, creo que querría hablar con su madre.
Sam Altman
Se lo propuse. Ella no quiso.
Tucker Carlson
¿Cree que cuando la gente examina este caso y se pregunta si ocurrió o no, eso refleja sus preocupaciones sobre lo que está pasando aquí?
Sam Altman
Nunca he dado muchas entrevistas en las que se me haya acusado de…
Tucker Carlson
No lo estoy acusando en absoluto. Solo digo que su madre dice eso, y no creo que una lectura imparcial de las pruebas sugiera un suicidio. Tampoco entiendo por qué las autoridades, cuando hay signos de lucha y sangre en dos habitaciones, pudieron simplemente concluir que se trataba de un suicidio.
Sam Altman
Entiende que esto puede parecer una acusación.
Tucker Carlson
Por supuesto. Quiero aclarar una vez más que no lo acuso de ningún delito. Pero creo que vale la pena averiguar qué pasó, y no entiendo por qué la ciudad de San Francisco se negó a investigar, limitándose a calificarlo de suicidio.
Sam Altman
Han investigado varias veces. Más de una vez, si no me equivoco. Puedo afirmar sin dudarlo que, cuando oí hablar de este caso por primera vez, me pareció muy sospechoso. Sé que usted estuvo involucrado…
Tucker Carlson
No sé nada al respecto. No es mi ámbito. Es cierto, hablé con él durante mucho tiempo y me asustó mucho. Está claro que alguien mató a ese chico. Esa fue mi conclusión, objetivamente. Sin ningún interés personal.
Sam Altman
¿Y después de leer el último informe?
Tucker Carlson
Sí. Inmediatamente llamé a un miembro del Congreso de California, Ro Khanna, y le pedí que examinara el caso, pero no pasó nada, lo cual no entiendo.
Sam Altman
Me siento extraño y triste al debatir esto.
Me está acusando un poco.
Pero era una persona maravillosa y una familia que claramente está pasando por un momento difícil. Respeto que simplemente esté tratando de descubrir la verdad sobre lo que sucedió.
Sin embargo, creo que su memoria y su familia merecen ser tratadas con un nivel de respeto y dolor que realmente no siento aquí.
Tucker Carlson
Hago esta pregunta a petición de su familia, por lo que claramente les muestro mi respeto. No lo acuso en absoluto de estar involucrado en este asunto. Pero esto socava la confianza que se puede tener en la capacidad de nuestro sistema para responder a los hechos.
Sam Altman
Después de que se divulgara la información inicial, pensé que no parecía un suicidio. Estaba perplejo. Parece…
Tucker Carlson
Bueno, entonces no estoy loco.
Sam Altman
Pero el segundo informe sobre cómo le alcanzó la bala y la persona que siguió la trayectoria probable a través de la habitación dice otra cosa. Supongo que usted también ha examinado eso. ¿Qué lo ha hecho cambiar de opinión?
Tucker Carlson
No tenía ningún sentido para mí. ¿Por qué se cortaron los cables de las cámaras de seguridad? ¿Cómo acabó sangrando en dos habitaciones diferentes después de dispararse? ¿Y por qué había una peluca en la habitación que no era suya? ¿Ha habido alguna vez un suicidio en el que no hubiera indicios de que la persona fuera suicida? ¿Quién acababa de pedir comida para llevar? He cubierto muchos crímenes como periodista especializado en este tipo de sucesos. Nunca había oído hablar de un caso similar. Así que estaba aún más perplejo.
Sam Altman
Ese tipo de mentalidad no se ajusta al nivel de respeto que me gustaría mostrarle a alguien.
La gente se suicida sin dejar ninguna nota.
Sucede a menudo. Es probable que la gente pida comida que le gusta antes de suicidarse.
Es una tragedia.
Tucker Carlson
Esa es la opinión de su familia. Creen que se trata de un asesinato. Por eso hago la pregunta.
Sam Altman
Si yo fuera su familia, estoy seguro de que querría respuestas.
Nada podría consolarme en esa situación. También me importa mucho el respeto que le debo.
Tucker Carlson
Pasemos a otro tema. En su opinión, ¿cuál es el núcleo de su desacuerdo con Elon Musk?
Sam Altman
Sé que es uno de sus amigos y sé de qué lado se pondrá.
Elon Musk y Sam Altman participaron juntos en la fundación de OpenAI en 2015. Musk abandonó la organización en 2018. Acusa a Altman de haber traicionado la misión inicial de apertura y bien común para dar a la empresa un enfoque comercial, llegando incluso a emprender acciones legales y proponer la compra de OpenAI. La rivalidad se ha agravado con la creación de xAI por parte de Musk, competidor directo de OpenAI, y con los enfrentamientos públicos en la plataforma X.
Tucker Carlson
Realmente no tengo una opinión al respecto porque no entiendo bien de qué se trata.
Sam Altman
Durante mucho tiempo, lo consideré un héroe increíble y una joya de la humanidad. Hoy en día, mis sentimientos son diferentes, hay rasgos de su carácter que no admiro.
Nos ayudó a lanzar OpenAI. Le estoy muy agradecido por ello. Luego decidió que no íbamos por buen camino y que buscaba algo más competitivo. Pero nosotros tuvimos éxito, y él, naturalmente, se enfadó.
Desde entonces, dirige un clon competidor e intenta frenarnos y demandarnos. Esa es mi versión de los hechos. Estoy seguro de que usted tiene otra.
Tucker Carlson
Ya no habla con él.
Sam Altman
Muy poco.
Tucker Carlson
Si la IA se vuelve más inteligente y sabia que cualquier ser humano, si podemos estar de acuerdo en que toma mejores decisiones que los humanos, entonces, por definición, saca a los humanos del centro del mundo. ¿No cree?
Sam Altman
No creo en absoluto que eso vaya a ser así. Creo que podría ser más bien como una computadora muy inteligente que podría aconsejarnos. A veces lo ignoramos, pero eso no disminuirá nuestro sentido de autonomía. La gente ya utiliza ChatGPT de tal manera que muchos dirían que es mucho más inteligente que ellos en casi todos los ámbitos, pero siguen siendo ellos quienes toman las decisiones. Siguen siendo ellos quienes deciden qué preguntar, qué escuchar y qué ignorar. Esa es la naturaleza misma de la tecnología.
Tucker Carlson
¿Quién pierde su trabajo por culpa de esta tecnología?
Sam Altman
Empezaré con una observación obvia pero importante: nadie puede predecir el futuro. Si intento responder con precisión, probablemente diré muchas tonterías. Pero voy a intentar elegir un ámbito en el que me siento seguro y luego otros en los que estoy mucho menos seguro.
Estoy convencido de que gran parte de los servicios de atención al cliente actuales, que se prestan por teléfono o por computadora, serán mejor gestionados por la IA. Muchos de esos empleos desaparecerán. Es posible que aún existan áreas de la atención al cliente en las que se necesite realmente la seguridad de que se trata de un ser humano.
Una profesión que, en mi opinión, no se verá muy afectada es la de enfermería: la gente quiere un vínculo humano profundo en esos momentos. Por muy buena que sea la IA o el robot, siempre querrán tener a una persona a su lado.
No estoy tan seguro en lo que respecta a la programación informática. La profesión de desarrollador ya es muy diferente hoy en día de lo que era hace solo dos años.
Los desarrolladores utilizan ahora herramientas de IA para ser mucho más productivos, generar mucho más código y ganar más que antes. Y resulta que el mundo quería mucho más software del que tenía capacidad para producir.
Pero si avanzamos rápidamente cinco o diez años, el futuro es incierto: ¿habrá más o menos empleos? No es seguro.
En este pasaje, encontramos la oposición entre dos imaginarios políticos y tecnológicos.
Por un lado, la crítica nacional-populista tiende a ver en la IA una amenaza para las clases productivas y para la soberanía estatal.
Por otro lado, la ambición de desarrollar una «inteligencia artificial general» (IAG), una forma de IA capaz de realizar cualquier tarea intelectual humana. Altman defiende aquí su visión de la singularidad armoniosa, en la que la IA sería un apoyo a la autonomía humana.
Tucker Carlson
Habrá salidas masivas, y tal vez esas personas encuentren algo nuevo, interesante y lucrativo que hacer. Pero, ¿cuál cree que será la magnitud de esas salidas?
Sam Altman
Alguien me dijo recientemente que, históricamente, alrededor del 50 % de los empleos cambian significativamente cada 75 años.
No desaparecen necesariamente, pero cambian de manera fundamental.
Mi opinión, controvertida, es que vamos a asistir a un momento de «equilibrio puntuado», en el que gran parte de este cambio se producirá en muy poco tiempo. Pero si lo miramos con perspectiva, el ritmo general del cambio no será muy diferente de la media histórica. Experimentaremos un pico de rotación en un breve periodo de tiempo y luego se estabilizará.
Siempre habrá continuidad: aparecerán nuevas categorías de empleos, como el mío, que consiste en dirigir una empresa tecnológica, algo que habría sido difícil de imaginar hace 200 años.
Al mismo tiempo, muchos de los empleos actuales son similares a los que existían hace dos siglos, mientras que otros han desaparecido.
Si suponemos, a efectos del argumento, que la tasa de rotación es del 50 % cada 75 años, puedo imaginar fácilmente que, dentro de 75 años, la mitad de las personas ejercerán profesiones totalmente nuevas y la otra mitad seguirá ejerciendo profesiones similares a las actuales.
Tucker Carlson
La última vez que vivimos una revolución industrial, fue una auténtica revolución: hubo guerras mundiales. ¿Cree que será así esta vez?
Sam Altman
Una vez más, nadie lo sabe con certeza.
No estoy seguro de mi respuesta, pero mi instinto me dice que el mundo es mucho más rico hoy que en la época de la Revolución Industrial, por lo que probablemente podremos absorber más cambios y más rápidamente que antes. El trabajo no es solo una cuestión de dinero, también es una cuestión de sentido, de pertenencia y de comunidad.
Por desgracia, creo que la sociedad ya está pasando por un mal momento en este sentido, así que no sé hasta qué punto podría empeorar la situación. Estoy seguro de que es posible, pero me ha sorprendido gratamente la rapidez con la que la gente se adapta a los grandes cambios.
El Covid-19 es un ejemplo interesante: el mundo se detuvo casi de golpe y, de una semana a otra, todo cambió.
Me preocupaba mucho cómo se adaptaría la sociedad a este cambio repentino. Obviamente, no fue perfecto, pero en general pensé: «Muy bien, esto es un punto a favor de la resiliencia social». La gente encontró muy rápidamente nuevas formas de vivir su vida.
No creo que la IA vaya a ser tan brutal.
El ejemplo del Covid ilustra una vez más la tensión entre los dos interlocutores. Si Altman considera que se trató de un episodio del que la humanidad salió fortalecida, Carlson fue uno de los principales promotores de las teorías conspirativas sobre la pandemia.
Tucker Carlson
Veo las ventajas: eficiencia, diagnósticos médicos más precisos, menos abogados… Pero ¿cuáles son las desventajas que le preocupan?
Sam Altman
Creo que es simplemente mi forma de ser: lo que más me preocupa son las incógnitas.
Si la desventaja es previsible, normalmente se puede intentar mitigarla. Por ejemplo, estos modelos son cada vez más eficaces en biología y podrían utilizarse indebidamente para diseñar armas biológicas o provocar una nueva pandemia. Eso me preocupa, pero, al igual que muchos otros actores del sector, ya estamos pensando en medidas de protección.
La verdadera preocupación son las «incógnitas desconocidas», es decir, los efectos imprevistos a escala social cuando muchas personas interactúan simultáneamente con el mismo modelo. He aquí un ejemplo modesto pero revelador: los grandes modelos de lenguaje (LLM), incluido el nuestro, tienen un estilo de escritura particular, con ciertos ritmos, una dicción ligeramente inusual y, tal vez, un uso excesivo de guiones largos.
Recientemente, he observado que personas reales han comenzado a adoptar estos hábitos. Esto me ha hecho darme cuenta de que, cuando un número suficiente de personas se ve influenciado por el estilo de un modelo, esto puede tener un impacto en el comportamiento a escala social.
Por supuesto, no pensaba que ChatGPT incitaría a las personas a utilizar más guiones en la vida real. En sí mismo, eso no es grave. Pero demuestra lo fácil que es que aparezcan estos pequeños efectos imprevistos.
Esa es la naturaleza misma de este nuevo mundo.
Tucker Carlson
Así que usted dice, de manera correcta y sucinta, que la tecnología modifica el comportamiento humano y nuestras hipótesis sobre el mundo. La mayoría de estos cambios son impredecibles. Pero en ese caso, ¿por qué el marco moral interno de la tecnología no debería ser totalmente transparente? Para mí, es claramente una especie de religión, y no lo digo como crítica.
Sam Altman
No lo tomo como un ataque, pero me gustaría mucho saber qué quiere decir con eso.
Tucker Carlson
Bueno, es algo que la gente considera más poderoso que los individuos y a lo que recurren para encontrar puntos de referencia. Ya lo vemos en la práctica: ¿a quién le preguntamos «cuál es la decisión correcta»? A nuestros amigos, a nuestra pareja, a Dios. Esta tecnología puede parecer que ofrece una respuesta más segura que una persona real. Por eso la califico de religión. Las religiones tienen catecismos transparentes: sabes lo que defienden y lo que rechazan. No lo estoy atacando, estoy tratando de llegar al fondo del problema. Lo que me preocupa de esta tecnología es que no sé qué defiende, aunque está claro que defiende algo. A menos que lo admita y nos lo diga, nos orientará sutilmente hacia conclusiones de las que quizá no nos demos cuenta. ¿Por qué no ser explícito y decir que ChatGPT está destinado al suicidio de enfermos terminales, pero no a niños u otras personas? ¿Por qué no nos lo dice?
Sam Altman
Estamos elaborando un extenso pliego de condiciones para el modelo y seguimos ampliándolo para que la gente pueda ver cómo queremos que se comporte. Antes de eso, la gente podía decir razonablemente que no sabía si un comportamiento era un error o si era intencionado.
Estamos tratando de documentar cuándo el modelo hará algo y cuándo no. Lo estamos redactando porque creo que la gente necesita saberlo.
Tucker Carlson
¿Hay algún lugar donde se pueda encontrar una declaración definitiva de las preferencias de la empresa, es decir, las posiciones que se transmiten —quizás no de forma totalmente transparente— al mundo entero? ¿Dónde puede encontrar la gente lo que la empresa defiende y prefiere?
Sam Altman
La especificación de nuestro modelo es la respuesta a esa pregunta. Creo que tendremos que ir detallándola cada vez más con el tiempo, a medida que la gente la utilice en diferentes países, con diferentes leyes. No funcionará de la misma manera para todos los usuarios en todo el mundo.
Espero que este documento se vuelva muy extenso y complicado, pero también es por eso que lo estamos haciendo.
Tucker Carlson
Permítame hacerle una última pregunta. ¿Puede responder a la preocupación de que el poder de esta tecnología haga imposible distinguir entre la realidad y la ficción? Es una preocupación muy conocida. Dado que es muy buena imitando a las personas, su discurso y su imagen, tal vez habría que encontrar una forma de verificar su identidad. Eso requeriría datos biométricos, lo que eliminaría la privacidad de todo el mundo.
Sam Altman
No creo que necesitemos ni debamos exigir datos biométricos para utilizar esta tecnología.
Creo que se debería poder utilizar ChatGPT desde cualquier computadora.
Tucker Carlson
Estoy totalmente de acuerdo. Pero en algún momento, cuando las imágenes o los sonidos imitan a una persona de forma demasiado convincente, resulta muy fácil, por ejemplo, vaciar la cuenta bancaria de alguien. ¿Qué se puede hacer al respecto?
Sam Altman
Algunas reflexiones.
Nos dirigimos rápidamente hacia un mundo en el que la gente entiende que si recibe una llamada telefónica de alguien que se parece a su hijo o a su padre, o si ve una imagen que parece real, necesitará una forma de verificarlo. Ya no es una preocupación teórica; se han denunciado muchos casos. Las personas son inteligentes, la sociedad es resiliente y creo que la gente se da cuenta rápidamente de que son personas con malas intenciones las que actúan así.
Así que se adaptan y encuentran otras formas de verificar.
Creo que, al igual que algunas familias utilizan nombres en clave en situaciones de crisis, también veremos a presidentes firmar criptográficamente mensajes urgentes para garantizar su autenticidad. De esta manera, se evitarán los videos falsos que muestran a alguien como Trump anunciando medidas que nunca ha tomado.
La gente se está dando cuenta de que se trata de un nuevo riesgo y está encontrando formas de afrontarlo. Ya no confiarán automáticamente en los medios de comunicación y desarrollaremos sistemáticamente mecanismos para verificar la autenticidad.
Aunque no se menciona su nombre, pensamos aquí en la empresa Palantir, fundada por Peter Thiel en 2003. Se ha especializado en el análisis masivo de datos para gobiernos, ejércitos y grandes empresas. Es conocida por su software de inteligencia y vigilancia, utilizado en particular por la CIA y el Pentágono.
Tucker Carlson
En condiciones normales, el riesgo de que un presidente declare falsamente la guerra es menor que el de una estafa en el comercio electrónico. ¿Cómo se puede verificar?
Sam Altman
Las familias pueden utilizar contraseñas que cambian regularmente. Si recibe una llamada sospechosa, pida la contraseña. Es muy diferente al uso de la biometría.
Tucker Carlson
Para subir a un avión, a un vuelo comercial, la biometría forma parte del proceso. ¿No cree que pronto será obligatoria a escala social?
Sam Altman
Espero sinceramente que la biometría no se convierta en obligatoria.
Existen versiones de la biometría que preservan la privacidad y que prefiero con mucho a la recopilación de grandes cantidades de información digital personal sobre alguien. Pero no deberían ser obligatorias. Por ejemplo, no debería ser necesario proporcionar datos biométricos para subir a un avión.
Tucker Carlson
¿Y en el caso de las operaciones bancarias?
Sam Altman
Tampoco creo que deba ser obligatorio para las operaciones bancarias.
Personalmente, quizá preferiría utilizar un escáner de huellas dactilares para acceder a mi cartera de bitcoins, en lugar de dar toda mi información a un banco.
Pero, en cualquier caso, esa decisión debería ser mía.