La singularidad armoniosa: nuestro futuro según Sam Altman, creador de ChatGPT
«Estamos construyendo un cerebro para el mundo».
«ChatGPT ya es más potente que cualquier ser humano que haya existido jamás».
«Que nuestro camino hacia la superinteligencia sea fluido, exponencial y sin contratiempos».
Traducimos y comentamos las predicciones del fundador de OpenAI —el último texto de Sam Altman escrito sin la ayuda de ChatGPT—.
- Autor
- Victor Storchan •
- Portada
- © NATHAN POSNER/SHUTTERSTOCK

En un texto publicado el pasado 10 de junio, del que se mostró especialmente orgulloso, Sam Altman intentó dar una nueva definición de su visión del futuro: a gentle singularity. El término «gentle», que también podría traducirse como «suave», es aquí la clave y debe entenderse en un sentido enfático. El término «singularity» («singularidad») se refiere a un punto hipotético en el futuro en el que el crecimiento tecnológico provocaría transformaciones radicales e irreversibles en la civilización humana. Este concepto se asocia a menudo con la aparición de una IA «superinteligente» que supera las capacidades humanas y que podría acelerar el progreso tecnológico de forma difícilmente previsible.
Para Altman, este punto de inflexión es una idea fija: podría producirse de forma más o menos repentina y abrupta en la economía y la sociedad.
En su texto canónico (Moore’s Law for Everything), Altman ya temía que esta revolución hacia la superinteligencia fuera demasiado abrupta y proponía con OpenAI una vía aceptable al concluir: «el futuro puede ser increíble».
Desde entonces, se ha dedicado a convencer de que no sólo es posible llegar a ese punto, sino hacerlo de forma suave o, para traducir con mayor exactitud su visión ideal, armoniosa.
Ahora está convencido de que «el futuro puede ser infinitamente mejor que el presente».
En una publicación en la plataforma X 1, Sam Altman indicó que este texto sería probablemente el último que escribiría sin la ayuda de la IA.
Hemos cruzado un umbral; el despegue ha comenzado.
La humanidad está cerca de crear una superinteligencia digital y, al menos hasta ahora, todo está sucediendo de una manera mucho menos extraña de lo que podríamos haber imaginado.
Aunque no se define explícitamente el horizonte temporal, Altman da a entender en este texto que la transformación se está acelerando con respecto al horizonte de varias décadas que anticipaba en su texto sobre la ley fundamental de la IA: «En los próximos cinco años, programas informáticos capaces de pensar leerán documentos jurídicos y darán consejos médicos. En la década siguiente, realizarán trabajos en cadena y tal vez incluso se conviertan en compañeros. Y en las décadas siguientes, harán casi todo, incluyendo nuevos descubrimientos científicos que ampliarán nuestro concepto de ‘todo’».
Los robots aún no recorren las calles y la mayoría de nosotros todavía no pasamos nuestros días conversando con la IA.
Las enfermedades siguen matando.
Todavía no podemos viajar fácilmente al espacio, y muchos aspectos del universo siguen escapando a nuestro entendimiento.
Sin embargo, recientemente hemos creado sistemas que superan al ser humano en muchos ámbitos y que son capaces de aumentar significativamente la productividad de las personas que los utilizan.
La parte más incierta del trabajo ya ha quedado atrás: los descubrimientos científicos que han hecho posibles sistemas como GPT-4 y o3 han tenido un alto precio, pero nos llevarán muy lejos.
De hecho, la mayoría de los investigadores se han visto sorprendidos por el nivel de rendimiento alcanzado por ChatGPT y por la rapidez con la que se han obtenido estos resultados 2 y, como señala Altman, estos logros han requerido una fuerte convicción por parte de OpenAI para pasar a escala las primeras arquitecturas de modelos 3.
La IA aportará muchas cosas al mundo.
Las mejoras en la calidad de vida que proporcionarán los avances científicos acelerados y el aumento de la productividad gracias a la IA serán enormes.
El futuro puede ser infinitamente mejor que el presente.
El progreso científico es el principal motor del progreso global; es muy emocionante imaginar todo lo que aún podríamos lograr.
En cierto modo, ChatGPT ya es más poderoso que cualquier ser humano que haya existido jamás.
Cientos de millones de personas confían en él cada día para tareas cada vez más importantes; una pequeña mejora en el modelo puede tener un impacto extremadamente positivo; un pequeño defecto en la alineación del modelo, multiplicado por cientos de millones de usuarios, puede generar un impacto negativo considerable.
La alineación es uno de los subcampos de la investigación en seguridad de la IA.
Se trata del principio según el cual los modelos se perfeccionan en varias dimensiones para producir un modelo más seguro —por ejemplo, en términos de preferencias de los usuarios, políticas de moderación de contenidos o principios de seguridad— con el fin de minimizar los riesgos.
El año 2025 ha visto la aparición de agentes capaces de realizar un verdadero trabajo cognitivo; ya no se escribe código informático como antes.
En 2026 probablemente surgirán sistemas capaces de descubrir nuevas ideas.
En 2027 podrían llegar los agentes: robots capaces de realizar tareas en el mundo real.
Los agentes son modelos de IA, conectados a diversas herramientas e interfaces (motores de búsqueda, bases de datos, etc.), capaces de razonar y actuar sobre su entorno para resolver tareas de forma autónoma o en interacción con un humano. Si bien la duración de las tareas realizadas de esta manera ha aumentado considerablemente en los últimos meses, los agentes, al igual que el entorno en el que operan, aún deben evolucionar para prolongar aún más su capacidad de trabajo autónomo 4.
Muchas más personas serán capaces de crear software y arte.
Pero la demanda de ambos seguirá siendo enorme y los expertos probablemente seguirán siendo mucho mejores que los profanos, siempre que adopten estas nuevas herramientas. En general, la capacidad de una persona para hacer mucho más en 2030 que en 2020 marcará un cambio profundo. Muchos sabrán aprovecharlo.
En los aspectos más fundamentales, es posible que la década de 2030 no sea tan diferente de la actual. La gente seguirá queriendo a sus familias, expresando su creatividad, jugando y nadando en los lagos.
Pero en otros aspectos, también muy importantes, es probable que la década de 2030 sea radicalmente diferente de todo lo que hemos conocido hasta ahora.
No sabemos hasta dónde podremos superar la inteligencia humana, pero pronto lo descubriremos.
En la década de 2030, la inteligencia y la energía —las ideas y la capacidad de llevarlas a la práctica— serán extremadamente abundantes. Estos dos factores han sido los principales límites del progreso humano durante mucho tiempo; con inteligencia y energía abundantes —sin olvidar una buena gobernanza—, en teoría podremos conseguir todo lo demás.
La cuestión filosófica de la posibilidad de «salir» de la política se debate en Silicon Valley. Al otorgar un poder casi mágico a una inteligencia racional, una energía abundante y una buena gobernanza cuya naturaleza no especifica, el fundador de OpenAI excluye de facto toda voluntad humana. Esta profecía esconde un programa: el discreto fin de la democracia. Como recordaba Giuliano da Empoli: «Predecir el futuro es siempre un acto de poder, pero imaginar futuros alternativos es siempre un acto de libertad».
Ya vivimos con una inteligencia digital increíble.
Tras un impacto inicial, la mayoría de nosotros nos hemos acostumbrado a ella.
Muy rápidamente, pasamos del asombro de que una IA pueda escribir un párrafo magnífico a la expectativa de que pueda escribir una novela entera; del asombro de que pueda realizar un diagnóstico médico salvador a la expectativa de que descubra los remedios; del asombro de que pueda escribir un pequeño programa informático a la expectativa de que pueda crear toda una empresa.
Así es como avanza la singularidad: las maravillas se convierten en rutina y luego en conocimientos básicos.
Algunos científicos ya afirman que son dos o tres veces más productivos que antes gracias a la IA.
La IA más avanzada es fascinante en muchos aspectos, pero en realidad no es tan importante como el hecho de que podamos utilizarla para acelerar la propia investigación en IA.
Podríamos descubrir nuevos sustratos de cálculo, mejores algoritmos —y quién sabe qué más—. Si podemos realizar diez años de investigación en uno o en un mes, el ritmo del progreso será evidentemente muy diferente.
El futuro al que se refiere Altman es un entorno en el que el investigador gestiona sistemas multiagente que pueden explorar rápidamente y de forma autónoma una multitud de hipótesis y pistas en paralelo. DeepMind publicó en junio un documento relevante sobre este tema, fruto de la colaboración con el investigador Terence Tao 5, medalla Fields en 2006. Según él: «Es tentador simplificarlo en una narrativa de suma cero, con ‘ganadores’ y ‘perdedores’, pero yo creo que, por el contrario, es muy positivo que diferentes enfoques puedan complementarse aquí para hacer avanzar las matemáticas. Las ventajas de un enfoque tipo AlphaEvolve residen más en la amplitud que en la profundidad: se puede utilizar AlphaEvolve para revisar grandes conjuntos de problemas con el fin de identificar áreas en las que se podría mejorar la literatura, y los expertos humanos (quizás ellos mismos asistidos por ordenadores) pueden entonces centrar su atención en esos problemas para hacer avanzar aún más la investigación».
A partir de ahora, las herramientas que ya hemos construido nos ayudarán a descubrir nuevos conocimientos científicos y a diseñar mejores sistemas de IA. Por supuesto, no es lo mismo que un sistema de IA que actualiza su propio código de forma totalmente autónoma, pero es una versión embrionaria de la mejora recursiva.
También entran en juego otros bucles de refuerzo automático. La creación de valor económico ha desencadenado una dinámica de construcción de infraestructuras para hacer funcionar estos sistemas de IA cada vez más potentes.
Diferentes regiones del mundo se han lanzado a una carrera por las infraestructuras (centros de datos, infraestructuras energéticas). La demanda mundial de energía para la IA en los centros de datos podría alcanzar los 68 GW de aquí a 2027 y los 327 GW de aquí a 2030 6. Cabe recordar que la capacidad total mundial de los centros de datos era de sólo 88 GW en 2022.
Los robots capaces de fabricar otros robots —y, en cierta medida, centros de datos capaces de fabricar otros centros de datos— están a la vuelta de la esquina.
La IA ya se utiliza para acelerar su propia cadena de producción. Así, se utiliza para optimizar la eficiencia energética de los centros de datos 7, mejorar el diseño de los semiconductores 8 o programar las GPU 9 de forma más eficaz.
Si el primer millón de robots humanoides se fabrica de forma tradicional e industrial, pero los robots son capaces de gestionar toda la cadena de suministro (extraer y refinar minerales, conducir camiones, hacer funcionar fábricas, etc.) para producir más robots, que a su vez construirán más fábricas de chips, centros de datos, etc., el ritmo del progreso cambiará radicalmente.
A medida que se automatice la producción de centros de datos, el coste de la inteligencia debería acabar convergiendo con el coste de la electricidad.
El coste actual de la IA se puede desglosar en primer lugar entre las siguientes variables: electricidad, salarios de los equipos de I+D, GPU y aceleradores especializados, y otros materiales para servidores.
En la hipótesis planteada por Altman, en la que la cadena de producción de la IA se transformaría en una mera commodity o un producto estandarizado como consecuencia del propio avance de la IA, sólo quedaría en la ecuación el coste de la energía 10.
(A menudo se pregunta cuánta energía consume una consulta de ChatGPT; de media, una consulta consume alrededor de 0,34 vatios-hora, lo que equivale al consumo de un horno en poco más de un segundo o al de una bombilla de alta eficiencia en unos minutos. También consume alrededor de 0,000085 galones de agua, lo que equivale aproximadamente a una quinceava parte de una cucharadita).
Los paréntesis se utilizan aquí para resaltar este extracto, que Sam Altman destaca explícitamente en X como un pasaje clave de su texto.
No se especifican la metodología utilizada para calcular estas cifras ni los modelos a los que se refieren.
Además, presentar el consumo de energía de la IA a partir de una consulta es engañoso si no se especifica el número total de consultas realizadas, teniendo en cuenta que la posibilidad de realizar un número ilimitado de consultas a ChatGPT es precisamente lo que vende OpenAI en sus diversas suscripciones.
El ritmo del progreso tecnológico seguirá acelerándose y la gente seguirá adaptándose a casi todo. Sin duda habrá dificultades, como la desaparición de ciertas categorías de empleos, pero, por otro lado, el mundo se enriquecerá tan rápidamente que podremos plantearnos nuevas políticas antes inimaginables.
Por el momento no existe un consenso económico sobre el impacto de la IA a corto y medio plazo en el mundo laboral. Los economistas ofrecen estimaciones cuantitativas variadas 11.
Probablemente no adoptaremos un nuevo contrato social de la noche a la mañana, pero cuando miremos atrás dentro de unas décadas, los cambios progresivos habrán producido algo importante.
La transformación social es el núcleo del proyecto esbozado en este texto, ya que Altman ha declarado que, en su opinión, la IA hace indispensable un «nuevo contrato social».
Él mismo financió experimentos de renta básica universal durante tres años 12.
Recientemente también expresó su opinión de que siempre habrá nuevos puestos de trabajo, pero que la organización de la sociedad debe debatirse y replantearse en profundidad 13.
En su texto más canónico, Altman presentaba la siguiente idea: reformar el capitalismo en la era de la IA gravando principalmente el capital —las empresas y la propiedad inmobiliaria— en lugar del trabajo. Estos impuestos alimentarían un «American Equity Fund» que redistribuiría cada año a los ciudadanos acciones de empresas y liquidez, dándoles así una parte del crecimiento económico.
Si la historia nos sirve de guía, descubriremos nuevas actividades y nuevos deseos, y asimilaremos rápidamente las nuevas herramientas —el cambio de empleo tras la revolución industrial es un buen ejemplo reciente—. Las expectativas aumentarán, pero también las capacidades, y todos tendremos acceso a cosas mejores. Construiremos maravillas cada vez más grandes los unos para los otros. Los seres humanos tenemos una ventaja importante y duradera sobre la IA: somos capaces de preocuparnos por los demás, por sus pensamientos y acciones, y nos importan poco las máquinas.
Un campesino de hace mil años miraría lo que hacemos hoy y diría que tenemos trabajos ficticios, pensando que simplemente jugamos para entretenernos, ya que tenemos qué comer y acceso a un lujo inimaginable para él. Espero que dentro de mil años miremos los trabajos de hoy y los consideremos totalmente «ficticios». Y no me cabe duda de que los trabajos del futuro parecerán increíblemente importantes y satisfactorios a quienes los desempeñen.
El ritmo al que se lograrán nuevas maravillas será inmenso.
Es difícil imaginar hoy lo que habremos descubierto de aquí a 2035; tal vez pasaremos de resolver la física de altas energías un año a la colonización espacial al año siguiente; o de un avance en la ciencia de los materiales un año a interfaces cerebro-ordenador de alta velocidad al año siguiente.
Muchas personas llevarán una vida similar a la actual, pero algunas sin duda optarán por «conectarse».
En inglés, en el texto original, la palabra «wonders» podría traducirse también por «milagros» o «prodigios». En una de sus primeras entradas en el blog, Altman escribía lo siguiente: «Las personas que tienen éxito crean empresas. Las que tienen aún más éxito crean países. Y las que tienen más éxito que las demás crean religiones» 14.
Cuando miramos hacia el futuro, todo esto parece difícil de concebir. Vivir esta evolución probablemente parecerá impresionante, pero manejable. Desde un punto de vista relativista, la singularidad se produce poco a poco y la fusión se lleva a cabo lentamente. Estamos subiendo la larga curva del progreso tecnológico exponencial; siempre parece vertical cuando miramos hacia adelante y plana cuando miramos hacia atrás, pero es una curva continua. (Piense en 2020 y en cómo habría parecido la idea de acercarse a la inteligencia artificial general en 2025, en comparación con lo que realmente han sido estos últimos cinco años).
Hay retos importantes que afrontar junto con las enormes oportunidades. Debemos resolver los problemas de seguridad, tanto técnicos como sociales, pero después es fundamental hacer que la superinteligencia sea ampliamente accesible, dadas sus implicaciones económicas. Por lo tanto, el mejor camino podría ser el siguiente:
1 — Resolver el problema de la alineación, es decir, garantizar de forma sólida que los sistemas de IA aprendan y actúen de acuerdo con lo que queremos colectivamente a largo plazo (las noticias en las redes sociales son un ejemplo de IA mal alineada; estos algoritmos son extremadamente eficaces para hacerte seguir scroleando y comprenden claramente sus preferencias a corto plazo, pero explotan un sesgo de sus cerebro que eclipsa sus preferencias a largo plazo).
2 — Esforzarse por que la superinteligencia sea barata, ampliamente accesible y no se concentre en manos de un individuo, una empresa o un país. La sociedad es resiliente, creativa y se adapta rápidamente. Si somos capaces de movilizar la voluntad y la sabiduría colectivas, aunque cometamos muchos errores y algunas cosas salgan mal, aprenderemos y nos adaptaremos rápidamente. Sabremos cómo aprovechar esta tecnología para maximizar los beneficios y minimizar los riesgos. Me parece muy importante conceder mucha libertad a los usuarios, dentro de los amplios límites definidos por la sociedad. Cuanto antes empiece el mundo a debatir estos límites y la forma de definir una alineación colectiva, mejor.
Esta noción de libertad del usuario se refleja en el debate sobre las estrategias de implementación de los modelos, en particular el código abierto o las API cerradas. Recientemente, Altman sugirió que OpenAI había estado en el lado equivocado de la historia en lo que respecta al código abierto y que se iba a anunciar un modelo abierto 15.
Nosotros —y me refiero a todo el sector, no sólo a OpenAI— estamos construyendo un cerebro para el mundo.
Será extremadamente personalizado y fácil de usar para todos; sólo estaremos limitados por las buenas ideas. Durante mucho tiempo, los técnicos de las startups se burlaron de las «personas con ideas»: aquellas que tenían una idea pero buscaban un equipo para llevarla a cabo.
Hoy me parece que ha llegado su momento de gloria.
Sam Altman fue presidente de la incubadora californiana Y Combinator hasta 2019. También anticipó la idea de la próxima aparición de startups valoradas en mil millones de dólares (unicornios) creadas por una sola persona, gracias a la IA 16.
OpenAI es hoy muchas cosas, pero ante todo somos una empresa de investigación en superinteligencia.
Todavía nos queda mucho trabajo por delante, pero la mayor parte del camino ya está iluminado —las zonas oscuras se están reduciendo rápidamente—. Estamos extraordinariamente agradecidos de poder hacer lo que hacemos.
Una inteligencia a un coste insignificante está al alcance de la mano.
Puede parecer una locura, pero si en 2020 le hubiéramos dicho dónde estaríamos hoy, seguramente habría parecido aún más descabellado que nuestras predicciones actuales para 2030.
Ojalá nuestro camino hacia la superinteligencia sea fluido, exponencial y sin contratiempos.
Notas al pie
- Sam Altman, X, 10 de junio de 2025.
- Véase por ejemplo: Yoshua Bengio, « My testimony in front of the U.S. Senate – The urgency to act against AI threats to democracy, society and national security », 25 de julio de 2023.
- Fireside Chat with Ilya Sutskever and Jensen Huang : AI Today and Vision of the Future, NVIDIA On-Demand, marzo de 2023.
- Measuring AI Ability to Complete Long Tasks, METR, 19 de marzo de 2025.
- AlphaEvolve : A Gemini-powered coding agent for designing advanced algorithms, Google DeepMind, 14 de mayo de 2025.
- AI to drive 165 % increase in data center power demand by 2030, Goldman Sachs, 4 de febrero de 2025.
- Richard Evans, Jim Gao, DeepMind AI Reduces Google Data Centre Cooling Bill by 40 %, Google DeepMind, 20 de julio de 2016.
- John Sullivan, AI slashes cost and time for chip design, but that is not all, Princeton Engineering, 6 de enero de 2025.
- KernelBench : Can LLMs Write Efficient GPU Kernels ?
- How Much Does It Cost to Train Frontier AI Models ?, Epoch AI, 3 de junio de 2024.
- Joe Seydl, Jonathan Linden, « How AI can boost productivity and jump start growth », J.P.Morgan, 16 de julio de 2024.
- Findings | OpenResearch.
- Alexandra Bustos Iliescu, AI and the Social Contract : How Sam Altman Envisions Tomorrow’s World, AI for Good, 15 de julio de 2024.
- Sam Altman, Successful People, 8 de marzo de 2013.
- Will Knight, Sam Altman Says OpenAI Will Release an ‘Open Weight’ AI Model This Summer, WIRED, 31 de marzo de 2025.
- Paolo Confino, « Could AI create a one-person unicorn ? Sam Altman thinks so—and Silicon Valley sees the technology ‘waiting for us’ », Fortune, 4 de febrero de 2024.