¿Qué significa DeepSeek para OpenAI y para Estados Unidos?

En pocas palabras: la carrera por la «supremacía de la IA» ha terminado por ahora — y Estados Unidos no ha ganado—. 

Nos centramos en DeepSeek, pero en las últimas semanas ha habido al menos cuatro innovaciones impresionantes de laboratorios o empresas chinas que desmienten cualquier afirmación de que Estados Unidos tenga una ventaja decisiva.

Empecemos por el caso DeepSeek. ¿Cómo lo comprende?

Según la información de que disponemos, al parecer DeepSeek se diseñó originalmente para el comercio cuantitativo y no para los LLM. Sin embargo, consiguieron producir un modelo casi de vanguardia utilizando sólo alrededor de 1/50 de los costes de formación de modelos anteriores, lo que lo situó instantáneamente en la liga de las principales empresas estadounidenses como OpenAI, Google y Anthropic, tanto en términos de rendimiento como de innovación. Unas semanas más tarde, presentaron una alternativa competitiva (aunque insuficiente 1) al o1 de OpenAI, denominada r1. Al ser más abierta en su proceso interno que o1, muchos investigadores ya la prefieren a la o1 de OpenAI, que se presentó a bombo y platillo en septiembre de 2024. 

¿Qué otras innovaciones importantes han surgido en China en los últimos días?

ByteDance, la empresa matriz de TikTok, acaba de lanzar una tercera bomba: un nuevo modelo cinco veces más barato que DeepSeek y más de 200 veces más eficiente que el modelo o1 2. Ayer, un laboratorio de Hong Kong añadió un cuarto avance, produciendo una versión pasable pero menos potente de r1 con aún menos datos de entrenamiento 3.

La carrera por la «supremacía de la IA» ha terminado por ahora — y Estados Unidos no ha ganado—.

GARY MARCUS

Se habla de un «momento Sputnik». ¿Está ganando China la carrera de la IA? 

No lo creo. Estos avances no significan que China haya ganado la carrera de la IA, ni siquiera que haya tomado la delantera. Las empresas estadounidenses incorporarán estos nuevos resultados y seguirán produciendo sus propias innovaciones.

Si miramos las cosas con realismo, podemos considerar que estamos convergiendo rápidamente hacia una igualdad. Sin embargo, existe una victoria táctica para China, que parece estar consiguiendo los mismos resultados que las grandes empresas estadounidenses, sin los cientos de miles de semiconductores de gama alta Nvidia H100.

Entonces, ¿está más abierta la carrera?

Yo creo que sí. Otros países, también en Europa, también podrían ponerse al día, porque los LLM se han abaratado mucho y, en consecuencia, la necesidad de vastas redes de equipos especializados se ha desvanecido un poco. Prácticamente ya no hay brecha; las nuevas pistas técnicas tienen una vida muy corta, que se mide en meses o incluso semanas, no en años.

Si miramos las cosas con realismo, podemos considerar que estamos convergiendo rápidamente hacia la igualdad en términos de IA.

GARY MARCUS

¿Le sorprende esta innovación? Hace dos años parece que usted ya apuntaba en esta dirección. En un artículo que habíamos traducido, ofrecía una crítica sistemática del modelo de desarrollo de Sam Altman.

Hace un año hice una serie de predicciones en un tuit que todo el mundo puede leer. Apostaba por el hecho de que, a finales de 2024, habríamos asistido a la aparición de entre 7 y 10 modelos de inteligencia artificial de nivel GPT-4, sin ningún gran avance o versión GPT-5 revolucionaria, o incluso una versión GPT-5 decepcionante. Se preveía que el mercado estaría marcado por la guerra de precios, la ausencia de una ventaja competitiva real significativa para las empresas que parecían llevar la delantera y la ausencia de una solución sólida a los problemas de alucinación de los modelos. Se espera que la adopción por parte de las empresas sea modesta y sostenible, pero los beneficios seguirán siendo limitados, repartidos entre los 7-10 principales actores del sector. Estas previsiones parecen correctas hoy, y observo que todavía no tenemos una GPT-5.

¿Qué efecto tendrán estas evoluciones para OpenAI y en la nueva iniciativa Stargate anunciada por Donald Trump al día siguiente de su investidura?

En cuanto a la primera pregunta, los recientes avances de China son muy malas noticias para OpenAI. Hace dos años, OpenAI dominaba el mundo de la IA, acababa de lanzar ChatGPT y de firmar un importante acuerdo con Microsoft. En aquel momento, ningún otro actor tenía un modelo que se aproximara al nivel de GPT-4. La cobertura mediática de OpenAI era omnipresente y la adopción por parte de los clientes, rápida. OpenAI podía fijar sus precios casi a voluntad, beneficiándose del interés mundial y de la ausencia de competencia seria. Sam Altman era admirado casi universalmente. Muchos imaginaban ingresos casi infinitos y beneficios colosales para la empresa.

Mirando atrás, hoy nos damos cuenta de que lo que hacía único a OpenAI es mucho menos obvio.

¿En qué sentido? ¿Cree que OpenAI está perdiendo terreno?

Ya no está claro que representen el estado del arte, y si OpenAI sigue teniendo una ventaja técnica decisiva, no es inmediatamente evidente. En su mayoría, la competencia se ha puesto al día y, en muchos casos, ofrece precios más competitivos. Los clientes están considerando alternativas y OpenAI ya no se considera el proveedor preferido. La relación entre OpenAI y Microsoft se ha deteriorado. La credibilidad de Sam Altman se ha erosionado; su último proyecto de infraestructura se ridiculiza abiertamente… Decenas de empleados, entre ellos al menos dos cofundadores y el director técnico, han abandonado la empresa, algunos para unirse a rivales como Anthropic, otros para lanzar sus propias iniciativas.

Si OpenAI sigue teniendo una ventaja técnica decisiva, no es inmediatamente evidente. La relación entre OpenAI y Microsoft se ha deteriorado. La credibilidad de Sam Altman se ha erosionado; su último proyecto de infraestructura se ridiculiza abiertamente…

GARY MARCUS

GPT-5 aún no ha llegado, y cuando OpenAI lanza nuevos modelos, sus competidores no tardan en ponerse al día. No hay ninguna ventaja competitiva evidente. Un rumor que escuché en Davos, que concuerda con algunos artículos del Wall Street Journal y otra fuente bien informada que consulté recientemente, sugiere que OpenAI está luchando ahora por desarrollar GPT-5, centrándose en cambio en la interfaz de usuario en un intento de encontrar una ventaja diferente, menos técnica.

Mientras tanto, los ingresos —en torno a 5.000 millones de dólares— siguen siendo modestos en relación con los gastos, que han sido mucho mayores; no ha surgido realmente ninguna aplicación emblemática que justifique los costes. Los ahorros simplemente ya no cuadran, y en esta fase DeepSeek parece más abierto e innovador que OpenAI.

Esta toma de conciencia sobre DeepSeek ya se está extendiendo. Altman ha bajado los precios dos veces en los últimos días, y ya sabemos por su propio testimonio que OpenAI estaba perdiendo dinero con ChatGPT Pro. Como Grady Booch observó en X: «Ahora perderá dinero aún más rápido».

Lo he dicho antes, y lo diré de nuevo: OpenAI bien podría convertirse en el WeWork de la inteligencia artificial.

© Ryoji Ikeda

¿Cuáles son las implicaciones para Nvidia? Con unas pérdidas de 600.000 millones, ayer se produjo la mayor destrucción de valor bursátil de la historia en un solo día. ¿Cree que se trata de una sacudida de estabilización o del comienzo de un colapso mayor?

Nvidia podría sufrir pronto un serio revés, por dos razones. En primer lugar, los resultados de DeepSeek sugieren que los modelos lingüísticos (LLM) podrían entrenarse de forma mucho más eficiente en el futuro. Hagamos una analogía. Nvidia se hizo rica vendiendo «palas» —hay que reconocer que excepcionalmente bien concebidas— en plena fiebre del oro. Pero ahora podríamos encontrarnos de repente en un mundo en el que estas palas extremadamente refinadas sean mucho menos necesarias. DeepSeek parece estar demostrando que es posible prescindir de los chips de gama alta de Nvidia. Los dispositivos transportados bajo estrictas medidas de seguridad y comercializados en el mercado negro podrían pasar de repente de ser imprescindibles a meras «opciones interesantes». Por último, la construcción de infraestructuras de centros de datos y energía por valor de 500.000 millones de dólares para albergar estas vastas colecciones de chips empieza a parecer mucho menos sensata.

OpenAI podría convertirse en el WeWork de la inteligencia artificial.

GARY MARCUS

Si todo esto es cierto —y puede que estemos lejos de tener toda la información necesaria para analizar esta secuencia en profundidad—, ¿no deberíamos deducir que la Ley CHIPS, diseñada por Joe Biden y Jake Sullivan para frenar a China en la carrera de la IA, podría convertirse en uno de los mayores reveses de la historia?

Intenté advertir a varias personas de la administración Biden de esta posibilidad en el verano de 2023. No tuvo ninguna repercusión. Finalmente redoblaron sus esfuerzos, incluso a través de una de las últimas órdenes ejecutivas de Biden.

Mi preocupación era que la Ley CHIPS animara a China a desarrollar sus propios chips. En efecto, la Casa Blanca había previsto este riesgo, y China ya ha invertido miles de millones en este objetivo. Sin embargo, muchos en Washington parecían considerar el control de las exportaciones como una táctica dilatoria urgente, quizás con la esperanza de que permitiera a Estados Unidos ganar unos años cruciales y asegurarse una ventaja permanente.

Yo nunca me creí este argumento, porque pensaba que llegar primero a GPT-5 podría suponer una ventaja a la hora de generar textos estandarizados de mejor calidad, pero desde luego no para ganar superioridad militar. Llegar el primero sencillamente no iba a importar a largo plazo, como tampoco iba a importar a medio o largo plazo el hecho de que una empresa estadounidense llegara primero a GPT-4. Como hemos visto esta semana, esa ventaja duró poco.

¿Cómo entiende la posición de la administración Biden? ¿Hay alguna continuidad con la administración Trump?

La administración Biden se dejó llevar por una especie de entusiasmo: parecía dispuesta a apostar enormemente por una ventaja a corto plazo, incluso si eso significaba tensar las relaciones con Pekín o estimular la futura innovación de China en la fabricación de semiconductores. El apoyo de Trump al programa Stargate forma parte, al parecer, del mismo razonamiento mágico sobre los modelos lingüísticos, basado en la esperanza de una supremacía que quizás nunca llegue a materializarse.

Sin embargo, como hemos visto en las últimas semanas, la ventaja inicial de Silicon Valley en modelos lingüísticos a gran escala se ha evaporado rápidamente, a pesar de los controles a la exportación.

Mi preocupación era que la Ley CHIPS animara a China a desarrollar sus propios chips. En efecto, la Casa Blanca había previsto este riesgo, y China ya ha invertido miles de millones en este objetivo.

GARY MARCUS

¿A qué cree que se debe esto?

Lo que ha ocurrido no es —como algunos habían imaginado— que China haya producido rápidamente equivalentes a los chips Nvidia H100 —un proyecto a largo plazo, aún lejos de completarse—, sino porque ha encontrado la forma de eludirlos.

Hemos empujado involuntariamente su nivel técnico hacia arriba. En el Financial Times, Angela Zhang explicaba: «Los avances de China en eficiencia no son un accidente. Son una respuesta directa a las crecientes restricciones a la exportación impuestas por Estados Unidos y sus aliados. Al limitar el acceso de China a los chips avanzados de IA, Estados Unidos ha estimulado involuntariamente su innovación».

Y quizás también ha debilitado a nuestra mayor empresa de semiconductores, Nvidia. A cambio de poco más que una breve subida del precio de sus acciones.

Por supuesto, como señalaba Miles Brundage en una entrevista esta semana al defender los controles a la exportación, el juego está lejos de haber terminado, y es posible que tener un gran número de chips H100 o Blackwell siga siendo muy importante. 

¿No hay argumentos para defender el control de las exportaciones? Esta semana, Miles Brundage decía con razón: «Está claro que hay muchas formas de extraer más rendimiento de los chips, y DeepSeek, por necesidad, se ha visto obligada a descubrir algunas de estas técnicas quizás más rápidamente de lo que lo habrían hecho las empresas estadounidenses. Pero eso no significa que no se beneficiarían de tener muchas más. No significa que puedan pasar inmediatamente de o1 a o3 u o5 como pudo hacer OpenAI, porque tienen una flota de chips mucho mayor.» ¿Qué opina usted?

Estoy de acuerdo con Brundage en que el suministro de chips sigue siendo importante, pero también está claro que las reglas del juego han cambiado.

Su punto de vista es válido, y recomiendo leer toda su entrevista, que es una excelente defensa de los controles a la exportación y ofrece un equilibrio a mis argumentos. Dicho esto, creo que subestima los avances en software y sobrestima la importancia de la cantidad de hardware; le invito a juzgar por sí mismo.

Hay muchas razones por las que China se ha puesto al día tan rápidamente. Una de ellas, que merece una investigación del Congreso, es la decisión de Meta de hacer que sus LLM sean de código abierto.

GARY MARCUS

¿Qué implica esto para los consumidores? 

Los grandes beneficiados podrían ser los consumidores: en la medida en que los LLM son útiles a pesar de sus problemas de fiabilidad, serán mucho más baratos.

Dicho esto, más barato no significa necesariamente mejor. Si la carrera de los LLM sigue sin estar regulada en Estados Unidos y estos modelos continúan alejados de la realidad, los precipitados ciclos de desarrollo y la intensa competencia mundial podrían exacerbar los riesgos de desinformación, respuestas sesgadas, violaciones de la privacidad y abusos por parte de agentes malintencionados. Todos podríamos perder —y perder más rápido—.

Más allá de la cuestión de los semiconductores, ¿cómo ha conseguido China ponerse al día tan rápidamente?

Hay muchas razones por las que China se ha puesto al día tan rápidamente. Una de ellas, que merece una investigación del Congreso, es la decisión de Meta de hacer que sus LLM sean de código abierto. La pregunta que debería plantearse el Congreso es: ¿hasta qué punto fue decisiva esta decisión para que China recuperara su retraso? ¿Estaríamos aún por delante si no se hubiera hecho? Al parecer, DeepSeek se inició en LLM reentrenando el modelo Llama de Meta.

Apostar tan fuerte por Sam Altman, como hizo la Casa Blanca la semana pasada, y como han hecho otros antes, también podría resultar un error en retrospectiva. Se han planteado muchas dudas sobre su credibilidad; figuras importantes como Sutskever, Murati y Amodei han abandonado OpenAI, y Altman ha ofrecido escasos conocimientos técnicos. Aunque puede que sea un maestro comunicador y vendedor, Musk tiene razón en que Estados Unidos no debería depender tanto de él y no debería haberle dado tanto apoyo con tan pocas garantías.

En un tuit brutal y viral que resume lo que pienso al respecto, el periodista Ryan Grim escribió ayer que el Gobierno estadounidense —con la notable excepción de Lina Khan— había errado repetidamente al ceder ante las grandes empresas y no hacer lo suficiente para fomentar la innovación independiente.

Creo que debemos escuchar sus argumentos: 

«El contrato social de Silicon Valley, endilgado al público por Obama, luego Trump, luego Biden (con la excepción de Lina Khan) y ahora Trump de nuevo, era claro: vamos a dejar que estos hombres se conviertan en las personas más ricas de la historia de la humanidad y, a cambio, desarrollarán una industria tecnológica que asegurará la hegemonía estadounidense durante un siglo. Cumplieron la primera parte, luego construyeron monopolios para tratar de alejar a la competencia en lugar de seguir innovando al más alto nivel, antes de verse superados por las empresas chinas, tanto en inteligencia artificial como en redes sociales. Son los perdedores que creíamos que eran —y ahora nosotros también—».

¿Hay alguna esperanza de que Estados Unidos recupere una clara ventaja?

La única esperanza de que Estados Unidos recupere una ventaja clara es que una agencia gubernamental, una empresa estadounidense o un laboratorio académico piense más allá de los grandes modelos lingüísticos (LLM). La dinámica en torno a los LLM ya se conoce demasiado bien como para que alguien pueda obtener una ventaja decisiva en este campo. Es más, como vengo sosteniendo desde hace años, sobre todo en el artículo que tuvieron la amabilidad de publicar, los LLM son demasiado opacos, complejos y difíciles de depurar y verificar. La solución está en otra parte; apostar nuestro futuro sólo a esta idea es un error.

La carrera hacia la Inteligencia Artificial Generalizada (AGI) no la ganará el país con más chips, sino el que mejor promueva la innovación real. Podría ser Estados Unidos, China o quizás otro país menos encerrado en la ortodoxia de los LLM y más dispuesto a apostar fuerte por las nuevas ideas.

Los LLM son demasiado opacos, complejos y difíciles de depurar y verificar. La solución está en otra parte; apostar nuestro futuro sólo a esta idea es un error.

GARY MARCUS

¿Cuáles piensa que serán los próximos pasos?

Mi apuesta es que, en igualdad de condiciones, el estado en que nos encontraremos dentro de tres años se puede desglosar en tres puntos.

En primer lugar, los avances serán más incrementales que antes y se igualarán rápidamente. Acabará surgiendo GPT-5 o un modelo igual de impresionante, quizás liderado por OpenAI, una empresa china o incluso un competidor como Google. Sea cual sea el resultado, la ventaja será efímera.

Después, los modelos seguirán haciéndose más eficaces y menos costosos, pero persistirán los problemas de alucinaciones y fiabilidad.

Por último, contrariamente a los rumores alimentados por Silicon Valley, ningún país alcanzará la AGI de aquí a finales de 2027.

Estoy convencido de una cosa: la interminable carrera en torno a la AGI agotará recursos que podrían dedicarse a desarrollar ideas más originales.

Notas al pie
  1. Véase el análisis de Jenia Jitsev en X.
  2. Según el análisis de Deedy Das: Doubao-1.5-pro de ByteDance alcanza un rendimiento GPT-4 en pruebas de referencia con un coste 50 veces inferior. Sólo cuesta 0,022 dólares por millón de tokens almacenados en caché, 0,11 dólares por millón de tokens de entrada y 0,275 dólares por millón de tokens de salida: cinco veces más barato que DeepSeek y más de 200 veces más eficiente que el modelo o1. Admite contextos ampliados de 32k a 256k gracias a una arquitectura MoE (Mixture of Experts) dispersa.
  3. Véase el análisis de Junxian He en X.
Créditos
Entrevista extraída de la última publicación de Gary Marcus en su Substack, The race for «AI Supremacy» is over - at least for now.