La primera semana del segundo mandato de Trump estuvo marcada por el anuncio de nuevas e importantes inversiones en inteligencia artificial. Se espera que sólo el proyecto Stargate —una empresa conjunta entre OpenAI, SoftBank, Oracle y MGX— inyecte 500.000 millones de dólares de aquí a 2029 en megacampus que albergarán centros de datos que se utilizarán para entrenar y ejecutar nuevos modelos de IA.
- En septiembre, el cofundador y presidente de Oracle, Larry Ellison, declaró: «La IA es una carrera de Fórmula 1. Todo el mundo quiere ser el primero en una de las carreras. Todo el mundo quiere ser el primero en una de las áreas de aplicación de la IA. ¿Cuánto crees que se necesita para entrar en la carrera y crear un modelo de IA competitivo? ¿10.000 millones? ¿100.000 millones? Sí, 100.000 millones y puedes unirte a la carrera. Pocas empresas, pocos países pueden entrar en la carrera. Pero eso está muy bien para nosotros».
- Pero si la tendencia mostrada por China continúa, la industria tecnológica podría asistir a una inversión del modelo económico, con una reducción de los costes fijos de desarrollo de modelos y un aumento de los costes marginales asociados a su utilización 1.
Al anunciar que había gastado «sólo» 5,576 millones de dólares en el entrenamiento de la tercera versión de su principal modelo lingüístico de IA, lanzado en diciembre, la empresa china DeepSeek ha provocado una sacudida en el sector 2. Según datos de Epoch AI, se necesitaron casi 80 millones de dólares para entrenar GPT-4, la última versión del modelo de OpenAI.
Sin embargo, el rendimiento de DeepSeek —que ha hecho su modelo de código abierto— supera al de ChatGPT en varias áreas.
- Las puntuaciones de rendimiento de la IA china superan a las de sus principales competidores —Claude-3.5, GPT-4o, Llama3.1, Qwen2.5— en idiomas (chino e inglés), matemáticas y codificación.
- Si DeepSeek v3 supera a los otros modelos que también dan acceso público a su código, también sería mejor que modelos cerrados como GPT-4.
- Sin embargo, la tercera versión de la IA se entrenó en sólo dos meses con chips Nvidia H800, una versión menos sofisticada que las utilizadas por sus competidores, dedicados al mercado chino debido a los controles de exportación establecidos por la administración Biden.
¿Por qué DeepSeek es más potente y menos caro que GPT-4?
- Algunos analistas creen que las restricciones impuestas por Estados Unidos al hardware desarrollado por empresas estadounidenses para entrenar modelos de IA habrían tenido el efecto contrario, haciendo que las empresas chinas «estimularan la innovación» 3.
- La tecnología que hay detrás de los modelos lingüísticos a gran escala está mejorando exponencialmente: 70 IA rinden ahora mejor que la primera GPT-4 de marzo de 2023, que fue una revolución cuando se lanzó 4.
- Según Sam Altman, CEO de OpenAI, la industria se acerca rápidamente a la «inteligencia artificial general», la próxima frontera del sector: IA capaz de realizar tareas cognitivas al mismo nivel que los humanos 5.
Notas al pie
- The Economist, Chinese AI is catching up, posing a dilemma for Donald Trump, 23 de enero de 2025.
- DeepSeek-V3 Technical Report, 27 de diciembre de 2024.
- Angela Zhang, « Chinese start-ups such as DeepSeek are challenging global AI giants », Financial Times, 23 de enero de 2025.
- Simon Willison, Things we learned about LLMs in 2024, 31 de diciembre de 2024.
- Scott Rosenberg y Alison Snyder, « China’s AI keeps getting better — and cheaper », Axios, 17 de enero de 2025.