Hoy, jueves 7 de agosto, a las 19:00 (hora de París), OpenAI ha lanzado GPT-5, la última versión, presentada como la más potente, del chatbot de IA más utilizado del mundo.

El 5 de agosto, en una publicación en X, Sam Altman anunció el lanzamiento de dos modelos de código abierto de ChatGPT (120B y 20B), «fruto de miles de millones de dólares en investigación».

El día de su lanzamiento, gpt-oss-120B se situó en el tercer puesto de la clasificación de modelos abiertos del LLM Leaderboard, una clasificación publicada por Artificial Analysis que evalúa los modelos pareto-óptimos según un compromiso entre rendimiento, costo y eficiencia.

  • El estudio de esta clasificación revela una tendencia de fondo: muestra que la implicación de las empresas estadounidenses de IA en la carrera por el código abierto es ahora estratégica. 1
  • Antes de esta publicación, 15 de los 20 mejores modelos de código abierto de la clasificación habían sido desarrollados por empresas chinas. Solo 4 procedían de Estados Unidos y uno de Europa, lo que refleja el dominio del ecosistema chino en materia de IA de código abierto.
  • El entrenamiento final del modelo gpt-oss-120B habría costado entre 5 y 10 millones de dólares; el del gpt-oss-20B es aproximadamente 10 veces menos costoso. Este presupuesto de cálculo es del mismo orden de magnitud que el del gpt-3 (2020), lo que confirma así que la eficiencia (relación costo-rendimiento) algorítmica y material se multiplica por tres o cinco al año.
  • Estos modelos de razonamiento tienen arquitecturas estándar denominadas Mixture of Experts (MoE). A diferencia de los modelos clásicos, en los que se utilizan todos los parámetros para cada palabra o token generado, un modelo MoE solo activa una pequeña parte de sus «expertos», una subparte especializada de la red, respectivamente el 4,4 % y el 17 % para gpt-oss-120B y gpt-oss-20B. Esto permite que el modelo más grande sea, hasta la fecha, el más eficaz que se puede implementar en un solo chip H100 y, por lo tanto, más accesible para los desarrolladores.
  • Estos modelos presentan una tasa de alucinación más alta que los grandes modelos densos tradicionales, pero su diseño se basa en una hipótesis diferente: el enfoque a largo plazo es optimizar estos modelos más pequeños para el razonamiento y el sentido común, y delegar la mayor parte de la recuperación de información a fuentes externas a través del contexto proporcionado o interactuando con herramientas externas (motores de búsqueda, bases de datos, API, etc.).

¿Qué es el código abierto?

Aunque la IA de código abierto tiene una definición muy precisa desde hace un año, 2 muchos laboratorios utilizan de facto este término para referirse a realidades diferentes. El código abierto hace referencia a diferentes modos de publicación en un continuo que va desde la apertura total —peso de los modelos, datos, código, evaluaciones transparentes y reproducibles, licencias abiertas— hasta el cierre completo —modelo disponible únicamente a través de una API—.

  • Para un laboratorio de IA, la estrategia de publicación de un modelo puede tener varios objetivos: la ciencia abierta, la difusión del conocimiento y su infraestructura (stack) en un ecosistema de desarrolladores, el posicionamiento en la competencia al hacer más asequible el acceso a un determinado nivel de rendimiento o incluso el hecho de dejar obsoletos los modelos cerrados de la competencia.

Geopolítica de la IA de código abierto

Las palabras elegidas por Sam Altman para el lanzamiento de gpt-oss-120B encajan claramente en el objetivo general del AI Action Plan de «ganar la carrera mundial por la IA». Este último tiene como objetivo obligar al mundo a construir a partir de la tecnología estadounidense para crear una dependencia global.

  • El director general de OpenAI declaró: «Queremos que todo el mundo se base en una infraestructura de IA abierta creada en Estados Unidos, basada en valores democráticos, accesible gratuitamente para todos y en beneficio de todos».
  • En marzo, la empresa creadora de ChatGPT describió a su competidor Deepseek como controlado por el PCC y pidió que se prohibiera el uso de sus modelos en marzo de 2025.

¿Cómo se explica el rendimiento de gpt-oss-120B?

Con este nuevo modelo, OpenAI reivindica un avance significativo en materia de estándares de seguridad para los modelos de código abierto.

  • El compromiso alcanzado consiste en hacer que el modelo sea «ajustable», es decir, personalizable según las necesidades, al tiempo que se bloquea la capa de seguridad integrada en los pesos, una protección inédita hasta ahora en los modelos de código abierto, pero cuya solidez aún debe evaluarse.
  • Para poner a prueba la resistencia de estos mecanismos, los investigadores de OpenAI han adoptado ellos mismos la postura del atacante: han perfeccionado el modelo a partir de datos sensibles, en particular en el ámbito de la biología y la ciberseguridad, con el fin de evaluar el riesgo adicional que podría suponer esta nueva versión en materia de seguridad. 3
  • Paralelamente, OpenAI ha lanzado junto con Kaggle una plataforma online de competencia de machine learning, un desafío de «Red Teaming» con un premio de 500.000 dólares para animar a los desarrolladores a detectar posibles fallos de seguridad en gpt-oss.
  • La flexibilidad de esta postura en materia de seguridad prolonga el giro no intervencionista iniciado por Sam Altman, quien, en mayo de 2025, abogó por una regulación «ligera» (light-touch).
  • Esto supone un cambio con respecto a sus propuestas anteriores, en las que sugería la creación de una agencia encargada de conceder licencias para el desarrollo de modelos de IA a gran escala, definir las normas de seguridad e imponer pruebas que debían superarse antes de cualquier difusión pública.

Con un rendimiento equivalente, gpt-oss-120B es hasta un 90 % más barato en hardware de inferencia especializado, es decir, computadoras diseñadas para recibir modelos más pesados.

  • Este fenómeno, ya observado con la publicación del modelo de Deepseek, demuestra que cada vez es más barato acceder a modelos de alto rendimiento.
  • Los avances en la optimización de las arquitecturas, los chips especializados y la infraestructura permiten ofrecer la misma calidad de respuesta, pero a una fracción del costo de hace solo unos meses.

Estos dos lanzamientos —GPT-5, cuyo rendimiento aún se desconoce, y el modelo abierto gpt-oss— se producen pocos días después del de la iniciativa ATOM, que pretende imponer el liderazgo estadounidense en el ámbito del código abierto. Son complementarios y forman parte de una estrategia global para posicionar estratégicamente a OpenAI frente a las nuevas demandas del mercado en dos segmentos distintos.

  • El modelo de código abierto sirve así a OpenAI para hacer frente a los laboratorios chinos en la difusión entre los desarrolladores, al tiempo que busca establecer nuevos estándares globales.
  • La última versión de ChatGPT, GPT-5, se inscribe en el mercado del uso de chatbots con IA, un sector competitivo en el que la empresa de Sam Altman quiere mantener su ventaja.
Notas al pie
  1. «LLM Leaderboard – Comparison of over 100 AI models from OpenAI, Google, DeepSeek & others», Artificial analysis.
  2. «OSAID 1.0», Open Source initiative.
  3. Eric Wallace, Olivia Watkins, Miles Wang, Kai Chen y Chris Koch, «Estimating worst-case frontier risks of open-weight LLMS», Open AI, 5 de agosto de 2025.