Aujourd’hui, jeudi 7 août, à 19h (Paris), OpenAI a annoncé le lancement de GPT-5, la dernière version, présentée comme la plus performante, du chatbot IA le plus utilisé au monde.

Le 5 août, dans une publication sur X, Sam Altman avait annoncé le lancement de deux modèles open source de ChatGPT (120B et 20B), « résultat de milliards de dollars de recherches ».

Le jour de sa sortie, gpt-oss-120B s’est propulsé à la troisième place du classement des modèles ouverts du LLM Leaderboard, un classement publié par Artificial Analysis qui évalue les modèles pareto-optimaux selon un compromis entre performance, coût et efficacité. 

  • L’étude de ce classement révèle une tendance de fond : elle montre que l’implication des entreprises américaines de l’IA dans la course à l’open source est désormais stratégique.
  • Avant cette publication, 15 des 20 meilleurs modèles open source figurant dans le classement étaient développés par des entreprises chinoises. Seuls 4 provenaient des États-Unis, et une d’Europe, reflétant la domination de l’écosystème chinois en matière d’IA open source. 
  • L’entraînement final du modèle gpt-oss-120B aurait coûté entre 5 et 10 millions de dollars ; celui de gpt-oss-20B est environ 10 fois moins coûteux. Ce budget de calcul est de l’ordre de grandeur de celui de gpt-3 (2020), confirmant  ainsi des gains d’efficacité (rapport coût-performance) algorithmique et matérielle multipliés par trois à cinq par an.
  • Ces modèles de raisonnement ont des architectures standards appelées Mixture of Experts (MoE). Contrairement aux modèles classiques où tous les paramètres sont utilisés pour chaque mot ou token généré, un modèle MoE n’active qu’une petite partie de ses « experts » — une sous-partie spécialisée du réseau — respectivement 4,4 % et 17 % pour gpt-oss-120B et gpt-oss-20B. Cela permet au plus grand modèle d’être, à date, le plus efficace déployable sur une seule puce H100 — et donc plus accessible pour les développeurs. 
  • Ces modèles présentent un taux d’hallucination plus élevé que les grands modèles denses traditionnels, mais leur conception repose sur une hypothèse différente : l’approche de long terme est d’optimiser ces plus petits modèles pour le raisonnement et le sens commun, et de déléguer la majeure partie de récupération d’information à des sources externes via le contexte fourni ou en interagissant avec des outils externes (moteurs de recherche, bases de données, API, etc.).

Qu’est-ce que l’open source ?

Si l’IA open source a une définition bien précise depuis un an, de nombreux laboratoires utilisent de facto ce terme pour recouvrir des réalités différentes. L’open source fait référence à différents modes de publication dans un continuum qui va de l’ouverture totale — poids des modèles, données, code, évaluations transparentes et reproductibles, licences ouvertes — jusqu’à la fermeture complète — modèle uniquement disponible via une API.

  • Pour un laboratoire d’IA, la stratégie de publication d’un modèle peut viser plusieurs objectifs : la science ouverte, la diffusion du savoir et de son infrastructure (stack) dans un écosystème de développeurs, le positionnement dans la compétition en rendant l’accès à un certain niveau de performance plus abordable ou encore le fait de rendre obsolètes les modèles fermés concurrents.

Géopolitique de l’IA open source

Les mots choisis par Sam Altman pour le lancement de gtp-oss-120B s’inscrivent clairement dans l’objectif global du AI Action Plan de « gagner la course mondiale à l’IA ». Ce dernier vise à obliger le monde à construire à partir de la technologie américaine pour créer une dépendance globale.

  • Le PDG d’OpenAI a ainsi déclaré : « Nous sommes impatients de voir le monde entier s’appuyer sur une infrastructure IA ouverte créée aux États-Unis, fondée sur des valeurs démocratiques, accessible gratuitement à tous et au bénéfice de tous. » 
  • En mars, l’entreprise à l’origine de ChatGPT avait décrit son concurrent Deepseek comme étant contrôlé par le PCC et avait appelé à une interdiction d’usage de ses modèles en mars 2025.

Comment expliquer la performance de gpt-oss-120B ?

Avec ce nouveau modèle, OpenAI revendique une avancée significative en matière de standards de sécurité pour les modèles open source.

  • Le compromis retenu consiste à rendre le modèle « fine-tunable » — c’est-à-dire personnalisable selon les besoins — tout en verrouillant la couche de sécurité intégrée dans les poids — une protection inédite, jusqu’ici absente des modèles open source précédents mais dont la robustesse reste toutefois à évaluer.
  • Pour tester la résilience de ces mécanismes, les chercheurs d’OpenAI ont eux-mêmes adopté une posture d’attaquant : ils ont affiné le modèle à partir de données sensibles — notamment en biologie ou en cybersécurité — afin d’évaluer le risque supplémentaire que pourrait représenter cette nouvelle version en matière de sécurité. 
  • En parallèle, OpenAI a lancé avec Kaggle une plateforme en ligne de compétition de machine learning, un défi de « Red Teaming » avec un prix de 500 000 dollars à la clef pour inciter les développeurs à détecter d’éventuelles failles de sécurité de gpt-oss. 
  • La souplesse de cette position sur la sécurité prolonge le virage non-interventionniste amorcé par Sam Altman, qui, en mai 2025, appelait à une régulation « légère » (light-touch). 
  • Elle constitue une inflexion par rapport à ses propositions précédentes, où il suggérait la création d’une agence chargée de délivrer des licences pour le développement de modèles d’IA à grande échelle, la définition des règles de sécurité, et l’imposition de tests à passer avant toute diffusion publique.

À performance équivalente, gpt-oss-120B est jusqu’à 90 % moins coûteux sur du hardware d’inférence spécialisé — c’est-à-dire des ordinateurs conçus pour recevoir des modèles plus lourds.

  • Déjà observé lors de la publication du modèle de Deepseek, ce phénomène montre qu’il devient de moins en moins cher d’accéder à des modèles performants.
  • Les progrès dans l’optimisation des architectures, des puces spécialisées et de l’infrastructure permettent de délivrer la même qualité de réponse, mais à une fraction du coût d’il y a encore quelques mois.

Ces deux lancements — GPT-5, dont on ne connaît pas encore les performances, et le modèle ouvert gpt-oss — interviennent quelques jours après celui de l’initiative ATOM, qui vise à imposer le leadership américain dans l’open source. Ils sont complémentaires et s’inscrivent dans une stratégie d’ensemble pour positionner OpenAI stratégiquement par rapport aux nouvelles demandes du marché sur deux segments distincts.

  • Le modèle open source sert ainsi à OpenAI à se hisser face aux laboratoires chinois sur la diffusion auprès des développeurs, tout en cherchant à installer de nouveaux standards globaux.
  • La dernière version de ChatGPT, GPT-5, s’inscrit quant à elle sur le marché de l’utilisation de chatbots IA — secteur compétitif où l’entreprise de Sam Altman veut conserver son avance.