Le plan en matière d’intelligence artificielle présenté par l’administration Trump le 23 juillet a clairement intégré l’open source comme un levier stratégique. Cette orientation vise à renforcer la position des États-Unis dans la compétition technologique avec la Chine, en incitant les acteurs internationaux à adopter l’infrastructure d’IA américaine plutôt que celle proposée par Pékin.
- Cette stratégie englobe à la fois les modèles d’IA et les composants matériels, notamment la conception et la fabrication des puces.
- Ce nouveau plan marque une rupture avec les décrets de l’administration Biden, qui se concentraient principalement sur les aspects de sécurité et de conformité liés à la pré-publication des grands modèles d’IA — en particulier ceux entraînés avec plus de 10^26 FLOPS.
- Comme le souligne l’administration américaine : « Nous devons faire en sorte que les États-Unis disposent de modèles ouverts de premier plan, fondés sur les valeurs américaines. Les modèles open source ou à poids ouverts pourraient devenir des standards mondiaux dans certains secteurs économiques et dans la recherche académique. C’est pourquoi ils ont également une valeur géostratégique » 1.
Or, depuis un an, la Chine est en tête de la course à l’intelligence artificielle open source.
- Les modèles ouverts américains les plus avancés — tels que Gemma 3 de Google ou LLaMA 4 de Meta — sont aujourd’hui rattrapés, voire surpassés, tant en termes de performance que d’adoption, par plusieurs modèles issus de l’écosystème chinois en pleine expansion. Parmi ceux-ci figurent notamment DeepSeek R1, Kimi K2 de MoonshotAI, Qwen3 d’Alibaba, GLM 4.5 de Zhipu, ou encore Hunyuan de Tencent.
- OpenAI, qui s’apprête à publier deux propres modèles ouverts (GPT-oss-120b et GPT-oss-20b), avait déjà reconnu en janvier, par la voix de son CEO Sam Altman, s’être « trouvé du mauvais côté de l’histoire » 2 en matière d’open source.
- Cette prise de position souligne l’importance stratégique de l’ouverture des modèles pour encourager les autres pays à adopter et bâtir leurs systèmes sur la pile technologique d’IA américaine.
Une nouvelle initiative américaine, le projet ATOM (America Truly Open Models) 3 — dont le nom fait vraisemblablement écho à la Open Atom Foundation chinoise, promoteur de l’open source dans les technologies de pointe — vise à restaurer le leadership des États-Unis dans l’IA open source.
- L’objectif : créer des laboratoires d’IA disposant de ressources massives en calcul (environ 10 000 GPU), structurés autour de petites équipes hautement qualifiées (composées de 50 à 100 chercheurs), capables de produire des modèles compétitifs d’ici six mois.
- Le projet entend mobiliser des financements issus du secteur privé, de fondations philanthropiques et d’agences fédérales, afin de concentrer ces moyens sur un nombre restreint de centres d’excellence en IA open source.
- Portée par Nathan Lambert, chercheur chez AI2, l’initiative bénéficie du soutien d’anciens membres d’OpenAI, de PyTorch, ainsi que de professeurs de Stanford, de Berkeley, et d’entrepreneurs du secteur de l’IA.
Si les innovations architecturales actuelles conduisent à des modèles d’IA de plus en plus optimisés pour un matériel donné, alors l’adoption à grande échelle des modèles chinois pourrait, à terme, inciter les utilisateurs à se tourner également vers du matériel chinois — renforçant ainsi l’intégration verticale et l’adoption de l’ensemble de la stack technologique chinoise.
- Dans cette perspective, les modèles d’intelligence artificielle, et en particulier les modèles open source, s’imposent comme des instruments de souveraineté technologique, des vecteurs de valeurs et de soft power, ainsi que des plateformes structurant l’accès à l’information et la production de contenu.
Il y a aujourd’hui une opportunité pour les modèles ouverts en dehors du duopole Chine – États-Unis.
- Les données compilées par le projet ATOM révèlent que les modèles open source chinois sont aujourd’hui téléchargés environ trois fois plus que leurs équivalents européens.
- Ce déséquilibre met en évidence l’impact déterminant de la combinaison entre soutien public, accès massif aux ressources de calcul et structuration d’écosystèmes ouverts — comme en témoigne l’initiative du Technology Innovation Institute (TII) à Abu Dhabi.
- Le groupe de recherche du TII a récemment publié une nouvelle suite de modèles open source, illustrant un modèle vertueux : lorsque des équipes académiques de haut niveau bénéficient d’un appui institutionnel leur permettant d’accéder à des capacités de calcul à grande échelle (4 096 GPU NVIDIA H100 ont été mobilisés pour l’entraînement du modèle, soit près de trois fois la capacité H100 du supercalculateur Jean Zay en France) 4, elles peuvent produire et diffuser des modèles innovants, à l’état de l’art.
- Ces modèles se distinguent tant par leur architecture — bâtie sur une innovation initialement développée par la startup israélienne AI21 — que par la transparence de leur documentation 5.
Sources
- America’s AI Action Plan.
- Kyle Wiggers, Sam Altman : OpenAI has been on the ‘wrong side of history’ concerning open source, TechCrunch, 31 janvier 2025.
- The ATOM Project
- “GENCI and CNRS Choose Eviden to Make the Jean Zay Supercomputer One of the Most Powerful in France.” Eviden, 30 janvier 2024.
- Falcon-H1 : A Family of Hybrid-Head Language Models Redefining Efficiency and Performance, Technology Innovation Institute, 31 juillet 2025.