La première semaine du second mandat de Trump a été marquée par l’annonce de nouveaux investissements majeurs dans le domaine de l’intelligence artificielle. À lui seul, le projet Stargate — une coentreprise formée par OpenAI, SoftBank, Oracle et MGX — devrait injecter 500 milliards d’ici 2029 dans des méga-campus accueillant des centres de données qui serviront à entraîner et faire tourner de nouveaux modèles d’IA.

  • En septembre, le co-fondateur et président d’Oracle, Larry Ellison, déclarait : « L’IA est une course de Formule 1. Tout le monde veut être premier dans un des domaines d’application de l’IA. À votre avis, combien faut-il pour entrer dans la course et créer un modèle d’IA compétitif ? 10 milliards ? 100 milliards ? Oui, 100 milliards et vous pouvez rejoindre la course. Peu d’entreprises, peu de pays peuvent entrer dans la course. Mais ça c’est plutôt bon pour nous ! »
  • Mais si la tendance montrée par la Chine se poursuit, l’industrie de la tech pourrait connaître un renversement du modèle économique avec une diminution des coûts fixes de développement des modèles et une augmentation des coûts marginaux liés à leur utilisation 1.

En annonçant avoir consacré « seulement » 5,576 millions de dollars pour l’entraînement de la troisième version de son grand modèle de langage d’IA, lancée en décembre, l’entreprise chinoise DeepSeek a provoqué une secousse au sein du secteur 2. Selon les données d’Epoch AI, près de 80 millions de dollars ont été requis pour entraîner GPT-4, la dernière version du modèle d’OpenAI.

Pourtant, les performances de DeepSeek — qui a mis son modèle en open source — dépassent celles de ChatGPT dans plusieurs domaines.

  • Les scores de performance de l’IA chinoise surpassent ceux de ses principaux compétiteurs — Claude-3.5, GPT-4o, Llama3.1, Qwen2.5 — en langues (chinois et anglais), mathématiques et en codage.
  • Si DeepSeek v3 surpasse les autres modèles donnant eux aussi publiquement accès à leur code, il serait également meilleur que les modèles fermés comme GPT-4.
  • La troisième version de l’IA a pourtant été entraînée en seulement deux mois sur des puces Nvidia H800, une version moins sophistiquée que celles utilisées par ses concurrents dédiée au marché chinois en raison des contrôles à l’exportation mis en place par l’administration Biden.

Pourquoi DeepSeek est-elle plus performante et moins chère que GPT-4 ?

  • Certains analystes considèrent que les restrictions imposées par les États-Unis sur le matériel développé par des entreprises américaines pour entraîner des modèles d’IA auraient produit l’effet inverse, conduisant à « stimuler l’innovation » des entreprises chinoises 3.
  • La technologie qui sous-tend les grands modèles de langage connaît une amélioration exponentielle : 70 IA performant aujourd’hui mieux que le premier GPT-4 de mars 2023, qui constituait une révolution lors de son lancement 4.
  • Selon le PDG d’OpenAI, Sam Altman, l’industrie se rapprocherait rapidement de « l’intelligence artificielle générale » — la prochaine frontière du secteur —, une IA capable d’effectuer des tâches cognitives au même niveau que les êtres humains 5.
Sources
  1. The Economist, Chinese AI is catching up, posing a dilemma for Donald Trump, 23 janvier 2025.
  2. DeepSeek-V3 Technical Report, 27 décembre 2024.
  3. Angela Zhang, « Chinese start-ups such as DeepSeek are challenging global AI giants », Financial Times, 23 janvier 2025.
  4. Simon Willison, Things we learned about LLMs in 2024, 31 décembre 2024.
  5. Scott Rosenberg et Alison Snyder, « China’s AI keeps getting better — and cheaper », Axios, 17 janvier 2025.