Selon une enquête publiée vendredi 21 février par OpenAI, plusieurs acteurs chinois ont utilisé ChatGPT et d’autres IA américaines (notamment LLaMA, développé par Meta) dans le cadre d’une vaste opération de surveillance en ligne. Celle-ci visait également à générer des contenus relayant des opinions considérées « anti-américaines », par la suite publiés dans des journaux en ligne sud-américains 1.
Nommées « Peer Review » et « Sponsored Discontent » par OpenAI, ces activités indiquent que le Parti communiste chinois (PCC) se sert des avancées de l’IA — en l’occurrence, ici, américaines — à des fins de propagande.
- Les requêtes soumises par ces acteurs à ChatGPT visaient à alimenter ce qui est présenté comme le « Qianyue Overseas Public Opinion AI Assistant » (千阅境外舆情AI助手), un outil d’analyse de contenus en ligne publiés sur les réseaux sociaux liés à la vie politique chinoise.
- Cet assistant analysait des millions de publications sur X, Facebook, YouTube ou Instagram afin de cibler des appels à participer à des manifestations en République populaire de Chine. Les résultats étaient par la suite envoyés aux ambassades chinoises et à des agents de renseignement du régime aux États-Unis, en Allemagne ou au Royaume-Uni.
- Les prompts visaient également à produire du contenu (texte, image) critiquant l’universitaire chinoise et critique du régime, Cai Xia, qui vit en exil aux États-Unis depuis 2019. Ces messages étaient par la suite postés sur les réseaux sociaux, notamment sur X, par des comptes prétendument américains ou indiens, comme le révélait un précédent rapport de mai 2024 2.
La plateforme américaine ChatGPT est officiellement bloquée en Chine depuis l’été 2024 (le site était déjà auparavant rendu inaccessible par un pare-feu gouvernemental). Si OpenAI n’avait pas évoqué de raisons précises ayant guidé cette décision, l’entreprise américaine note dans son rapport de février 2025 qu’elle souhaite « contribuer aux efforts visant à comprendre et à se préparer à la manière dont la Chine ou d’autres régimes autoritaires pourraient tenter d’utiliser l’IA contre les États-Unis et les pays alliés, ainsi que contre leur propre population ».
Si le régime chinois utilise des IA américaines à des fins de propagande, il façonne également ses propres chatbots pour contribuer à la diffusion de la ligne idéologique du Parti.
- En décembre, l’entreprise chinoise DeepSeek a provoqué la sidération dans le monde de l’intelligence artificielle en dévoilant une IA aussi performante que ChatGPT pour seulement 7 % du coût du chatbot américain (5,6 millions de dollars).
- Au-delà des traditionnels benchmarks, ces analyses techniques qui évaluent quantitativement la performance d’un modèle d’IA, DeepSeek a également dû soumettre son chatbot à C-Eval (Chinese Evaluation), un test chinois qui évalue 3 principaux domaines : STEM (science, technologie, ingénierie et mathématiques), les humanités et les sciences sociales 3.
Dans la catégorie « humanités », C-Eval soumet aux IA des questions (qui consistent en un questionnaire à choix multiples) portant sur la « culture idéologique et morale » chinoise, testant ainsi les chatbots sur la ligne officielle du PCC : vis-à-vis de l’autonomie de Hong Kong, la « réunification » avec Taïwan, l’interprétation de la pensée de Mao Zedong ou bien la manière dont « s’exprime principalement le patriotisme dans la Chine contemporaine ».
Ces tests visent à quantifier et repérer d’éventuels biais culturels qui sont parfois inhérents aux chatbots.
- Une étude de l’Académie nationale des sciences américaine publiée en septembre relevait notamment que ChatGPT avait tendance à « présenter des valeurs culturelles qui ressemblent à celles des pays européens anglophones et protestants » 4.
- Un score élevé (généralement au-dessus de 80/90) au test C-Eval traduit ainsi la « loyauté » des modèles d’IA conversationnelles et leur capacité à suivre la ligne du PCC dans leurs réponses apportées aux utilisateurs.
Sources
- Disrupting malicious uses of our models : an update February 2025, OpenAI, 21 février 2025.
- Disrupting deceptive uses of AI by covert influence operations, OpenAI, 30 mai 2024.
- Alex Colville, « How AI is Tested for Loyalty », China Media Project, 18 février 2025.
- Yan Tao, Olga Viberg, Ryan S. Baker, René F. Kizilcec, « Cultural bias and cultural alignment of large language models », PNAS Nexus, Volume 3, Issue 9, septembre 2024, p. 346.