Según una investigación publicada el viernes 21 de febrero por OpenAI, varios actores chinos han utilizado ChatGPT y otras IA estadounidenses (en particular LLaMA, desarrollada por Meta) como parte de una amplia operación de vigilancia en línea. Esta operación también tenía como objetivo generar contenidos que transmitieran opiniones consideradas «antiamericanas», que posteriormente se publicaron en periódicos en línea sudamericanos 1.
Denominadas «Peer Review» y «Sponsored Discontent» por OpenAI, estas actividades indican que el Partido Comunista Chino (PCC) utiliza los avances de la IA —en este caso, estadounidenses— con fines propagandísticos.
- Las consultas enviadas por estos actores a ChatGPT tenían como objetivo alimentar lo que se presenta como el «Asistente de IA de opinión pública en el extranjero Qianyue» (千阅境外舆情AI助手), una herramienta de análisis de contenidos en línea publicados en redes sociales relacionadas con la vida política china.
- Este asistente analizaba millones de publicaciones en X, Facebook, YouTube o Instagram para identificar llamamientos a participar en manifestaciones en la República Popular China. Los resultados se enviaban posteriormente a las embajadas chinas y a agentes de inteligencia del régimen en Estados Unidos, Alemania o Reino Unido.
- Los prompts también tenían como objetivo producir contenido (texto, imágenes) que criticara a la académica china y crítica del régimen, Cai Xia, que vive en el exilio en Estados Unidos desde 2019. Estos mensajes fueron posteriormente publicados en las redes sociales, especialmente en X, por cuentas supuestamente estadounidenses o indias, como reveló un informe anterior de mayo de 2024 2.
La plataforma estadounidense ChatGPT está oficialmente bloqueada en China desde el verano de 2024 (la web ya estaba inaccesible anteriormente debido a un cortafuegos gubernamental). Si bien OpenAI no ha mencionado las razones específicas que han guiado esta decisión, la empresa estadounidense señala en su informe de febrero de 2025 que desea «contribuir a los esfuerzos para comprender y prepararse para la forma en que China u otros regímenes autoritarios podrían intentar utilizar la IA contra Estados Unidos y los países aliados, así como contra su propia población».
Si bien el régimen chino utiliza IA estadounidenses con fines propagandísticos, también crea sus propios chatbots para contribuir a la difusión de la línea ideológica del Partido.
- En diciembre, la empresa china DeepSeek causó conmoción en el mundo de la inteligencia artificial al revelar una IA tan eficaz como ChatGPT por sólo el 7 % del coste del chatbot estadounidense (5,6 millones de dólares).
- Más allá de los tradicionales benchmarks, estos análisis técnicos que evalúan cuantitativamente el rendimiento de un modelo de IA, DeepSeek también tuvo que someter su chatbot a C-Eval (Evaluación China), una prueba china que evalúa 3 áreas principales: STEM (ciencia, tecnología, ingeniería y matemáticas), humanidades y ciencias sociales 3.
En la categoría de «humanidades», C-Eval somete a las IA a preguntas (que consisten en un cuestionario de opción múltiple) sobre la «cultura ideológica y moral» china, poniendo así a prueba a los chatbots en la línea oficial del PCCh: con respecto a la autonomía de Hong Kong, la «reunificación» con Taiwán, la interpretación del pensamiento de Mao Zedong o la forma en que «se expresa principalmente el patriotismo en la China contemporánea».
Estos tests tienen como objetivo cuantificar y detectar posibles sesgos culturales que a veces son inherentes a los chatbots.
- Un estudio de la Academia Nacional de Ciencias de Estados Unidos publicado en septiembre señaló, en particular, que ChatGPT tendía a «presentar valores culturales similares a los de los países europeos anglófonos y protestantes» 4.
- Una puntuación alta (generalmente por encima de 80/90) en el test C-Eval refleja así la «lealtad» de los modelos de IA conversacional y su capacidad para seguir la línea del PCCh en sus respuestas a los usuarios.
Notas al pie
- Disrupting malicious uses of our models : an update February 2025, OpenAI, 21 de febrero de 2025.
- Disrupting deceptive uses of AI by covert influence operations, OpenAI, 30 de mayo de 2024.
- Alex Colville, « How AI is Tested for Loyalty », China Media Project, 18 de febrero de 2025.
- Yan Tao, Olga Viberg, Ryan S. Baker, René F. Kizilcec, « Cultural bias and cultural alignment of large language models », PNAS Nexus, Volume 3, Issue 9, septiembre de 2024, p. 346.