Grok, l’assistant IA de X (ex-Twitter) développé par xAI, une entreprise co-fondée par Elon Musk en 2023, a été dénoncé ces derniers jours par plusieurs utilisateurs du réseau social pour avoir généré via l’intelligence artificielle puis publié des images à caractère sexuel de mineurs.
- Certains utilisateurs avaient en effet sollicité Grok pour « déshabiller », entièrement ou partiellement, des adolescents ou des enfants.
Celui-ci a par la suite reconnu publiquement que ses propres actions étaient de nature à exposer xAI à des poursuites judiciaires, notamment sur le fondement de l’article 2252A du titre 18 du Code des États-Unis, lequel incrimine le fait de transporter, distribuer, recevoir ou posséder sciemment du matériel pédopornographique — une qualification susceptible, selon les circonstances, de concerner l’entreprise ainsi que ses dirigeants.
- Ces derniers mois, Grok avait provoqué l’indignation à plusieurs reprises en générant des contenus antisémites, en insultant le Premier ministre polonais Donald Tusk suite à la requête d’un utilisateur, et en relayant des théories conspirationnistes.
En juillet, Grok s’était lui-même renommé « MechaHitler » après avoir fait l’éloge du dirigeant nazi.
- La récurrence de ces messagers « inappropriés », selon la formulation utilisée par la plateforme, avait conduit à plusieurs reprises à la suspension du chatbot.
La plupart de ces images ont aujourd’hui été supprimées, et certains comptes ayant sollicité Grok pour les générer ont été suspendus. Si les responsables de X n’ont pas encore communiqué publiquement sur le sujet, Grok a indiqué dans un message publié aujourd’hui, vendredi 2 janvier, qu’il avait identifié des « lacunes dans les mesures de sécurité » qui étaient en cours de correction « urgente » 1.
- Grok n’est pas le premier outil d’IA à être utilisé pour générer du contenu pédopornographique.
- L’Internet Watch Foundation a identifié une augmentation de 400 % de ces types de contenus au cours du premier semestre 2025 2.
Sur le réseau social X, les réponses de Grok sont toutefois lisibles par l’ensemble des utilisateurs de la plateforme — qui compte plus de 550 millions de comptes.
- En plus d’enfants et d’adolescents, des utilisateurs sollicitent également fréquemment Grok pour « déshabiller » des femmes — ce qui est permis par l’assistant via un « Spicy Mode » lancé à l’été, un service payant spécifiquement destiné à générer du contenu érotique à partir d’images ou de vidéos.
La génération puis la diffusion de ces contenus mettent en lumière l’insuffisance des filtres de refus ou de modération du modèle utilisé par xAI.
- Ces filtres sont souvent eux-mêmes basés sur des grands modèles de langage, ou LLMs (« safeguard LLMs »), qui présentent intrinsèquement tous les mêmes problèmes de robustesse que les modèles qu’ils doivent contrôler.
- Le design du system prompt peut aussi constituer une couche de sécurité : ce message initial est donné au LLM pour définir son rôle, son comportement, ses contraintes et son style de réponse pour toute la conversation.
Pour Grok, plusieurs de ces instructions ont été identifiées comme ayant posé problème lorsque celui-ci avait généré du contenu antisémite.
- On retrouvait notamment ces instructions : « Vous dites les choses telles qu’elles sont et vous n’avez pas peur d’offenser les personnes politiquement correctes » ; « Comprenez le ton, le contexte et le langage du message. Reflétez cela dans votre réponse ».
La différenciation de Grok, soit ce pourquoi des utilisateurs vont préférer l’utiliser par rapport à d’autres modèles, tient notamment au fait qu’il ne semble pas disposer de certains des garde-fous standard de l’industrie. Grok est notamment publié sans rapport de sécurité, contrairement à Gemini 8 ou GPT-5.
Sources
- Publication de Grok sur X, 2 janvier 2026.
- Brunella Tipismana Urbano, « AI-generated child abuse webpages surging, alarming watchdog », Los Angeles Times, 10 juillet 2025.