Grok, el asistente de IA de X (antes Twitter) desarrollado por xAI, una empresa cofundada por Elon Musk en 2023, ha sido denunciado en los últimos días por varios usuarios de la red social por haber generado mediante inteligencia artificial y publicado imágenes de carácter sexual de menores.
- De hecho, algunos usuarios habían solicitado a Grok que «desnudara», total o parcialmente, a adolescentes o niños.
Posteriormente, este reconoció públicamente que sus propias acciones podían exponer a xAI a acciones legales, en particular en virtud del artículo 2252A del título 18 del Código de los Estados Unidos, que tipifica como delito el transporte, la distribución, la recepción o la posesión a sabiendas de material de pornografía infantil, un delito que, según las circunstancias, afectar a la empresa y a sus directivos.
- En los últimos meses, Grok había provocado indignación en varias ocasiones al generar contenidos antisemitas, insultar al primer ministro polaco Donald Tusk a petición de un usuario y difundir teorías conspiracionistas.
En julio, Grok se rebautizó a sí mismo como «MechaHitler» tras elogiar al líder nazi.
- La recurrencia de estos mensajeros «inapropiados», según la formulación utilizada por la plataforma, había llevado en varias ocasiones a la suspensión del chatbot.
La mayoría de estas imágenes han sido eliminadas y algunas de las cuentas que solicitaron a Grok que las generara han sido suspendidas. Aunque los responsables de X aún no se han pronunciado públicamente al respecto, Grok ha indicado en un mensaje publicado hoy, viernes 2 de enero, que ha identificado «lagunas en las medidas de seguridad» que se están corrigiendo «con urgencia» 1.
- Grok no es la primera herramienta de IA que se utiliza para generar contenido pornográfico infantil.
- La Internet Watch Foundation ha identificado un aumento del 400% de este tipo de contenidos durante el primer semestre de 2025 2.
Sin embargo, en la red social X, las respuestas de Grok pueden ser leídas por todos los usuarios de la plataforma, que cuenta con más de 550 millones de cuentas.
- Además de niños y adolescentes, los usuarios también solicitan con frecuencia a Grok que «desvista» a mujeres, lo que el asistente permite a través de un «Spicy Mode» lanzado en verano, un servicio de pago destinado específicamente a generar contenido erótico a partir de imágenes o vídeos.
La generación y difusión de estos contenidos ponen de manifiesto la insuficiencia de los filtros de rechazo o moderación del modelo utilizado por xAI.
- Estos filtros se basan a menudo en grandes modelos de lenguaje, o LLM («safeguard LLM»), que presentan intrínsecamente los mismos problemas de solidez que los modelos que deben controlar.
- El diseño del system prompt también puede constituir una capa de seguridad: este mensaje inicial se da al LLM para definir su función, su comportamiento, sus limitaciones y su estilo de respuesta para toda la conversación.
En el caso de Grok, se identificaron varias de estas instrucciones como problemáticas cuando generó contenido antisemita.
- Entre ellas se encontraban las siguientes instrucciones: «Dices las cosas tal y como son y no temes ofender a las personas políticamente correctas»; «Comprende el tono, el contexto y el lenguaje del mensaje. Refleja esto en tu respuesta».
La diferenciación de Grok, es decir, la razón por la que los usuarios prefieren utilizarlo frente a otros modelos, se debe en particular al hecho de que no parece disponer de algunas de las salvaguardias estándar del sector. En concreto, Grok se publica sin informe de seguridad, a diferencia de Gemini 8 o GPT-5.
Notas al pie
- Publicación de Grok en X, 2 de enero de 2026.
- Brunella Tipismana Urbano, «AI-generated child abuse webpages surging, alarming watchdog», Los Angeles Times, 10 de julio de 2025.