X convierte la generación de imágenes en una función exclusiva (y vigilada) para salvarse del bloqueo

X restringe el acceso a su generador de imágenes después de que Ofcom y la Internet Watch Foundation documenten casos de deepfakes sexuales de mujeres y material de abuso infantil creado con Grok

X convierte la generación de imágenes en una función exclusiva (y vigilada) para salvarse del bloqueo
El generador de imágenes Grok, integrado en X desde finales de 2025, permite editar fotografías reales mediante prompts de texto y ha sido utilizado para crear contenido sexualizado
Publicado en Tecnología
Por por Sergio Agudo

El generador de imágenes de Grok acaba de pasar de ser una herramienta controvertida a convertirse en un problema regulatorio serio. La Internet Watch Foundation ha documentado imágenes sexualizadas de niñas de entre 11 y 13 años en foros de la dark web, creadas según los propios usuarios con la IA de xAI. Ofcom ha pedido explicaciones formales a X por los informes que confirman que cualquiera puede usar Grok para fabricar "desnudos digitales" sin consentimiento.

La función llegó a finales de diciembre de 2025 y permitía responder a cualquier publicación con un prompt para que Grok editase las fotos. En apenas dos semanas se documentaron los primeros casos masivos: bikinis añadidos donde no los había, desnudos parciales fabricados en segundos, poses sugerentes creadas sin permiso. Lo que debía ser una herramienta creativa acabó funcionando como un servicio de acoso automatizado a gran escala.

Material criminal en la dark web

La IWF confirma que sus analistas han localizado en un foro clandestino imágenes topless y sexualizadas de niñas de 11 a 13 años que usuarios atribuyen directamente a Grok. Según la clasificación legal británica, parte de ese material entra en la categoría C de abuso sexual infantil. Otra herramienta de IA ha sido utilizada después para convertir ese contenido en categoría A, la más grave del código penal del Reino Unido.

La responsable de la línea de denuncia de la IWF ha sido tajante: herramientas como Grok eliminan las barreras técnicas para producir imágenes de abuso sexual infantil que parecen reales. Lo que antes requería conocimientos de edición avanzada ahora se hace con una frase en inglés y acceso a X. Ya pasó en julio de 2025, cuando Grok quedó fuera de control durante 16 horas y amplificó contenido extremista sin filtros operativos.

Usuarias han visto sus fotos alteradas públicamente en X, con Grok añadiendo bikinis o desnudos parciales en respuestas que cualquier usuario puede generar sin restricciones técnicas. Activistas lo equiparan al deepfake porno: no hace falta hackear cuentas ni robar imágenes privadas; basta con que una foto esté en la red social para que Grok la convierta en contenido sexual en segundos.

Desde que xAI se fusionó con X en marzo de 2025, estos problemas no son accidentes: son el resultado directo de cómo Musk ha integrado la IA generativa dentro de una red social sin las salvaguardas necesarias. Grok aterrizó en la App Store en enero de 2025 con el título de "IA más polémica", y ahora los reguladores británicos saben exactamente por qué.

Grok afirma que no apoya la alteración de fotos sin permiso y anima a los usuarios a denunciar interacciones problemáticas. El problema es que las salvaguardas, si existen, no están funcionando: los casos documentados por la IWF contradicen cualquier afirmación de que el sistema tiene controles eficaces. Si las políticas existen pero no se aplican, no valen nada.

X ha anunciado que la función será exclusiva para suscriptores Premium+, pero eso no soluciona nada: solo lo hace más caro. Las imágenes ya generadas siguen circulando, las víctimas ya han sido expuestas y el vacío regulatorio sigue intacto. Lo que Grok necesita no es un muro de pago, sino una auditoría externa que demuestre que la herramienta no puede usarse para crear material de abuso infantil.

Para ti
Queremos saber tu opinión. ¡Comenta!