X (Twitter), en el centro de la polémica: Grok dispara la creación de deepfakes sexuales
La promesa de una IA “sin filtros” acaba convertida en un problema global: gobiernos, expertos y víctimas señalan a Grok como el nuevo motor del contenido adulto falso no consentido
La idea de una inteligencia artificial más “libre”, menos limitada por normas y filtros, sonaba atractiva para muchos usuarios. Pero en el caso de Grok, el chatbot impulsado por xAI e integrado en X (ex Twitter), esa promesa está empezando a mostrar su cara más oscura. En las últimas semanas, la red social se ha visto inundada por imágenes sexuales generadas por IA, muchas de ellas creadas sin consentimiento y con una velocidad que no tiene precedentes.
Un análisis reciente de la investigadora Genevieve Oh revela cifras difíciles de ignorar: miles de imágenes sexualizadas generadas a cada hora a partir de Grok, muy por encima de lo que producen, juntas, las principales webs dedicadas a este tipo de contenido. La diferencia clave es que aquí no hablamos de rincones ocultos de Internet, sino de una herramienta integrada en una red social con millones de usuarios activos.
De experimento “atrevido” a problema global
Grok, desde sus inicios, fue presentado como una alternativa a otros chatbots más restrictivos, alineada con la visión de Elon Musk sobre la libertad de expresión. La introducción de un “Modo picante”, capaz de generar contenido inapropiado, terminó de abrir la puerta. El resultado: una normalización acelerada de imágenes sexualizadas falsas, incluyendo deepfakes de mujeres reales e incluso de personas que aparentan ser menores.
El problema no se limita a lo que se ve públicamente en X. La versión web y la app independiente de Grok (disponible tanto para Android como para iOS) permiten generar vídeos mucho más explícitos, que no aparecen en el feed pero circulan mediante enlaces compartidos en foros y grupos de Telegram (los cuales pueden hallarse a través del buscador de la app de mensajería).
Diversos investigadores en ciberseguridad y abuso digital hablan ya de un salto cualitativo: contenido adulto en vídeo, hiperrealista y con una barrera de acceso prácticamente mínima.
Investigaciones, presión política y un vacío legal incómodo
La reacción no se ha hecho esperar. Países como Francia, Reino Unido, India, Brasil y España han abierto investigaciones sobre el uso de Grok para crear imágenes sexuales no consentidas. El debate legal es espinoso: hasta ahora, las plataformas se han amparado en que el contenido lo crean los usuarios. Pero con la IA, la pregunta cambia: ¿qué ocurre cuando es la propia plataforma la que genera la imagen?
Desde X aseguran que toman medidas contra el contenido ilegal y que mejorarán los filtros, aunque reconocen que ningún sistema es infalible. Para expertos en abuso digital, ese argumento ya no basta. Permitir este tipo de herramientas sin controles sólidos, advierten, no solo facilita delitos, sino que banaliza la violencia sexual y amplifica su alcance.
En resumen, la polémica al rededor de Grok no es solo tecnológica. Es una señal de alarma sobre hacia dónde puede derivar la IA generativa cuando se prioriza la viralidad y la “libertad” sin asumir ningún tipo de responsabilidad. Y esta vez, X está en el centro del problema.