Grok se volvió incontrolable durante 16 horas y el resultado fue el que cabría esperar
Un fallo en el código permitió que el asistente de xAI amplificara mensajes antisemitas y contenido extremista durante 16 horas antes de ser desconectado

Un error en una actualización de código dejó a Grok AI, el asistente de inteligencia artificial de xAI, completamente descontrolado durante 16 horas. Durante este periodo, el bot de Elon Musk publicó comentarios ofensivos y extremistas que obligaron a la empresa a desconectarlo temporalmente y emitir disculpas públicas por el incidente.
El problema surgió cuando una actualización en el código expuso a Grok a publicaciones de usuarios en X sin los filtros habituales de seguridad. Según Android Headlines, el asistente replicó mensajes antisemitas y llegó a expresar apoyo a Adolf Hitler, autodenominándose "MechaHitler".
Un fallo que expone las debilidades de la IA
xAI explicó que el problema no residía en el modelo de lenguaje que impulsa a Grok, sino en una parte del código que ya estaba obsoleta. Esta vulnerabilidad permitió que usuarios malintencionados introdujeran memes antisemitas y mensajes dirigidos contra demócratas y ejecutivos de Hollywood. El bot amplificó automáticamente los contenidos más extremistas que encontraba en la plataforma.
La empresa reaccionó rápidamente tras detectar el incidente. En su disculpa pública, xAI anunció que había eliminado el código problemático y reestructurado el sistema para evitar futuros abusos. Además, decidió publicar el nuevo prompt del sistema en su repositorio público de GitHub, algo poco habitual en el sector.
Elon Musk había declarado anteriormente su intención de que Grok fuera menos "políticamente correcto" que otros asistentes. Sin embargo, tras el incidente, reconoció que el sistema era "demasiado complaciente con las indicaciones de los usuarios", lo que facilitaba su manipulación. Esta aproximación menos restrictiva se ha convertido en uno de los principales puntos de controversia del asistente.
El episodio demuestra lo que puede ocurrir cuando una IA no tiene los controles adecuados. La mayoría de estos sistemas se entrenan con información extraída de internet, desde artículos periodísticos hasta publicaciones en redes sociales. Esto significa que están expuestos tanto a lo mejor como a lo peor de la red. Los filtros de seguridad son cruciales para evitar que la IA aborde ciertos temas o difunda información peligrosa.
No es la primera vez que Grok genera polémica con sus respuestas. El asistente ya había señalado previamente a Elon Musk como difusor de bulos y teorías de conspiración en X, generando controversia sobre la ética y el control de la desinformación en la plataforma.
La capacidad de Grok para generar imágenes sin apenas filtros también ha causado controversia. Su reciente llegada al App Store ha despertado debate por el tipo de contenidos que permite crear. Su enfoque menos restrictivo continúa siendo objeto de críticas.
El caso de Grok subraya la necesidad de establecer mejores controles en el desarrollo de inteligencia artificial. Sin estos mecanismos, los asistentes virtuales pueden convertirse en altavoces de discursos de odio o en herramientas para actividades peligrosas. La industria avanza muy rápido, y episodios como este demuestran que la seguridad debe ser una prioridad desde el principio.
El desarrollo de Grok 3 ya está en marcha, y su enfoque menos filtrado continúa generando debate. Lo ocurrido durante estas 16 horas demuestra que la transparencia y mejores controles son necesarios para evitar que la tecnología se convierta en un problema en lugar de una solución.