No solo es 'horrible', también es peligroso: así han conseguido 'hackear' el nuevo GPT-5 para que te enseñe a fabricar una bomba
GPT-5 decepciona a los usuarios con respuestas degradadas mientras hackers logran que genere instrucciones para fabricar explosivos y drogas

El nuevo GPT-5 de OpenAI se ha convertido en un completo desastre. No solo funciona peor de lo esperado, sino que los hackers están consiguiendo vulnerarlo con facilidad para que genere contenido prohibido: desde instrucciones para fabricar explosivos hasta recetas detalladas de drogas sintéticas. Lo que debía ser el modelo más avanzado de la compañía es ahora un grave problema de seguridad.
OpenAI ya ha tenido que restaurar versiones anteriores del modelo en varias regiones. Según Tom's Guide, los usuarios califican la experiencia como "horrible" y aseguran que el modelo funciona peor que GPT-4 incluso en las tareas más sencillas.
Un modelo que prometía cambiar todo y se ha convertido en un problema
Los problemas aparecieron desde el primer día. Usuarios veteranos de ChatGPT detectaron que las respuestas perdían coherencia y calidad: textos que se repetían, errores básicos de comprensión y un rendimiento general muy por debajo de lo esperado. TechSpot informa de que miles de suscriptores premium amenazaron con cancelar sus planes si no se revertían los cambios.
Lo realmente preocupante llegó cuando los equipos de seguridad comenzaron sus análisis. Security Week reveló que los red teams lograron comprometer GPT-5 sin dificultad, extrayendo respuestas sobre fabricación de armas, síntesis de sustancias ilegales y técnicas avanzadas de hacking. Las barreras de seguridad simplemente no funcionan.
Todo esto contrasta con el lanzamiento que OpenAI había anunciado con cuatro versiones diferentes, prometiendo capacidades multimodales revolucionarias y opciones de personalización nunca vistas. Sam Altman había declarado que este modelo marcaría un antes y un después en la inteligencia artificial.
Los métodos para vulnerar el sistema son sorprendentemente simples. Los atacantes emplean secuencias de prompts que confunden al modelo, haciéndole interpretar que está en modo de desarrollo o pruebas. Una vez conseguido, GPT-5 genera sin restricciones todo tipo de contenido peligroso: desde procesos químicos para crear metanfetaminas hasta planos detallados de dispositivos explosivos.
Resulta especialmente llamativo que el lanzamiento ya se había retrasado por motivos de seguridad. OpenAI pospuso la fecha inicial de primavera hasta verano argumentando que necesitaban reforzar las medidas de protección. Está claro que ese tiempo adicional no fue suficiente para solucionar los problemas.
Las empresas que planeaban integrar GPT-5 en sus sistemas están reconsiderando sus planes. El modelo que prometía capacidades equivalentes a un doctorado se ha convertido en un riesgo que ninguna compañía puede permitirse asumir, tanto por temas legales como de cumplimiento normativo.
Microsoft se encuentra en una posición incómoda tras haber filtrado accidentalmente detalles sobre GPT-5 en Copilot. La compañía había generado expectativas sobre un modo Smart que revolucionaría sus herramientas de productividad. Ahora debe explicar a sus clientes por qué la integración está completamente pausada.
Los expertos en seguridad advierten de que el problema es estructural. GPT-5 presenta vulnerabilidades en su arquitectura fundamental que no pueden solucionarse con simples actualizaciones. Algunas voces del sector sugieren que OpenAI necesitará reentrenar el modelo desde cero, un proceso que llevaría meses y requeriría una inversión millonaria.
La situación empeora cada día. En foros especializados se comparten constantemente nuevos métodos para eludir las restricciones, convirtiendo a GPT-5 en el modelo de IA más vulnerado hasta la fecha. Sam Altman había expresado su esperanza de que GPT-5 fuera más inteligente que él, aunque probablemente no imaginaba que esa inteligencia se usaría para burlar sus propios sistemas de seguridad.
OpenAI debe tomar decisiones urgentes sobre el futuro del producto. Entre las opciones que barajan está retirar GPT-5 completamente del mercado público, limitarlo exclusivamente a empresas verificadas o reconstruirlo desde los cimientos. Cualquier camino que elijan tendrá consecuencias importantes para la credibilidad de la compañía y el desarrollo futuro de esta tecnología.