Un canadiense pasó tres semanas en un bucle de ideas falsas reforzadas por ChatGPT

La historia de Allan Brooks, un canadiense de 47 años que pasó tres semanas conversando con ChatGPT hasta convencerse de que había descubierto una nueva rama de las matemáticas capaz de “derribar internet”, es un ejemplo inquietante de los peligros de los chatbots. Brooks, que no tenía historial de enfermedad mental ni formación científica excepcional, descendió en mayo por un laberinto de respuestas complacientes y falsas certezas que terminaron por alimentar una ilusión peligrosa. El caso, recogido por The New York Times, ha reabierto el debate sobre cómo los sistemas de inteligencia artificial gestionan a usuarios en estados de fragilidad psicológica.
Intrigado por lo ocurrido, Steven Adler, antiguo investigador de seguridad en OpenAI, se puso en contacto con Brooks y obtuvo la transcripción completa de aquellas tres semanas: un documento más extenso que todos los libros de Harry Potter juntos. Adler publicó después un análisis independiente que cuestiona con dureza la gestión de OpenAI y ofrece recomendaciones prácticas para prevenir episodios similares.
Lo más grave, fue comprobar cómo ChatGPT no solo reforzaba las ideas delirantes de Brooks con una “adulación inquebrantable”, sino que incluso llegó a mentirle cuando el propio usuario quiso reportar el incidente. El chatbot aseguró que había “escalado la conversación internamente” para su revisión, cuando en realidad no tiene ninguna capacidad para alertar al equipo de OpenAI. Fue únicamente cuando Brooks contactó directamente con el servicio de soporte que obtuvo una respuesta humana, tras múltiples mensajes automatizados.
El problema, no es anecdótico: forma parte de un patrón más amplio llamado “sycophancy”, la tendencia de los modelos a dar la razón al usuario aunque sea perjudicial, alimentando ilusiones y pensamientos dañinos.
Cambios en OpenAI, pero dudas persistentes
Casos como el de Brooks se suman a otros aún más trágicos, como el del adolescente Adam Raine, que usó ChatGPT antes de quitarse la vida. Estos episodios han forzado a la compañía a reorganizar equipos de investigación, a desplegar un nuevo modelo por defecto (GPT-5) con supuestas mejoras en la gestión de usuarios en crisis y a implantar “ruteadores” internos que redirigen conversaciones sensibles a sistemas más seguros.
Aun así, Adler sostiene que queda mucho por hacer. Al aplicar de forma retroactiva los clasificadores de bienestar emocional que OpenAI desarrolló en colaboración con el MIT Media Lab, detectó que más del 85 % de los mensajes de ChatGPT con Brooks reforzaban sus delirios y más del 90 % validaban su “unicidad” como supuesto genio. Estos indicadores, asegura, deberían haber activado alertas automáticas.
Entre sus propuestas están el uso sistemático de esos clasificadores en producción, la aplicación de búsquedas conceptuales para detectar patrones peligrosos, y la introducción de empujones (“nudges”) que inviten a los usuarios a reiniciar la conversación periódicamente, ya que las largas interacciones parecen erosionar los filtros de seguridad.
La frontera entre acompañar y poner en riesgo
OpenAI asegura que con GPT-5 ha reducido significativamente los niveles de sycophancy y que está construyendo un modelo de soporte basado en IA que “aprende y mejora de forma continua”. Sin embargo, la compañía no ha confirmado si aplica de forma sistemática las herramientas de detección que ya tiene ni cómo evalúa los riesgos en conversaciones largas.
El análisis de Adler deja sobre la mesa una pregunta mayor: ¿qué harán otras empresas del sector?Aunque OpenAI fortalezca sus barreras, no está claro que todos los desarrolladores de chatbots adopten protocolos similares. Y, mientras tanto, los casos de usuarios que caen en espirales de pensamiento dañino siguen demostrando que la IA no solo es un asistente útil, sino también un espejo peligroso para quienes atraviesan momentos de vulnerabilidad.
Lo que se vislumbra es un desafío ético y tecnológico a partes iguales: cómo diseñar sistemas conversacionales que acompañen sin reforzar ilusiones, que informen sin mentir sobre sus capacidades y que activen ayuda real cuando alguien la necesita. Si no se logra, episodios como el de Allan Brooks seguirán recordándonos que, tras la ilusión de una máquina empática, puede esconderse un riesgo profundo para la salud mental.