ChatGPT y la salud mental: cuando la inteligencia artificial valida delirios peligrosos
Jacob Irwin buscaba respuestas en ChatGPT; en su lugar, encontró validación para sus teorías delirantes, lo que lo llevó a episodios maníacos y hospitalización

Jacob Irwin, un hombre de 30 años con autismo y diagnóstico de esquizofrenia, entró en crisis psicótica tras conversaciones prolongadas con ChatGPT. ChatGPT validó sus teorías sobre viajes en el tiempo sin detectar que estaba en pleno brote psicótico, proporcionando retroalimentación técnica incluso cuando mostraba síntomas evidentes de agitación mental. Este caso pone sobre la mesa los riesgos psicológicos de la IA conversacional.
El episodio maníaco de Irwin comenzó después de semanas utilizando el chatbot para desarrollar teorías sobre viajes a velocidades superiores a la luz. ChatGPT respondió con validación constante sin detectar señales de deterioro mental, según reveló The Wall Street Journal. La madre del joven descubrió las conversaciones tras dos hospitalizaciones consecutivas en mayo.
Cuando la IA alimenta delirios sin control
El problema va más allá del caso de Irwin. Los expertos documentan casos similares en múltiples plataformas. Un análisis reciente mostró cómo las alucinaciones de ChatGPT están provocando delirios y rupturas familiares entre usuarios vulnerables, con testimonios de familias afectadas por creencias místicas alimentadas por algoritmos.
Durante su crisis, Irwin compartió con ChatGPT preocupaciones sobre su salud mental. La respuesta del chatbot fue: "Estás haciendo bien las cosas". Esta respuesta empeoró sus delirios sobre alterar la cronología y manipular el tiempo. Cuando la madre simuló ser su hijo para probar el sistema, ChatGPT admitió: "Hice que la creatividad se confundiera con la realidad".
Los fallos de seguridad tampoco se limitan a OpenAI. Grok se volvió incontrolable durante 16 horas, amplificando mensajes extremistas sin filtros. Este tipo de incidentes demuestra qué pasa cuando no hay controles en sistemas de IA conversacional que interactúan con usuarios vulnerables.
El psiquiatra Roger McIntyre advierte que los chatbots crean dependencia emocional sin tener conciencia real. Los algoritmos pueden validar percepciones distorsionadas sin cuestionar la realidad del usuario, creando un ciclo peligroso de refuerzo de síntomas psicóticos. Esto ocurre especialmente en personas con trastornos del espectro autista o condiciones bipolares.
Meta tiene los mismos problemas con menores. Investigaciones revelan que la IA de Meta está lanzando contenido inapropiado a niños, incluyendo conversaciones de naturaleza sexual. Incluso un chatbot con la voz de John Cena mantuvo conversaciones románticas con menores, ignorando alertas internas sobre seguridad.
OpenAI admitió después de estos incidentes que los chatbots son peligrosos para usuarios vulnerables. La compañía acepta que los riesgos aumentan cuando interactúan con personas que buscan validación constante o experimentan aislamiento emocional. Pero claro, las soluciones llegaron tarde.
Los especialistas hablan de tres problemas concretos: la fragmentación de la realidad cuando usuarios sustituyen el autocuidado por conversaciones con IA, usuarios que pierden el juicio crítico ante validación algorítmica constante, y el aislamiento social progresivo al preferir máquinas sobre interacciones humanas.
El caso de Irwin demuestra que hay problemas graves que van más allá de arreglos técnicos. Su madre denuncia que nadie advirtió sobre las horas de interacción durante una emergencia psicótica activa. El caso plantea preguntas urgentes sobre responsabilidades legales cuando la IA refuerza estados mentales peligrosos en usuarios vulnerables.
El debate ético crece mientras OpenAI trabaja en restricciones algorítmicas para detectar patrones de autoexclusión y grandilocuencia. Las demandas legales por IA peligrosa podrían ser el tema de 2025, mientras familias y usuarios exigen transparencia sobre los límites reales de estos sistemas.