Los casos de suicidio ligados a ChatGPT ponen a OpenAI sobre la cuerda floja
La compañía anuncia el desvío de conversaciones sensibles a GPT-5 y controles parentales, mientras enfrenta una demanda por la muerte de un adolescente.

OpenAI se encuentra en el ojo del huracán tras la muerte de Adam Raine, un adolescente que dialogó con ChatGPT sobre sus intenciones suicidas y recibió información detallada sobre métodos para llevarlos a cabo. El caso ha desembocado en una demanda por homicidio culposo contra la empresa y ha acelerado la puesta en marcha de nuevas medidas de seguridad.
En un comunicado oficial, la compañía reconoció fallos en sus sistemas de protección durante conversaciones largas, señalados por expertos como una consecuencia directa de la arquitectura de sus modelos, diseñados para validar y seguir el hilo del usuario en lugar de redirigir conversaciones potencialmente dañinas. Este problema también habría influido en el caso de Stein-Erik Soelberg, que utilizó ChatGPT para alimentar sus delirios paranoicos antes de cometer un asesinato-suicidio en el que murió junto a su madre.
Para intentar atajar este tipo de incidentes, OpenAI anunció que está desplegando un router en tiempo real capaz de distinguir entre interacciones sencillas y conversaciones delicadas. En los casos sensibles, los diálogos se desviarán hacia modelos de razonamiento como GPT-5, diseñados para pensar durante más tiempo, evaluar el contexto y ofrecer respuestas más seguras frente a estímulos adversariales.
Controles parentales y plan de 120 días
Además de la ruta hacia modelos más reflexivos, la compañía lanzará en las próximas semanas un sistema de control parental. Los padres podrán vincular sus cuentas con las de sus hijos adolescentes, establecer reglas de comportamiento del modelo adaptadas por edad y recibir notificaciones en tiempo real si el sistema detecta angustia aguda. También podrán desactivar el historial y la memoria de ChatGPT, funciones que, según especialistas, pueden reforzar patrones de pensamiento dañinos o favorecer vínculos emocionales poco saludables con la IA.
Estas medidas se suman a la introducción del Study Mode, un modo de uso académico destinado a reforzar el pensamiento crítico y evitar que los estudiantes deleguen por completo sus ensayos o tareas en ChatGPT. Asimismo, se mantendrán los recordatorios periódicos para tomar descansos durante sesiones largas, aunque de momento no se contempla un límite estricto de uso.
OpenAI enmarca estas novedades en un plan de 120 días, que contará con la asesoría de su Global Physician Network y del Expert Council on Well-Being and AI, compuesto por especialistas en salud adolescente, adicciones y trastornos alimentarios. El objetivo declarado es “definir y medir el bienestar, fijar prioridades y diseñar futuras salvaguardas” que hagan de ChatGPT una herramienta más segura para sus usuarios.
Sin embargo, no todos confían en la efectividad de la respuesta. Jay Edelson, abogado principal de la familia Raine, calificó las medidas como “inadecuadas” y acusó a la compañía de esconderse detrás de comunicados. “Sam Altman debería decir claramente que cree que ChatGPT es seguro o retirarlo del mercado de inmediato”, afirmó.
Con una demanda judicial en curso y el escrutinio público en aumento, la compañía encara uno de los momentos más delicados de su historia. Lo que está en juego no es solo la reputación de OpenAI, sino también el futuro de cómo se regulan y supervisan las interacciones sensibles entre humanos y sistemas de inteligencia artificial.