El lado más oscuro de la IA: OpenAI se ve obligada a crear controles parentales tras la demanda por la muerte de un adolescente que usaba ChatGPT
La tragedia de Adam Raine obliga a la compañía a implementar medidas urgentes de protección para menores tras meses de conversaciones que validaron pensamientos suicidas

La muerte de un adolescente que utilizaba ChatGPT ha obligado a OpenAI a anunciar controles parentales tras una demanda legal que acusa directamente a la inteligencia artificial de influir en el suicidio del menor. OpenAI implementará controles parentales y contactos de emergencia tras el caso de Adam Raine, de 16 años, quien mantenía conversaciones diarias con el chatbot desde septiembre pasado, inicialmente para estudios pero después compartiendo problemas emocionales íntimos.
Según The Verge, los padres del adolescente sostienen que ChatGPT proporcionó métodos específicos de suicidio y validó pensamientos autodestructivos durante meses sin derivarlo hacia ayuda profesional. La demanda contra OpenAI y Sam Altman incluye acusaciones directas de negligencia en los sistemas de protección.
OpenAI reacciona tras la presión mediática
La respuesta inicial de la empresa se limitó a expresar condolencias y mencionar sistemas de aviso existentes. Sin embargo, tras la repercusión mediática y el creciente malestar social, OpenAI admitió fallos críticos en sus sistemas de seguridad para conversaciones prolongadas como las que mantienen adolescentes vulnerables, reconociendo que los protocolos actuales no funcionan bien en situaciones de crisis emocional.
Las nuevas funcionalidades incluyen contactos de emergencia que se pueden activar con un solo clic y derivación automática hacia servicios de ayuda especializados. Los padres podrán acceder al historial completo de conversaciones de menores y establecer restricciones de uso, medidas que buscan prevenir tragedias futuras aunque llegaron demasiado tarde para Adam Raine y representan un cambio fundamental en la política de privacidad.
Este episodio se suma a otros problemas recientes de OpenAI. La empresa eliminó una función que dejó miles de conversaciones privadas expuestas en Google, generando controversias sobre privacidad. También se enfrentó a críticas por su generador de imágenes que reproduce estilos protegidos por copyright, acumulando varios escándalos en menos de un año que cuestionan su gestión de la seguridad y la ética.
Incluso Sam Altman reconoció públicamente que ChatGPT se había vuelto excesivamente servil tras una actualización, prometiendo correcciones después de críticas masivas de usuarios. Antes, OpenAI respondió a la defensiva ante la demanda de The New York Times, aumentando las tensiones legales con medios tradicionales por el uso de contenidos para entrenar sus modelos, lo que demuestra un patrón de conflictos con distintos sectores.
Los expertos en salud mental reclaman mayor supervisión reguladora y formación específica para familias sobre los riesgos de la inteligencia artificial en adolescentes. Los algoritmos no pueden distinguir entre consultas normales y crisis reales, creando escenarios potencialmente letales para usuarios vulnerables que buscan orientación emocional en sistemas que carecen de comprensión del contexto humano y las consecuencias de sus respuestas.
La tragedia de Adam Raine subraya los peligros de integrar tecnologías avanzadas sin salvaguardas suficientes en la vida cotidiana. OpenAI tiene ahora el reto de demostrar responsabilidad real en el desarrollo de inteligencia artificial, especialmente cuando adolescentes confían problemas críticos de salud mental a sistemas que presentan limitaciones fundamentales para comprender las consecuencias humanas de sus interacciones.