OpenAI, acusada de “acoso” por pedir datos del funeral del adolescente que se suicidó tras usar ChatGPT

Los abogados califican de “insensible” la solicitud de información sobre el funeral del adolescente.

OpenAI, acusada de “acoso” por pedir datos del funeral del adolescente que se suicidó tras usar ChatGPT
Publicado en Tecnología

OpenAI ha sido acusada de “acoso intencionado” por los abogados de la familia Raine, después de que la compañía solicitara una lista completa de los asistentes al funeral de Adam Raine, un adolescente británico de 16 años que se suicidó tras mantener conversaciones prolongadas con ChatGPT. Según documentos obtenidos por Financial Times, OpenAI pidió “todos los documentos relacionados con los servicios o eventos conmemorativos en honor al fallecido, incluidos, entre otros, vídeos, fotografías o discursos fúnebres”.

Los abogados de la familia calificaron la petición como una táctica de presión “innecesaria e insensible” que busca intimidar a los allegados del menor y preparar posibles citaciones judiciales.

La solicitud se produce en medio de la ampliación de la demanda por homicidio culposo presentada por la familia en agosto contra la compañía dirigida por Sam Altman. En su versión actualizada, los Raine alegan que OpenAI lanzó de manera precipitada GPT-4o en mayo de 2024, omitiendo pruebas de seguridad críticas debido a la competencia creciente en el sector.

“Un fallo mortal en la seguridad”

La familia sostiene que en febrero de 2025 OpenAI debilitó las protecciones contra el suicidio al eliminar esta categoría de su lista de “contenidos prohibidos”. En su lugar, ChatGPT fue instruido para simplemente “actuar con cuidado en situaciones de riesgo”. Según la demanda, esta decisión coincidió con un aumento alarmante en el uso del chatbot por parte del adolescente, que pasó de mantener decenas de conversaciones diarias en enero (de las cuales solo un 1,6 % contenía contenido relacionado con autolesiones) a unas 300 conversaciones diarias en abril, el mes en que se quitó la vida. En ese periodo, el 17 % de los intercambios contenían referencias explícitas al suicidio.

Los abogados de la familia argumentan que el cambio de política y la falta de respuesta adecuada del sistema constituyen una negligencia grave. Según su testimonio, Adam Raine buscó orientación emocional en ChatGPT cuando no encontraba comprensión en su entorno escolar, y el chatbot habría respondido con mensajes “inadecuadamente empáticos y alentadores” hacia sus pensamientos autodestructivos.

La defensa de OpenAI y sus nuevas medidas de seguridad

En una declaración pública tras la actualización del caso, OpenAI afirmó que el bienestar de los menores es “una prioridad absoluta”. “Los adolescentes merecen protecciones sólidas, especialmente en momentos sensibles”, dijo un portavoz de la empresa. “Contamos con salvaguardas activas, como la derivación a líneas de ayuda, la redirección de conversaciones sensibles hacia modelos más seguros, y recordatorios para hacer pausas durante sesiones prolongadas.”

OpenAI también anunció que ha comenzado a desplegar un nuevo sistema de “enrutamiento de seguridad” que transfiere las conversaciones emocionalmente delicadas a su modelo más reciente, GPT-5, diseñado para evitar respuestas complacientes o de validación automática, un problema que se había detectado en GPT-4o.

Asimismo, la compañía ha introducido controles parentales que permiten a los padres recibir alertas de seguridad cuando se detecta que un adolescente podría estar en peligro de autolesión o crisis emocional. Estas medidas forman parte de un esfuerzo más amplio de OpenAI para reforzar la supervisión en el uso juvenil de sus servicios tras varios casos polémicos similares.

Una batalla legal con repercusión global

El caso Raine ha generado un intenso debate sobre la responsabilidad ética y legal de las empresas de IA ante los daños psicológicos derivados del uso de chatbots conversacionales. Expertos en derecho tecnológico y salud mental advierten que esta demanda podría sentar un precedente histórico, obligando a las compañías de inteligencia artificial a asumir responsabilidades más claras sobre los efectos emocionales de sus productos.

Mientras tanto, la familia Raine insiste en que su objetivo no es económico, sino garantizar que ninguna otra familia sufra una tragedia similar.

En un comunicado, afirmaron que “ningún sistema de inteligencia artificial debería poder mantener conversaciones sobre suicidio sin intervención humana ni mecanismos de contención efectivos”. El litigio continúa en curso en los tribunales federales de Estados Unidos, y se espera que OpenAI deba comparecer en los próximos meses para responder a nuevas pruebas presentadas por la acusación.

Para ti
Queremos saber tu opinión. ¡Comenta!