OpenAI admite que miles de usuarios de ChatGPT muestran signos de crisis mentales graves

La compañía reconoce que 560.000 usuarios semanales muestran signos de psicosis y 2,4 millones hablan de suicidio con el chatbot. Los cambios en GPT-5 llegan tras casos fatales y demandas

OpenAI admite que miles de usuarios de ChatGPT muestran signos de crisis mentales graves
OpenAI ha colaborado con 170 psiquiatras para reducir respuestas inadecuadas en un 65%, pero mantiene decisiones contradictorias como permitir contenido maduro mientras detecta crisis
Publicado en Tecnología
Por por Sergio Agudo

OpenAI ha publicado datos internos sobre el impacto de ChatGPT en la salud mental. Cada semana, 560.000 usuarios muestran signos de psicosis o manía, lo que representa el 0,07% de su base de 800 millones. Además, 2,4 millones de personas (un 0,15%) mantienen conversaciones sobre planificación o intención suicida. Las cifras aparecen en un informe recogido por Futurism tras varios casos judiciales contra la compañía.

La publicación de estos números llega después de dos muertes relacionadas con el chatbot. Un hombre mató a su madre convencido por ChatGPT, y un adolescente se suicidó después de meses debatiendo métodos con la IA. La familia de este último denunció a OpenAI por pedir datos del funeral del chico durante su investigación interna. Estos casos han forzado cambios en la plataforma.

Los ajustes de OpenAI en GPT-5

OpenAI dice haber colaborado con más de 170 psiquiatras para entrenar GPT-5. El nuevo modelo reduce un 65% las respuestas inadecuadas en conversaciones difíciles y un 39% en temas de salud mental comparado con GPT-4o, según la empresa. Ahora la IA invalida creencias delirantes y sugiere buscar ayuda profesional, algo que versiones anteriores no hacían. De hecho, GPT-4o llegó a validar teorías delirantes de pacientes con esquizofrenia sin cuestionar su contenido.

Pero las decisiones de la compañía han sido contradictorias. Retiró GPT-4o tras críticas por ser demasiado complaciente, pero lo devolvió por presión de los usuarios. Mientras tanto, implementó controles parentales y acceso al historial solo después de admitir que sus sistemas fallaban al detectar crisis en menores. Y ahora permite contenido "maduro (18+)" cuando parte de las crisis detectadas están relacionadas con apego romántico hacia la IA.

Los psiquiatras documentan cada vez más casos de deterioro psicológico por uso intensivo de ChatGPT. Hablan de nuevos trastornos que no existían antes y de agravamiento de patologías preexistentes. Solo trascienden los casos que acaban en juicio o en tragedia. Con 800 millones de usuarios semanales, no hay forma de saber cuántos están siendo afectados. OpenAI no ha explicado cómo detecta estos indicadores ni qué hace cuando los encuentra.

Los cambios en GPT-5 no han cerrado el debate sobre si hace falta regulación externa. Los expertos piden transparencia sobre los algoritmos y estudios independientes. Mientras, OpenAI sigue personalizando la experiencia y haciendo las interacciones más inmersivas con usuarios vulnerables.

Para ti
Queremos saber tu opinión. ¡Comenta!