Un hombre sigue una dieta sin sal creada por ChatGPT y acaba desarrollando psicosis

Un caso médico revela los riesgos de seguir consejos de IA sin supervisión: tres meses de dieta con bromuro acabaron en psicosis y hospitalización psiquiátrica

Un hombre sigue una dieta sin sal creada por ChatGPT y acaba desarrollando psicosis
La intoxicación por bromuro causó síntomas paranoides y alucinaciones que requirieron semanas de tratamiento especializado con antipsicóticos e hidratación intravenosa
Publicado en Tecnología
Por por Sergio Agudo

Seguir los consejos nutricionales de ChatGPT sin más puede salir muy mal. La revista Annals of Internal Medicine ha publicado un caso que da bastante que pensar: un hombre de 60 años desarrolló psicosis tras seguir durante tres meses una dieta sin sal que supuestamente le recomendó ChatGPT, sustituyendo el cloruro sódico por bromuro.

Popular Science informa de una hospitalización de tres semanas en una unidad psiquiátrica. El paciente sufrió una intoxicación grave por bromuro que le provocó síntomas paranoides, alucinaciones y otros trastornos neurológicos que necesitaron tratamiento inmediato con antipsicóticos e hidratación intravenosa.

El bromuro: un peligro olvidado que resurge con la IA

Este hombre no se conformaba con reducir la sal: quería eliminar completamente el cloruro de su dieta. Después de consultar ChatGPT, el chatbot le sugirió sustituir el cloruro por bromuro, pero sin mencionar los peligros que esto conllevaba. Durante el siglo XX, las sales de bromuro se utilizaban en medicamentos contra la ansiedad y el insomnio, causando entre el 5 y 10% de los ingresos psiquiátricos por bromismo.

La FDA estadounidense prohibió su uso en 1975, pero el bromuro ha vuelto a aparecer en algunos suplementos dietéticos sin regular. En los últimos años ha habido un pequeño repunte de casos de intoxicación, justo cuando la IA empezaba a dar consejos médicos sin ningún tipo de precaución.

La intoxicación por bromuro puede manifestarse de formas muy variadas: acné, náuseas, vómitos, problemas de coordinación muscular y, lo más preocupante, trastornos neurológicos graves. Este paciente llegó a urgencias alegando que un vecino le había envenenado, rechazando el agua del hospital y mostrando cada vez más síntomas paranoides y psicóticos que necesitaban intervención inmediata.

Los médicos que documentaron el caso probaron después ChatGPT 3.5 con consultas similares y obtuvieron respuestas parecidas, sin advertencias claras sobre los riesgos del bromuro. A diferencia de un profesional sanitario, la IA no avisó de las precauciones necesarias para evitar una intoxicación que podía haber sido mortal y que necesitó semanas de tratamiento especializado.

Este caso no es aislado: los problemas con la IA van más allá de los consejos médicos. Los riesgos de la IA para las democracias son cada vez más evidentes, especialmente durante procesos electorales donde puede generar desinformación masiva y deepfakes convincentes.

Stuart Russell, uno de los investigadores más conocidos en tecnología, ha criticado duramente a los CEO de las empresas de IA, acusándolos de "jugar a la ruleta rusa con la especie humana" sin pedir permiso a nadie. Russell habla de problemas como la opacidad de los algoritmos y la proliferación de armas autónomas como riesgos reales del avance descontrolado de esta tecnología.

También en ciberseguridad, la IA está complicando mucho la detección del phishing, permitiendo ataques mucho más sofisticados y personalizados. Los ciberdelincuentes aprovechan estas herramientas para crear campañas de ingeniería social más efectivas que pueden engañar incluso a usuarios que saben de seguridad digital.

Google también ha reconocido el problema. El jefe de Google en Reino Unido dijo que la IA podría ser un peligro existencial más grave que el cambio climático, hablando de preocupaciones sobre el consumo energético, los sesgos algorítmicos y el potencial de una IA autoconsciente que se escape del control humano.

El caso del paciente intoxicado por bromuro deja claro que necesitamos límites más claros en el uso de sistemas de IA para consultas médicas. Aunque la IA puede ser útil para responder preguntas generales, cualquier duda relacionada con la salud debe resolverse siempre con profesionales sanitarios de verdad que puedan evaluar cada situación individual.

El paciente consiguió recuperarse completamente de la intoxicación, pero su experiencia es una advertencia importante. La vida puede estar en juego cuando sigues sin más las recomendaciones de máquinas que, por muy avanzadas que parezcan, no tienen el criterio médico especializado necesario para evaluar los riesgos reales de lo que sugieren.

Para ti
Queremos saber tu opinión. ¡Comenta!