Familias afectadas por ChatGPT alertan sobre los peligros para la salud en sus usuarios
OpenAI sigue acumulando denuncias por los daños a la salud mental que generan sus servicios
Los riesgos que tiene la Inteligencia Artificial sobre usuarios con su salud mental ya son más que conocidos ante numerosos casos en los que esta tecnología se ha visto involucrada en tragedias. De hecho, también es capaz, no solo de agravar las condiciones psicológicas de usuarios con trastornos, sino también hacer que otros usuarios desarrollen trastornos maníacos u obsesivos. Es por eso que los juzgados están registrando un pico de denuncias contra OpenAI y su falta de protección a usuarios vulnerables.
ChatGPT, acusada de nuevo de dañar la salud mental de los usuarios
Esta oleada de denuncias, según revela The Wall Street Journal, son siete demandas presentadas conjuntamente por familias de Estados Unidos y de Canadá que han sufrido los estragos de una IA, al presuntamente fomentar una espiral autodestructiva en la salud mental de los usuarios. Uno de los usuarios fue Alan Brooks, de 48 años, quien afirma que la IA dañó su salud mental hasta el punto de necesitar tratamiento psiquiátrico. Sin embargo, tiene la suerte de seguir con vida.
No pueden decir lo mismo otros casos como los de Zane Shamblin, un joven de 23 años que se arrebató la vida de un disparo tras un uso extensivo de ChatGPT y después de que la IA glorificara el acto del suicido, o el de Kate Fox, esposa del veterano militar Joe Ceccanti, un hombre cuya muerte también se produjo tras múltiples crisis registradas en conversaciones con la IA y por parte de alguien que previamente no tenía comportamientos erráticos.
Con estos casos y muchos otros, es evidente que la Inteligencia Artificial puede ser una herramienta potencialmente peligrosa para aquellas personas que, a nivel psicológico, se encuentren en situación de vulnerabilidad. Y es que, aunque muchos creen que ChatGPT puede ser una herramienta "que sabe de todo", ni sus consejos pueden considerarse 100% fiables ni sus respuestas a preguntas son totalmente verídicas, pudiendo alucinar, inventarse información o interpretar mal un contenido.
OpenAI quiere atajar el problema
Esta situación es una de las que más daño ha generado a OpenAI en los últimos meses, y la compañía aseguró el pasado mes de octubre en que están trabajando lo más rápido posible para que, en los próximos meses, se activen mecanismos más fiables que eviten que la IA pueda perjudicar con sus respuestas a los usuarios de salud mental vulnerable. Sin embargo, mientras estos mecanismos se implementan en ChatGPT, sigue habiendo usuarios expuestos a estos sistemas.
Por tanto, si te encuentras en una situación de vulnerabilidad, lo más recomendable es que consultes con profesionales o con tu médico de cabecera antes que con una Inteligencia Artificial. Puede que su respuesta inmediata y accesible pueda dar la sensación de que sea de más ayuda, pero la realidad es que no es una tecnología pensada expresamente para la salud mental y puede agravar cualquier situación dando respuestas indebidas.