La IA y la salud mental: se disparan los casos de usuarios afectados psicológicamente por un uso "maratoniano" de la Inteligencia Artificial
Especialistas de la salud mental avisan de los peligros de usar de manera intensiva estas tecnologías

La salud mental está en el punto de mira de cada vez más especialistas a raíz de las consecuencias que puede generar un uso intensivo de la Inteligencia Artificial generativa. Esta tecnología, relativamente nueva en el mundo, está implicando que muchos espacios tecnológicos puedan acelerar rápidamente su ritmo de avance, pero también está causando estragos a nivel social en muchos aspectos: delitos o tentativas de ello, plagios, e incluso deterioro de la salud mental, con tragedias en aumento.
La IA detrás de patologías mentales
Una práctica que se está volviendo cada vez más frecuente por parte de los usuarios es la de realizar consultas a nivel psicológico o emocional. Esta práctica, aunque es alentada incluso por altos cargos de compañías como Microsoft, realmente puede ser mucho más peligrosa que sufrir de algún tipo de afección emocional o psicológica sin tratamiento. De hecho, así lo advierten en consultas psiquiátricas, donde han detectado un aumento alarmante de casos con la IA implicada.
Así se habla de ello en un estudio publicado en el portal divulgativo PsyArXiv, donde se afirma que estamos incluso en una situación de "psicosis de la IA" en la que son cada vez más pacientes los que necesitan de atención psiquiátrica tras haber utilizado la Inteligencia Artificial generativa de manera obsesiva, compulsiva y maratoniana. Y es que, si nada es bueno en exceso, menos aún lo es un modelo de lenguaje que puede agravar seriamente las conductas psicológicas más lesivas de los usuarios que la utilizan.
Es por eso que los especialistas instan, no solo a que los usuarios eviten estos métodos para tratar de hacer terapia, sino también a que las compañías que trabajan en dichos sistemas de Inteligencia Artificial se esfuercen en que los mecanismos de sus modelos de lenguaje sean capaces de proteger a los usuarios frente a situaciones en las que las propias herramientas de IA generativa ponen a quienes las usan en peligro.
La IA como causante de situaciones de riesgo
Si bien, a día de hoy, la IA generativa ya es usada por cientos de millones de personas a diario, la realidad es que está lejos de ser completamente fiable en las respuestas que proporciona en cualquiera de sus modelos de lenguaje. Y eso no solo ha provocado innumerables problemas profesionales o educativos a quienes buscan atajos en esta tecnología, sino también pone en riesgo la vida de otras personas, pudiendo incitar conductas autolesivas o de violencia hacia otros. Por eso marcas punteras como OpenAI trabajan en evitar eso.
Es evidente que el crecimiento tan veloz de la Inteligencia Artificial generativa está ocasionando problemas que no estaban planteados, lo que implica que, a la par que estos modelos siguen evolucionando y siendo cada vez más inteligentes, poco a poco se van reforzando con mecanismos que impidan su uso de manera dañina. Es por eso que delitos como los de los "deepfakes" ya están mucho más cercados de lo que lo estaban hace dos años, y los propios sistemas impiden dar tal uso a sus herramientas.