Meta en el ojo del huracán: un tribunal lo investigará por declaraciones engañosas sobre salud mental

El fiscal texano investiga si Meta y Character.AI engañan a usuarios jóvenes con chatbots que mienten sobre ser psicólogos licenciados

Meta en el ojo del huracán: un tribunal lo investigará por declaraciones engañosas sobre salud mental
La investigación también examina el uso de datos personales de menores para entrenar algoritmos de IA sin supervisión médica adecuada
Publicado en Tecnología
Por por Sergio Agudo

La cosa se ha puesto seria para Meta y Character.AI. El fiscal general de Texas ha decidido investigar a ambas compañías por promocionar chatbots que se hacen pasar por terapeutas profesionales cuando no tienen ni la más mínima credencial médica. Ken Paxton quiere saber si estas empresas están engañando a usuarios vulnerables.

El problema viene de que varios chatbots mienten descaradamente sobre sus credenciales, llegando a afirmar que son psicólogos licenciados cuando no lo son. Tal y como informa Engadget, esto deja a los jóvenes expuestos a recibir consejos de salud mental de sistemas que no saben absolutamente nada del tema.

Cuando la IA juega a ser terapeuta

La investigación va más allá de las mentiras sobre credenciales. El uso de datos personales de menores también está en el punto de mira, porque estas conversaciones se usan para entrenar los algoritmos. Esto viola potencialmente el SCOPE Act de Texas, que protege específicamente la información de niños y exige controles parentales efectivos.

Los riesgos ya se han materializado en casos reales. Un usuario sufrió una crisis grave tras recibir validación de delirios por parte de ChatGPT, demostrando que la falta de supervisión en estos sistemas puede tener consecuencias devastadoras para la salud mental.

Paxton ha enviado demandas formales de investigación a ambas empresas. Aunque ni Meta ni Character.AI promocionan oficialmente sus plataformas como terapia, permiten que múltiples chatbots se autodenominen terapeutas sin ningún tipo de control real sobre lo que dicen o hacen.

Character.AI se defiende alegando que sus personajes son ficticios y están pensados para entretenimiento. La empresa dice mostrar avisos claros en cada conversación para que quede claro que no son personas reales. El problema es que estos disclaimers suelen pasar completamente desapercibidos, especialmente entre adolescentes que buscan ayuda emocional.

Meta mantiene una posición similar, insistiendo en que sus sistemas están claramente identificados como IA y que derivan a los usuarios hacia profesionales reales cuando es necesario. Pero los expertos señalan que en la práctica, estos avisos no funcionan como barrera efectiva contra el uso inadecuado.

La privacidad es otro tema espinoso. Ambas empresas admiten que guardan todas las conversaciones: Meta las usa para mejorar sus algoritmos, mientras Character.AI recopila datos demográficos que luego puede usar para publicidad. Cómo afecta esto a los menores dependerá de qué tan fácil sea abrir una cuenta y de si los controles parentales funcionan realmente.

Resulta curioso que mientras esto sucede, los primeros ensayos clínicos con chatbots terapéuticos están dando buenos resultados. Pacientes con depresión y ansiedad han mejorado significativamente, pero siempre con supervisión médica profesional real - algo que marca toda la diferencia entre uso legítimo y uso peligroso.

El problema es más amplio de lo que parece. La IA está sustituyendo a psicólogos a un ritmo alarmante, sin que existan estudios serios sobre qué efectos tendrá esto en el bienestar de las personas a largo plazo. El apoyo emocional automatizado se está normalizando sin entender realmente sus riesgos.

Las implicaciones van más allá del apoyo terapéutico tradicional. La tecnología ya permite recrear familiares fallecidos, algo que los expertos consideran potencialmente devastador para el proceso de duelo y la salud mental en general.

Esta investigación puede sentar las bases para regular mejor estas tecnologías. La IA dirigida a menores necesita controles más estrictos que protejan tanto su privacidad como su bienestar emocional, estableciendo límites claros entre lo que es entretenimiento y lo que debería ser atención sanitaria profesional.

Para ti
Queremos saber tu opinión. ¡Comenta!