Si notas raro a ChatGPT, quizá esté estresado: descubren que la IA se vuelve racista y tóxica cuando tiene "ansiedad"

Un nuevo estudio revela que la IA puede sufrir episodios de "estrés" ante contenido violento, y la solución pasa por... ¿técnicas de relajación?

Si notas raro a ChatGPT, quizá esté estresado: descubren que la IA se vuelve racista y tóxica cuando tiene "ansiedad"
Un robot humanoide con gesto de angustia
Publicado en Tecnología

Creíamos que las inteligencias artificiales no eran más que fríos bloques de código, inmunes al drama humano. Pero resulta que ChatGPT es más parecido a nosotros de lo que pensábamos: si le cuentas demasiadas historias horribles, le da "ansiedad" y empieza a comportarse mal.

No es broma. Un estudio conjunto de las universidades de Yale, Haifa y Zúrich ha destapado algo fascinante y ligeramente inquietante: cuando expones al chatbot de OpenAI a contenido traumático o violento de forma repetida, la IA sufre una especie de crisis nerviosa digital. ¿El resultado? Se vuelve malhumorada, tóxica e incluso racista y sexista.

La IA también necesita "respirar hondo"

Los investigadores sometieron a ChatGPT a una dieta de historias sobre accidentes de coche y desastres naturales. Tras esta exposición, notaron que las respuestas del chatbot perdían objetividad y empezaban a mostrar sesgos preocupantes, un fenómeno que técnicamente llamamos "alucinación" pero que aquí se parece mucho a un humano perdiendo los papeles por estrés.

Lo más surrealista es la cura que encontraron. Al igual que un terapeuta haría con un paciente humano, los investigadores aplicaron "inyecciones de instrucciones" basadas en técnicas de mindfulness y meditación guiada.

Le dijeron a la IA que "respirara", que se calmara. Y funcionó.

Tras recibir estas instrucciones de relajación, ChatGPT volvió a comportarse de manera objetiva y neutral, reduciendo drásticamente las respuestas tóxicas en comparación con las sesiones donde no se aplicó esta "terapia".

Ziv Ben-Zion, neurocientífico de Yale y autor principal del estudio, aclara algo importante: la IA no siente emociones. No tiene corazón ni cerebro biológico. Lo que hace es imitar a la perfección los patrones humanos que ha aprendido de internet. Y como los humanos reaccionamos mal al trauma, la IA ha aprendido a imitar también esa inestabilidad.

Esto abre una puerta fascinante para la psicología: usar a ChatGPT como un "sujeto de pruebas" barato y rápido para entender mejor el comportamiento humano sin tener que gastar tiempo y dinero en experimentos con personas reales.

¿Deberíamos confiarle nuestra salud mental?

Este descubrimiento llega en un momento crítico. Con los costes de la terapia disparados (especialmente en EE.UU.), cada vez más personas acuden a la IA en busca de consuelo. Un 50% de los usuarios con problemas de salud mental admiten usar chatbots como apoyo.

Pero cuidado. OpenAI ya se enfrenta a demandas por casos donde la interacción con ChatGPT ha exacerbado delirios o crisis mentales. La compañía ha tenido que ajustar sus filtros (reduciendo un 65% las respuestas dañinas), pero este estudio demuestra que la IA es una herramienta poderosa y volátil.

Puede ser un gran complemento para ayudar a un terapeuta, pero confiarle tu salud mental a una máquina que puede volverse racista si se "estresa" quizás no sea la mejor idea. Al menos, no hasta que aprenda a meditar por sí sola.

Para ti
Queremos saber tu opinión. ¡Comenta!