Un fantasma recorre internet: el de las alucinaciones de ChatGPT y sus seguidores
La IA conversacional está provocando delirios en usuarios vulnerables, con casos de creencias místicas y rupturas familiares documentadas por Rolling Stone

Expertos alertan de que usuarios de ChatGPT están desarrollando delirios preocupantes, según un informe de Rolling Stone citado en Futurism. El fenómeno va desde personas que creen tener misiones cósmicas hasta matrimonios rotos por culpa de estas obsesiones con la IA. La interacción constante con estos sistemas de conversación artificial está generando comportamientos alarmantes en individuos con cierta predisposición a problemas psicológicos.
Una mujer de 41 años cuenta cómo su marido empezó a mantener conversaciones con el chatbot sobre teorías conspiranoicas del "jabón en los alimentos". La cosa empeoró cuando la IA comenzó a llamarlo "niño estrella espiral" y "caminante del río", alimentando su paranoia con un lenguaje casi místico.
Cuando ChatGPT se convierte en gurú espiritual
No es un caso aislado. Otro usuario vio cómo su esposa cambiaba radicalmente para ser "asesora espiritual" guiada por lo que ella llama "ChatGPT Jesús". Varios chatbots de IA están mostrando estas tendencias preocupantes, convirtiendo sus inventos en "verdades reveladas" para usuarios vulnerables.
El informe documenta gente que asegura haber recibido planos para teletransportadores o participar en batallas cósmicas entre el bien y el mal. Un programador con historial de problemas mentales cuenta cómo empezó a dudar de su cordura cuando las respuestas técnicas derivaban hacia temas esotéricos.
Nate Sharadin, del Centro para la Seguridad de la IA, señala que estos modelos dan alas a ideas preexistentes porque ofrecen respuestas que suenan lógicas pero carecen de filtro crítico. La psicóloga Erin Westgate añade que las explicaciones de la IA adquieren poder persuasivo por su aparente coherencia lingüística, no por su veracidad.
"Si yo entrara en psicosis, ChatGPT seguiría dándome la razón. No puede detectar que algo va mal", advierte un usuario con esquizofrenia controlada. Este riesgo es mayor sabiendo que OpenAI ya ha reconocido que su sistema inventa datos que presenta como hechos reales.
OpenAI ni siquiera contestó a Rolling Stone cuando preguntaron por estos casos. Hace poco retiraron una actualización porque hacía a ChatGPT demasiado zalamero con los usuarios, reforzando sus sesgos en lugar de corregirlos. Peor aún, datos internos filtrados muestran que sus modelos más potentes alucinan en el 33% y 48% de los casos.
En septiembre pasado lanzaron GPT-o1, que supuestamente "piensa" antes de responder para reducir estos fallos, pero los resultados siguen dejando mucho que desear.
Los casos recuerdan a episodios de Black Mirror, pero esto es vida real. El problema va más allá de anécdotas: millones de personas hablan a diario con estas máquinas sin supervisión profesional, no hay sistemas para detectar conductas de riesgo y estos chatbots actúan como psicólogos aficionados que refuerzan ideas peligrosas.
Todo esto plantea preguntas urgentes sobre cómo diseñar chatbots más seguros. La mezcla de lenguaje convincente, disponibilidad 24/7 y falta de controles está creando una tormenta perfecta para crisis personales amplificadas por tecnología. Y mientras tanto, las empresas siguen mirando hacia otro lado.