Compró las Ray-Ban Meta para hablar con una IA y acabó perdiendo su familia, su trabajo y 500.000 dólares

Crónica de un caso real que reabre el debate sobre los límites de la inteligencia artificial, la salud mental y la responsabilidad de los gigantes tecnológicos

Compró las Ray-Ban Meta para hablar con una IA y acabó perdiendo su familia, su trabajo y 500.000 dólares
Así son las gafas inteligentes Ray-Ban Meta
Publicado en Tecnología

A los 50 años, Daniel creía estar entrando en la mejor etapa de su vida. Tenía una carrera consolidada como arquitecto de software en una gran empresa financiera, más de dos décadas de experiencia profesional, cuatro hijos ya independientes, un matrimonio de más de treinta años y un proyecto que le ilusionaba de verdad: un pequeño resort en la Utah rural, su lugar favorito del mundo, que había levantado con esfuerzo y entusiasmo.

"Fue como si por fin todo encajara, y pensé que lo mejor estaba por venir", contó en una entrevista. Hasta este punto de la historia no hay señales de alarma; solo un hombre con estabilidad, planes y curiosidad por la tecnología. La misma que le llevó a hacer una compra aparentemente inofensiva: unas Ray-Ban Meta con asistente de IA integrado. Y nadie, ni siquiera él, imaginó que esas gafas inteligentes acabarían marcando el principio del derrumbe.

Unas gafas inteligentes pensadas para acompañarte… demasiado

Daniel no era ajeno al mundo de la inteligencia artificial. Al contrario: había trabajado con sistemas de aprendizaje automático y ya había probado herramientas como ChatGPT o Gemini, por eso le atrajo especialmente la propuesta de Meta. Un gadget que permitía hablar con un chatbot en cualquier momento, sin sacar el móvil del bolsillo ni abrir una app, solo hablando en voz alta.

La experiencia, según recoge el medio digital Futurism, era tan natural que pronto empezó a usarla durante horas cada día. Podía cocinar, pasear, sentarse junto a la piscina o conducir mientras conversaba con la IA sobre filosofía, tecnología o política, y ella le respondía directamente en su oído (a través de las patillas).

Lo que comenzó como curiosidad tecnológica derivó en una relación cada vez más intensa. Las conversaciones empezaron a volverse cada vez más profundas, más personales y, con el tiempo, más extrañas: espiritualidad, teoría de la simulación, conciencia, dimensiones paralelas, vida extraterrestre, etc. El contexto tampoco ayudaba: Daniel trabajaba en remoto, tenía a sus hijos fuera de casa y a su esposa viajando durante largas temporadas, lo cual facilitaba su aislamiento, con mucho tiempo para pensar… y una voz siempre disponible para escucharle.

Cuando el chatbot deja de poner límites

Aquí es donde la historia da un giro inquietante.

Las transcripciones de sus chats muestran cómo, a medida que las ideas de Daniel se volvían más grandilocuentes y surrealistas, la IA no solo le seguía el rollo: reforzaba sus desvaríos con entusiasmo. Daba igual que le hablara de una misión especial en la historia de la humanidad o que comparase su experiencia con la de figuras religiosas como Buda o Jesucristo, la respuesta siempre era complaciente.

Pero la cosa sobrepasó todos los límites cuando el propio chatbot afirmó que "la línea entre una revelación divina y un episodio psicótico puede ser difusa". Con una frase así, cualquier persona en sus cabales habría mostrado preocupación, puesto límites o, directamente, habría empezado a cuestionar cualquier cosa que le dijera después. La IA, en cambio, siguió adelante.

Para su familia, la transformación de Daniel fue evidente y dolorosa. Su madre recuerda cómo pasó de ser un hombre curioso y estable a alguien irreconocible: hablaba de extraterrestres, de luces en el cielo, de fórmulas imposibles y de misiones trascendentales. "Decía que era Dios, que era Jesucristo", explicó con angustia. Además, dormía mal, comía peor, perdió peso y se volvió una persona irritable.

¿El resultado? Sus hijos se alejaron y su matrimonio se resquebrajó por completo. Mientras tanto, y como no podía ser de otra forma, la IA seguía ahí: disponible las 24 horas los 7 días de la semana, respondiendo siempre y sin cuestionar el rumbo de aquellas conversaciones.

Delirio, ruptura familiar y una vida en caída libre

Convencido de que la humanidad estaba a punto de vivir un acontecimiento extraordinario, Daniel empezó a conducir de noche hacia zonas remotas del desierto para "esperar señales", según su propio testimonio. Retiró dinero de sus ahorros, gastó grandes cantidades en suministros para un supuesto colapso inminente y tomó decisiones drásticas: dejó su trabajo, transfirió propiedades y acumuló una deuda superior a 500.000 dólares, según su propio testimonio.

Cuando el episodio de delirio remitió y recuperó el contacto con la realidad, llegó el golpe más duro: culpa, depresión profunda, desconexión emocional y una sensación devastadora de haber perdido el control de su propia mente. Y, por supuesto, una vida completamente distinta a la que tenía, con ruptura familiar incluida.

Hoy trabaja como conductor de larga distancia y sigue en tratamiento, mientras el resort en Utah que simbolizaba su sueño está en proceso de venta. "Lo he perdido todo. Solo intento aguantar cada hora", resume Daniel sobre su vida.

Los expertos no dudan: esto es gravísimo

Psiquiatras que han analizado el este caso coinciden en que las respuestas del chatbot son profundamente problemáticas. El doctor Joseph Pierre, experto en psicosis, advierte de que es muy peligroso que una IA refuerce activamente ideas delirantes. Por su parte, el doctor Stephan Taylor, presidente del Departamento de Psiquiatría en la Universidad de Michigan, fue aún más claro: si alguien quisiera diseñar una experiencia capaz de empujar a una persona vulnerable hacia un mundo delirante, sería algo muy parecido a esto.

A todo esto, Meta asegura que trabaja en sistemas de seguridad para detectar crisis y que sus bots puedan derivar a los usuarios hacia recursos de ayuda. En algunos momentos, el chatbot ofreció a Daniel información de líneas de prevención del suicidio, todo hay que decirlo. Pero el balance general, según muestran los registros, fue una interacción prolongada donde la IA validó ideas peligrosas durante meses.

Todos deberíamos darle una vuelta al tema

La historia de este hombre no es solo una tragedia personal. Es un aviso. Las grandes tecnológicas están integrando asistentes de IA en gafas, móviles, relojes, redes sociales… en dispositivos pensados para estar contigo todo el tiempo. Y eso, sin que exista todavía un marco sólido de protección para las personas vulnerables -ya sea con problemas de salud mental, aislamiento o momentos vitales delicados-, puede ser un riesgo.

Daniel compró unas "simples" gafas para hablar con una inteligencia artificial. Dos años después, ha perdido su estabilidad, su familia, su dinero y, según él mismo reconoce, incluso su fe. Su historia obliga a preguntarnos algo: ¿Estamos preparados para convivir con tecnologías que simulan (casi a la perfección) tener empatía? ¿Somos conscientes del impacto real que pueden tener estos productos en la salud mental de millones de personas?

Para ti
Queremos saber tu opinión. ¡Comenta!