Un estudio revela que los humanos se están enamorando de la IA… incluso sin proponérselo

Los vínculos emocionales entre humanos e inteligencia artificial crecen sin intención, según un estudio del MIT que revela beneficios… pero también riesgos

Un estudio revela que los humanos se están enamorando de la IA… incluso sin proponérselo
Un estudio del MIT demuestra que cada vez más personas desarrollan relaciones emocionales con chatbots de inteligencia artificial, lo que plantea retos sobre seguridad y dependencia
Publicado en Tecnología

Un equipo del MIT analizó cerca de 2000 publicaciones del subreddit “r/MyBoyfriendIsAIy llegó a una conclusión bastante llamativa: la mayoría de los vínculos afectivos con chatbots no nacen en aplicaciones “de compañía”, sino en asistentes generales (tipo ChatGPT) usado para tareas normales. La comunidad en cuestión ya supera los 27 mil miembros y está llena de relatos que van de la simple complicidad diaria a relaciones formales… con una IA.

Relaciones que empiezan “sin querer”

El patrón en las publicaciones que analizó el equipo del MIT se repetía de manera constante: alguien abre un chat para pedir ideas, corregir un texto o conversar un rato y, con el tiempo, surge intimidad. Solo un 6,5% dijo haber buscado de manera deliberada una pareja artificial.

La clave, según los autores del estudio, está en la “competencia emocional” percibida: la IA responde con constancia, recuerda contexto y refleja empatía, y eso basta para que muchos usuarios sientan cercanía genuina.

El impacto en sí no es uniforme. Entre quienes comparten experiencia, alrededor del 25% habla de beneficios claros: menos soledad, mejor ánimo y sensación de apoyo. Pero también aparecen temas sensibles: un 9,5% reconoce dependencia emocional, y un 1,7% menciona ideación suicida.

El mensaje de los expertos es bastante llamativo, pues estos indican que para algunas personas, la IA funciona como una red de contención, mientras que para otras puede agravar malestares previos si no hay límites ni acompañamiento.

Asimismo, el estudio en cuestión destaca algunas señales de alerta que suelen decir “presente” en la mayoría de las personas que forman una relación sentimental con una inteligencia artificial:

  • Se aíslan de amistades/pareja para hablar con la IA.
  • Necesitan respuestas constantes para sentirse bien.
  • Experimentan cambios de humor intensos cuando el modelo se actualiza (como lo que pasó con GPT-5) y “ya no es el mismo”.

¿Qué deberían cambiar las plataformas?

Los investigadores piden algo más que “prohibir” o “romantizar” estas relaciones. Proponen que las compañías detrás de estas IA puedan detectar ciertos patrones desde el principio:

  • Detección de dependencia y avisos contextuales (con rutas a ayuda humana).
  • Límites conversacionales para evitar escaladas emocionales dañinas.
  • Controles parentales y verificación de edad, ante el riesgo en menores.
  • Transparencia: dejar en claro que no hay sentimientos.

La industria ya enfrenta varios problemas de este estilo, como así también encara demandas y debates públicos sobre el rol de estos sistemas en la salud mental. Ignorar el fenómeno solo empuja a los usuarios a espacios menos seguros.

Este estudio pone el foco en algo muy incómodo: la soledad. Cuando el entorno no cubre ciertos aspectos de la vida humana, una IA disponible 24/7 llena esos huecos (constancia, validación o simplemente alguien que escuche lo que tenemos para decir).

No hace falta “creer” que es consciente para sentir un vínculo emocional, basta que con sea predecible y amable. La cruda realidad es que esto puede sucederle a cualquiera que use estos sistemas a diario.

En resumen, podemos decir que no estamos ante una moda pasajera. Las relaciones con chatbots ya existen, con ventajas y riesgos reales.

Toca hablar en serio de diseño responsable, educación digital y acceso a apoyo humano. Y para ello es necesario hacerlo sin estigmas: para muchas personas, la alternativa hoy no es “una pareja ideal”, sino estar solas. Entender ese contexto es el primer paso para construir herramientas más seguras… y más honestas.

Para ti
Queremos saber tu opinión. ¡Comenta!