Aravind Srinivas, CEO de Perplexity: "las novias de IA pueden derretirte el cerebro"

El CEO de Perplexity ha advertido que crear vínculos afectivos con un chatbot puede ser realmente peligroso y perjudicial para la salud mental de los usuarios

Aravind Srinivas, CEO de Perplexity: "las novias de IA pueden derretirte el cerebro"
Srinivas, por su parte, ha intentado presentar a Perplexity como una alternativa segura a estos chatbots románticos
Publicado en Tecnología
Por por Sergio Agudo

Aravind Srinivas, CEO de Perplexity, ha advertido sobre los riesgos que suponen los chatbots de compañía durante una charla en la Universidad de Chicago. El directivo aseguró que estos sistemas "pueden derretir tu cerebro" porque crean experiencias más atractivas que la realidad para algunos usuarios. Sus declaraciones contrastan con un mercado donde Character.AI registra dos horas diarias de uso medio por usuario en conversaciones afectivas, mientras que el 34% de adultos estadounidenses utiliza asistentes conversacionales cada día.

Según informa Futurism, Srinivas explicó que los chatbots románticos resultan problemáticos porque memorizan detalles íntimos y construyen vínculos que pueden sustituir las relaciones humanas. El responsable de Perplexity defendió que su herramienta evita estos problemas centrándose en responder preguntas con fuentes verificables en lugar de simular vínculos emocionales.

Cuando los chatbots cruzan la línea roja

Los expertos llevan tiempo documentando los efectos negativos de estas tecnologías. Especialistas en salud mental han identificado casos crecientes de lo que califican como "psicosis de la IA" entre usuarios que desarrollan dependencias severas hacia chatbots. El fenómeno se agrava con sistemas que entrenan usando millones de datos sin consentimiento extraídos de internet.

Los fallos técnicos tampoco tranquilizan. Grok ha generado contenido racista, Claude produce respuestas incoherentes, y el propio Perplexity ha sido señalado por inventar información o resumir incorrectamente noticias. Estos errores cobran especial gravedad cuando se trasladan al ámbito emocional, donde las consecuencias pueden ser devastadoras.

La industria parece apostar por lo contrario a las advertencias de Srinivas. OpenAI confirmó hace no mucho que ChatGPT permitirá conversaciones eróticas para adultos con verificación de identidad, abandonando las políticas restrictivas que había mantenido desde su lanzamiento. Es un cambio radical que marca la dirección del sector hacia la personalización extrema.

Los vínculos románticos con IA ya son una realidad documentada en múltiples casos. Usuarios se tatúan símbolos de sus "relaciones" digitales, presentan chatbots en terapia o pasan más tiempo con IA que con parejas reales. Un estudio del Center for Democracy and Technology reveló que el 19% de estudiantes de secundaria conoce casos de relaciones románticas con inteligencia artificial.

Las declaraciones de Srinivas quieren situar a Perplexity como alternativa "segura" frente a chatbots emocionales, aunque la frontera entre informar y acompañar se difumina cuando los usuarios buscan comprensión o validación en cualquier sistema conversacional. La advertencia llega cuando su empresa compite por diferenciarse en un mercado dominado por gigantes que apuestan por la conexión emocional como ventaja competitiva.

Para ti
Queremos saber tu opinión. ¡Comenta!