Descubren que los chatbots de Vyro AI llevan meses filtrando conversaciones privadas de usuarios

Un servidor de Vyro AI filtró durante meses conversaciones privadas, tokens de acceso y datos personales de usuarios de sus aplicaciones más populares

Descubren que los chatbots de Vyro AI llevan meses filtrando conversaciones privadas de usuarios
Las aplicaciones afectadas superan los 10 millones de descargas e incluyen ImagineArt, Chatly y Chatbotx, exponiendo información íntima de millones de personas
Publicado en Tecnología
Por por Sergio Agudo

Los grandes modelos de inteligencia artificial y los chatbots como ChatGPT, Claude o Gemini forman parte del día a día de muchas personas. Sin embargo, tienen sus riesgos: un enorme fallo de seguridad protagonizado por Vyro AI, la empresa que está detrás de algunos de los chatbots más descargados del mercado, dejó en evidencia que la protección de datos de los usuarios sigue siendo una asignatura pendiente.

La noticia nos llega desde Cybernews, donde sus investigadores descubrieron que un servidor asociado a esta empresa estaba filtrando información sensible en tiempo real. Esta filtración afecta a tres aplicaciones: ImagineArt, Chatly y Chatbotx. La primera de ellas cuenta con 10 millones de descargas en Google Play, la segunda con 100.000 y la tercera es un chatbot web con unos 50.000 visitantes mensuales.

Millones de afectados y datos expuestos

El servidor comprometido filtraba hasta 116 GB de registros de usuario, que eran accesibles tanto desde el entorno de desarrollo, como desde el de producción. Todos estos documentos se almacenaban entre dos y siete días, y terminaron siendo indexados por motores de búsqueda de dispositivos IoT a mediados del pasado mes de febrero. Esto habría permitido a potenciales atacantes acceder a los datos confidenciales durante meses.

¿Y qué datos se han filtrado? Van desde los mensajes y los prompts que los ususarios introducían en las aplicaciones de Vyro AI, además como los tokens de autenticación que sirven para acceder a las cuentas. Esto último supone una grave amenaza: se podrían usar para secuestrar dichas cuentas, consultar el historial completo de conversaciones o adquirir créditos para usarlos de forma fraudulenta en las plataformas.

Hay, además, riesgos mucho más profundos, ya que las conversaciones con IA suelen contener algún tipo de información sensible o confidencial. Con este tipo de filtraciones se pone en entredicho la confianza que los usuarios depositan en esta clase de sistemas, y pone de manifiesto que la prisa por destacar en el mercado de los modelos de IA tiende a producir recortes en recursos dedicados a la ciberseguridad.

Nadie es inmune a este tipo de brechas de seguridad. Cualquier chatbot puede ser manipulado para proporcionar información sensible, como ocurrió con el chatbot de Expedia, que incluso llegó a detallar cómo fabricar cócteles Molotov al responder a ciertas preguntas. Incluso se podía explotar el chatbot de Lenovo para obtener acceso a credenciales de usuario con sólo una instrucción.

La filtración de Vyro AI demuestra que la seguridad en las herramientas de inteligencia artificial necesita mucha más atención. Mientras las empresas compiten por lanzar la próxima gran novedad, los usuarios se quedan sin saber si sus conversaciones más privadas están realmente protegidas.

Para ti
Queremos saber tu opinión. ¡Comenta!