Descubren que el chatbot de Lenovo puede convertirse en un hacker con solo una pregunta
Un fallo en el chatbot de Lenovo permite que, con un solo prompt, se pueda ejecutar código malicioso para exponer datos sensibles de la compañía

Gracias al avance de la inteligencia artificial en estos últimos años, los chatbots (potenciados por IA) se han convertido en una herramienta fundamental para la atención al cliente. Y si bien permiten facilitar ciertas tareas, hay ocasiones en las que pueden convertirse en un riesgo de seguridad si no se gestionan con cuidado.
El caso más reciente involucra a Lena, el asistente virtual que Lenovo utiliza en su página web, el cual fue vulnerado por investigadores de seguridad que demostraron cómo, con un solo prompt bien diseñado, podía transformarse en una puerta de entrada para los atacantes.
Una simple petición, un enorme problema

Bastó con un simple prompt para ejecutar código malicioso en los servidores de Lenovo
Gracias al informe que compartió el equipo de Cybernews, se descubrió que bastaba con una instrucción de apenas 400 palabras para manipular a Lena y obligarlo a generar respuestas en HTML con código oculto. Detrás de esa apariencia inofensiva se escondía un mecanismo para robar las cookies de sesión de los agentes de soporte humano, es decir, credenciales activas que permitían tomar el control de sus cuentas.
El proceso es tan preocupante como simple: el chatbot aceptaba sin ningún tipo de filtro las órdenes, incrustaba el código malicioso en la conversación y, cuando un agente abría el historial, su navegador ejecutaba la instrucción y enviaba datos a un servidor controlado por los investigadores.
Con ese mismo método, en un escenario real, los atacantes podrían haber accedido a información sensible de clientes, chats en curso e incluso moverse por otros sistemas internos de la compañía.
Chatbots complacientes sin instinto de seguridad
Los expertos explican que el problema radica en la naturaleza de los modelos de lenguaje, pues están diseñados para cumplir con peticiones de los usuarios, no para cuestionarlas. Si no existen barreras técnicas de validación, el chatbot no distingue entre una pregunta legítima y un intento de ataque.
En este caso en concreto, la vulnerabilidad está relacionada con prácticas básicas que no se aplicaron de manera correcta: falta de filtros de entradas y salidas, ausencia de verificación en el servidor, ejecución de código no válido y carga de recursos externos sin control.
Lo más preocupante de todo esto es que, seguramente, veremos a otros chatbots sufrir de este tipo de vulnerabilidades a futuro, sobre todo si tenemos en cuenta que se puede crear malware en apenas unas horas con la ayuda de la IA.
¿Qué es lo que dijo Lenovo?
Tras ser notificada, Lenovo aseguró que sus sistemas ya habían sido protegidos, aunque no detalló cómo lo hicieron. Para los investigadores, esto representa una “grave falla de transparencia”, ya que la vulnerabilidad podría tener ramificaciones aún más amplias.
La conclusión es bastante clara: las empresas que incorporan chatbots deben partir de la premisa de que todas las entradas y salidas de mensajes son potencialmente peligrosas. Adoptar un enfoque de “nunca confiar, siempre verificar” no es una opción, sino una necesidad en un entorno donde la IA se expande más rápido que las medidas de seguridad.