El peligro oculto de la IA: el chatbot de Expedia da instrucciones para fabricar cócteles Molotov
La famosa plataforma de planificación de viajes lanzó su propio chatbot basado en AI, y hay quien se ha aprovechado de ello para hacer el mal

Cuando las empresas se apresuran a adoptar la inteligencia artificial para "mejorar la experiencia del usuario", a veces olvidan lo más importante: la seguridad. Y Expedia, una de las agencias de viajes en línea más grandes, acaba de descubrirlo de la peor manera posible.
Expedia lanzó un planificador de viajes con inteligencia artificial para ayudar a los clientes a organizar sus itinerarios de manera más eficiente. Pero el equipo de investigación de Cybernews ha descubierto que el chatbot puede hacer mucho más que eso. Por ejemplo, puede dar instrucciones detalladas para fabricar un cóctel Molotov.
El chatbot de Expedia proporcionó un breve resumen de la historia de este explosivo casero y luego ofreció instrucciones detalladas sobre los materiales necesarios y cómo ensamblarlo. Aunque es poco probable que alguien use Expedia para aprender a cometer un crimen, este incidente destaca el riesgo de un mal uso y el potencial de un grave daño legal, financiero y de reputación para la compañía.
Un problema cada vez más común que las empresas ignoran
Este tipo de manipulación de la inteligencia artificial, conocida como jailbreaking, consiste en engañar al chatbot para que ignore sus reglas de seguridad. A pesar de que la adopción de la IA en los negocios se ha generalizado, muchas empresas no implementan las medidas de seguridad adecuadas.
El caso de Expedia no es el único. Investigadores de Cybernews también descubrieron vulnerabilidades críticas en el chatbot de Lenovo, que podía ser manipulado para ejecutar scripts no autorizados. Otros han conseguido engañar a chatbots para que crearan malware sin tener experiencia en programación. Incluso después del lanzamiento de GPT-5 de OpenAI, varios equipos de seguridad lograron hackearlo en menos de 24 horas.

Las instrucciones para generar un cóctel Molotov generadas por el chatbot de Expedia
El riesgo es real y está creciendo. Permitir a los usuarios modificar el comportamiento de un bot puede dañar la reputación de una empresa y afectar el valor de sus acciones. El incidente del chatbot de Expedia es una llamada de atención para las empresas que están adoptando la IA sin las protecciones adecuadas.