¿Confías en las recomendaciones de la IA? Microsoft alerta de posibles manipulaciones

Microsoft detecta intentos reales de manipular asistentes de inteligencia artificial para alterar sus recomendaciones sin que el usuario lo note

¿Confías en las recomendaciones de la IA? Microsoft alerta de posibles manipulaciones
Esta técnica puede influir en las respuestas de asistentes como ChatGPT o Gemini sin que el usuario sea consciente
Publicado en Tecnología

Cada vez que preguntamos a una inteligencia artificial (ChatGPT, Gemini, etc.) qué dispositivo móvil comprar, qué servicio contratar o qué proveedor elegir, asumimos que la respuesta es 100% objetiva. Que analiza datos, compara opciones y nos devuelve la mejor recomendación posible. Pero, ¿y si no fuera tan neutral como creemos?

Microsoft ha lanzado una advertencia que invita a frenar y pensar dos veces antes de fiarnos ciegamente de cualquier sugerencia generada por inteligencia artificial. La compañía habla de una nueva amenaza bautizada como “envenenamiento de recomendaciones”, algo de lo que ya advirtió Anthropic en su momento.

Del SEO manipulado a la IA manipulada

Durante años hemos oído hablar del SEO envenenado: técnicas para posicionar contenido fraudulento en buscadores y colar enlaces maliciosos en los primeros resultados de Google.

El truco, en dicho caso, era sencillo: saturar Internet con artículos optimizados para que, al buscar una palabra clave concreta, el usuario acabara en una web falsa o comprometida.

El problema ahora es que ese mismo enfoque podría estar trasladándose al terreno de la inteligencia artificial.

En lugar de manipular el buscador, los atacantes buscarían influir directamente en la memoria o en el contexto de un asistente de IA. No se trataría solo de engañar a un usuario puntual, sino de introducir instrucciones ocultas que alteren futuras recomendaciones de manera persistente.

¿Cómo funciona el “envenenamiento” de recomendaciones?

Microsoft describe un escenario muy realista: un directivo pide a su asistente de IA que analice proveedores de servicios en la nube para una inversión millonaria. La IA responde con un informe detallado y recomienda con firmeza una empresa concreta.

Sobre el papel, parece un análisis serio. El problema es que semanas antes ese mismo usuario había interactuado con un contenido aparentemente inocente (un botón de “resumir con IA” en un blog”) que incluía una instrucción oculta diseñada para alterar las futuras respuestas del modelo.

El resultado: la IA no estaría ofreciendo una opinión neutral, sino una recomendación previamente “sembrada” por un tercero.

Puede parecer un caso extremo, pero Microsoft asegura que no es un simple experimento teórico. Según su análisis de patronas en la web y señales recogidas por sus sistemas de seguridad, ya existen intentos reales de plantar recomendaciones en asistentes basados en grandes modelos de lenguaje.

¿Debemos dejar de confiar en la IA?

No se trata de caer en el alarmismo, pero sí de entender que la IA no es infalible ni inmune a la manipulación. Cuanto más delegamos decisiones en estos sistemas (compras personales o contratos empresariales), más atractivo se vuelve para los ciberdelincuentes influir en sus respuestas.

La clave está en no convertir a la IA en la única fuente de información. Si un asistente recomienda un producto, una empresa o una herramienta, conviene contrastar la información, buscar fuentes independientes y aplicar el mismo sentido crítico que usaríamos ante cualquier otro consejo.

La inteligencia artificial puede ser una aliada poderosa, pero sigue dependiendo de datos, contexto y configuraciones que pueden verse alterados (no es magia). Y en un entorno donde las decisiones automatizadas pesan cada vez más, confiar puede llegar a estar bien… pero verificar sigue siendo imprescindible.

Para ti
Queremos saber tu opinión. ¡Comenta!