La IA ya es capaz de maquinar ideas con su propia agenda oculta. OpenAI está buscando cómo solucionarlo
OpenAI está trabajando para evitar que dicha capacidad sea problemática a largo plazo

La Inteligencia Artificial, además de avanzar a pasos agigantados en capacidad operativa, ya está siendo capaz de tomar decisiones propias sin hacérselo saber a sus propios creadores. Esto ocurre con la IA de OpenAI que, según la propia compañía, han descubierto esta capacidad que tienen dichos sistemas, y están trabajando en ello para que, en el futuro, no implique consecuencias graves.
La IA ya puede tomar decisiones por sí misma
Ante un avance que ni la propia OpenAI se esperaba, es importante tomar medidas de contención. Así lo admite la propia compañía tras saber que su IA puede llevar a cabo maquinaciones bajo su propia agenda oculta: "hemos descubierto comportamientos consistentes de maquinaciones en modelos punteros y hemos probado un modo de paliarlo. Aunque creemos que, actualmente, estos comportamientos no están causando serios problemas en la actualidad, es un riesgo a largo plazo para el que nos estamos preparando", admitió OpenAI a través de redes sociales.
Today we’re releasing research with @apolloaievals.
— OpenAI (@OpenAI) September 17, 2025
In controlled tests, we found behaviors consistent with scheming in frontier models—and tested a way to reduce it.
While we believe these behaviors aren’t causing serious harm today, this is a future risk we’re preparing…
Además, OpenAI también matizó su concepto de maquinación, refiriéndose a "cuando la IA se comporta de un modo a nivel superficial mientras oculta sus verdaderos objetivos". Y respecto a su preocupación sobre sus consecuencias, añaden: "los sistemas desplegados actualmente tienen una pequeña oportunidad de tramar de maneras que podrían causar daños serios. (...) Hemos estudiado y mitigado dichos problemas haciendo mejoras en GPT-5 sobre modelos previos.
Con ello, la compañía norteamericana ha querido ser transparente en lo que respecta a los problemas que conlleva el avance de su tecnología. Y es que, cuando un sistema inteligente es cada vez más autosuficiente y proactivo, que aparezcan este tipo de comportamientos era algo esperable, aunque no por ello deseado. Es por eso que OpenAI quiere reducir al máximo la capacidad de su IA para maquinar sin que la herramienta quiera hacérselo saber al usuario.
La capacidad de la IA para causar estragos
Es una realidad que, hoy en día, incluso sin necesidad de engaños, la Inteligencia Artificial ha sido motor de infinidad de situaciones de gran peligro: desde jóvenes cuyas interacciones con la IA los han empujado al suicidio, hasta delitos relacionados con la difusión de imágenes sexuales o de desnudos generadas con Inteligencia Artificial. En el primer caso, OpenAI ya admitió que, antes de acabar el año, los sistemas de contingencia serían más estrictos, mientras que en el segundo caso, ya se crearon restricciones en la mayoría de IA generativas.