"El apocalipsis se acerca": Expertos en seguridad nuclear advierten que la IA podría desatar una guerra nuclear
Expertos advierten que la integración de la inteligencia artificial en sistemas militares podría aumentar el riesgo de una escalada nuclear sin control

El avance de la inteligencia artificial y la aplicación en la cotidianidad ya plantea debates sobre ética, control y seguridad. Pero cuando se traslada al terreno militar, las preocupaciones se multiplican. Cada vez son más los expertos en seguridad nuclear que alertan que la IA podría convertirse en el detonante de un conflicto a gran escala, incluso nuclear.
El motivo es claro: la carrera por integrar algoritmos en prácticamente todos los niveles de toma de decisiones militares está generando una peligrosa “pendiente resbaladiza”. El riesgo no solo es que un sistema automatizado pueda tener acceso al lanzamiento de armas nucleares, sino que los propios oficiales de alto rango acaben depositando demasiada confianza en las recomendaciones de la IA y actúen en base a ellas.
IA que escala conflictos, pero no los enfría
Investigadores como Jacquelyn Schneider, de la Universidad de Stanford, han probado cómo responden los sistemas de IA en simulaciones bélicas. El resultado no deja margen para la tranquilidad: en la mayoría de los casos, los algoritmos tienden a escalar los conflictos hacia niveles catastróficos que los humanos probablemente habrían evitado.
“Es como si la IA entendiera la escalada, pero no la desescalada”, resume Schneider. Y ese patrón se repite una y otra vez, lo que refuerza la sensación de que ni siquiera comprendemos del todo cómo funcionan internamente estos modelos, mucho menos cómo reaccionarían en un escenario real de crisis internacional.
A pesar de lo que está en juego, expertos como Jon Wolfsthal, de la Federación de Científicos Estadounidenses, denuncian que dentro del Pentágono no existe una guía clara que regule cómo debe (o no debe) usarse la IA en los sistemas de control y comunicación nuclear.
Oficialmente, el gobierno norteamericano insiste en que siempre habrá un ser humano en la cadena de decisión. Eso sí, la presión de países como Rusia o China, que también están incorporando IA a sus estructuras militares, podría erosionar ese compromiso con el tiempo.
En definitiva, el temor es que, en medio de una crisis, un error de interpretación o una instrucción defectuosa de un algoritmo desencadene una reacción en cadena de consecuencias irreversibles.
Una amenaza que ya no parece ciencia ficción
Lo más inquietante ese que lo que antes parecía un guion de ciencia ficción hoy se percibe como un escenario posible. Expertos recuerdan sistemas como la “Mano muerta” soviética, diseñada para responder automáticamente a un ataque nuclear, y temen que la IA lleve esa lógica un paso más allá.
De hecho, ya hay quienes comparan esta situación con el universo de Terminator o la máquina del juicio final de la película “¿Teléfono rojo? Volamos hacia Moscú”. La diferencia es que esta vez no hablamos de cine, sino de decisiones políticas y tecnológicas que se están tomando ahora mismo. La conclusión de los especialistas es unánime y bastante clara al respecto: sin una regulación estricta y consensuada, la IA aplicad a la disuasión nuclear podría convertirse en el mayor riesgo existencial de nuestra era.