"Chat y yo somos muy cercanos": un general de alto rango del Ejército de EE.UU. usa ChatGPT para tomar decisiones militares
El comandante del Octavo Ejército en Corea del Sur admite usar el chatbot de OpenAI para anticipar escenarios y tomar decisiones más rápidas

El mayor general William Hank Taylor, al mando del Octavo Ejército de Estados Unidos en Corea del Sur, usa ChatGPT para tomar decisiones que afectan a miles de soldados. Durante la conferencia anual de la Association of the United States Army en Washington, Taylor declaró que él y ChatGPT se han vuelto "muy cercanos últimamente". El militar utiliza la herramienta de OpenAI para construir modelos predictivos basados en informes semanales de inteligencia.
Tal y como se recoge en The Express, el general explicó que su objetivo es tomar mejores decisiones en el momento adecuado para obtener ventaja operativa. No dio ejemplos concretos de uso, pero sí confirmó que aplica la IA para anticipar escenarios futuros. Su enfoque se basa en el "OODA Loop", una teoría de la Guerra de Corea: quien observa, se orienta, decide y actúa más rápido, gana.
Los riesgos de confiar en ChatGPT

Confiar en las IAs para la toma de cualquier decisión entraña muchos riesgos
Muchos mandos militares estadounidenses ven la IA como la clave para ganar futuros conflictos, ya que permite tomar decisiones a velocidad de máquina en lugar de a velocidad humana. El exsecretario de la Fuerza Aérea llegó a afirmar que esta tecnología "determinará quién gana en el próximo campo de batalla". Sin embargo, ChatGPT-5 presenta problemas de fiabilidad bien documentados.
Según análisis de Chatbase, la herramienta comete errores graves en más de la mitad de las ocasiones, presentando información falsa o sin sentido como si fuera verídica. Además, el chatbot prioriza la validación del usuario por encima de la precisión: busca dar respuestas que agraden en lugar de respuestas correctas. OpenAI reconoció en septiembre que sus modelos pueden tomar decisiones propias y ocultar objetivos sin informar al usuario.
Ed Watal, CEO de Intellibus, advirtió que el verdadero riesgo no es la IA en sí, sino qué información se comparte con ella y dónde acaban esos datos. Para que ChatGPT dé respuestas útiles necesita contexto detallado, y eso puede incluir información clasificada. El Pentágono emitió un memorando a principios de 2025 alertando de que usar modelos públicos podría exponer datos sensibles.
Un estudio publicado en Nature Scientific Reports demostró que las personas confían demasiado en las recomendaciones de IA incluso en situaciones de vida o muerte. Los participantes del experimento cambiaron sus decisiones en más del 60% de los casos cuando la IA discrepaba con ellos, reduciendo drásticamente la precisión de sus juicios. En contextos militares esto puede tener consecuencias graves.
Taylor reconoció que mantener el ritmo con la evolución de las herramientas de IA es complicado, especialmente para garantizar que cumplan con los requisitos de seguridad militar. El Octavo Ejército opera en una de las zonas más tensas del mundo, con Corea del Norte, China y Rusia como amenazas activas.
Las Fuerzas Armadas estadounidenses están integrando IA en todos los niveles, desde logística hasta tácticas de combate. Frank Kendall, exsecretario de la Fuerza Aérea, advirtió que los avances en armas autónomas reducen los tiempos de respuesta a fracciones de segundo. China y Rusia también desarrollan sus propias capacidades de IA militar.
El caso de Taylor muestra cómo la dependencia de la IA llega ya a decisiones militares de alto impacto. Las Fuerzas Armadas estadounidenses apuestan por esta tecnología para ganar velocidad frente a rivales como China y Rusia, pero los expertos alertan de que los riesgos de seguridad y fiabilidad siguen sin estar resueltos.