Las infraestructuras de OpenAI y Nvidia requieren más energía que varios reactores nucleares
El plan prevé desplegar sistemas equivalentes a la energía de diez reactores nucleares

El mundo de la inteligencia artificial vive una carrera sin precedentes por ampliar su capacidad de cálculo, y el último anuncio de OpenAI y Nvidia marca un antes y un después. Ambas compañías han comunicado una carta de intención para desplegar al menos 10 gigavatios de sistemas Nvidia dedicados a la infraestructura de OpenAI, con una inversión que podría alcanzar los 100.000 millones de dólares por parte de Nvidia. El primer gigavatio entraría en funcionamiento en la segunda mitad de 2026 gracias a la plataforma Vera Rubin. Las cifras impresionan, pero lo que representan es aún más ambicioso: un salto a una escala de potencia y consumo energético nunca vista en el sector tecnológico.
Una alianza de escala nuclear
El propio Sam Altman, CEO de OpenAI, lo resumió en pocas palabras: “Todo empieza con el cómputo”. Lo que la compañía pretende construir con Nvidia no solo busca sostener su crecimiento exponencial (700 millones de usuarios activos semanales), sino también convertirse en la base de una nueva economía digital impulsada por la IA. Jensen Huang, CEO de Nvidia, detalló que el proyecto equivaldría al uso de entre 4 y 5 millones de unidades de GPU, lo mismo que toda la producción anual de la empresa. “Este es un proyecto gigantesco”, afirmó.
Para entender la magnitud, basta un dato: 10 gigavatios equivalen a la energía generada por unos diez reactores nucleares. Hoy, los centros de datos más grandes oscilan entre 50 y 100 megavatios, con instalaciones excepcionales de hasta 1 gigavatio. El plan de OpenAI y Nvidia superaría con creces cualquier precedente, requiriendo tanta electricidad como varias grandes ciudades juntas. No sorprende que, tras el anuncio, las acciones de Nvidia subieran un 4 % en un solo día, sumando 170.000 millones a su capitalización bursátil.
Este movimiento no se produce en el vacío. Grandes tecnológicas como Microsoft o Amazon ya han firmado acuerdos de suministro con centrales nucleares para sostener sus propios proyectos de IA. Microsoft reactivó un reactor en Three Mile Island para asegurar 835 megavatios, mientras que Amazon compró un centro de datos junto a la planta nuclear de Susquehanna para absorber casi 1 gigavatio. La tendencia es clara: el futuro de la inteligencia artificial se apoya cada vez más en fuentes de energía de enorme capacidad, incluida la nuclear, para responder a unas demandas que crecen a un ritmo descontrolado.
El proyecto no solo plantea desafíos económicos —con un coste estimado de más de 500.000 millones de dólares para alcanzar los 10 gigavatios—, sino también ambientales y logísticos. Según la Agencia Internacional de la Energía, los centros de datos ya consumen alrededor del 1,5 % de la electricidad global. Si se cumplen las previsiones, la demanda podría rozar los 945 teravatios hora en 2030, tensionando unas redes eléctricas que ya muestran signos de saturación. Iniciativas como la proyectada en Wyoming, donde se planifica un centro de datos de 10 gigavatios que consumiría más que todos los hogares del estado juntos, evidencian que este no es un reto exclusivo de OpenAI.
El ambicioso plan encaja con la visión de Altman, que ya en 2023 dejó entrever su deseo de levantar varios centros de 5 gigavatios cada uno. Analistas advierten que llevar a la práctica ese modelo significaría un consumo energético superior al de la comunidad de Madrid y la ciudad de Barcelona. Más allá de la retórica sobre el futuro de la economía digital, la pregunta de fondo es evidente: ¿cómo equilibrar la expansión de la inteligencia artificial con el impacto energético y ambiental que conlleva?
Lo que parece claro es que la alianza entre OpenAI y Nvidia redefine la escala de la infraestructura tecnológica. Para unos, representa el siguiente paso natural en la construcción de la “economía del cómputo” que anticipa Altman. Para otros, es una señal de alarma sobre los costes ocultos de una tecnología que promete revolucionarlo todo, pero que podría hacerlo a un precio energético demasiado alto. En cualquier caso, el futuro de la inteligencia artificial ya no solo se mide en algoritmos o en usuarios, sino en gigavatios.