Samsung aprovecha el boom de la IA y sube el precio de su memoria más avanzada

La explosión de los centros de datos y los aceleradores de IA dispara la demanda de HBM3E, y Samsung responde con una subida de precios que refuerza su posición en el mercado

Samsung aprovecha el boom de la IA y sube el precio de su memoria más avanzada
La memoria HBM de Samsung es clave para los aceleradores de IA de NVIDIA y otros centros de datos, y su encarecimiento refleja la presión del boom de la inteligencia artificial
Publicado en Samsung

La fiebre por la inteligencia artificial no solo se mide en nuevos modelos, asistentes más listos o promesas de productividad infinita. También se nota, y mucho, en los cimientos de la industria. Samsung, uno de los gigantes del sector, acaba de mover ficha aprovechando la escasez de uno de los componentes más críticos del momento: la memoria de alto ancho de banda, conocida como HBM.

Desde que herramientas como ChatGPT, Copilot o Gemini se han convertido en parte del día a día, la demanda de infraestructura para IA se ha disparado. Detrás de cada chatbot hay centros de datos repletos de aceleradores de IA, y estos dependen exclusivamente de memorias ultrarrápidas como la HBM3E.

El problema es que este tipo de memoria no se fabrica en masa: solo tres compañías en el mundo la producen actualmente, Micron, SK Hynix y la propia Samsung.

Más demanda, misma oferta: la tormenta perfecta

El desequilibrio era inevitable. Mientras NVIDIA lanza nuevos aceleradores como el H200, que utilizan HBM3E, y países como China vuelven a autorizar su importación, la capacidad de producción apenas ha crecido. El resultado de ello son más pedidos, menos chips disponibles y precios en alza.

Según varias filtraciones del sector, Samsung y SK Hynix ya han decidido subir el precio de la HBM3E alrededor de un 20 %. No es una subida puntual ni accidental, sino una respuesta directa a un mercado que está dispuesto a pagar más por asegurarse el suministro.

Para Samsung, además, llega en un momento clave: la compañía está a punto de iniciar la producción de HBM4, una nueva generación que, según pruebas internas de NVIDIA, sería la más rápida del mercado.

¿Esto afecta al consumidor normal?

Aquí viene la parte que muchos se preguntan. A corto plazo, no vas a ver una línea en la factura de tu móvil que diga “sobrecoste por IA”. La HBM no se utiliza en smartphones, consolas o PCs domésticos, sino en hardware de centros de datos. Sin embargo, eso no significa que el impacto sea cero.

El dinero y los recursos están fluyendo hacia la IA a una velocidad descomunal. Cuando fabricar memoria avanzada es más rentable que producir RAM o almacenamiento para consumo, las prioridades cambian.

Ya hemos visto como la presión de los centros de datos han tensionado el mercado de componentes, encareciendo servidores y, por defecto dominó, ciertos productos para empresas y usuarios avanzados. Es más, los terminales que saldrán el año que viene, llegarán con un pequeño aumento de precio.

Además, si el coste de entrenar y operar modelos de IA sigue subiendo, ese gasto acabará trasladándose a servicios de pago, suscripciones más caras o funciones “premium” detrás de muros de pago. No es inmediato, pero la cadena es clara.

Samsung, mientras tanto, juega una partida muy cómoda. Con HBM3E subiendo de precio, HBM4 en camino y contratos de fabricación con gigantes como Apple o Tesla, la división de semiconductores de la compañía surcoreana tiene por delante un periodo especialmente lucrativo. La IA está cambiando el mercado, y Samsung ha decidido cobrar la entrada.

Para ti
Queremos saber tu opinión. ¡Comenta!