La memoria más veloz de Samsung, la HBM4, llegará en 2026 con un aumento enorme de rendimiento

Samsung ultima una nueva memoria HBM4 con un aumento del 37,5% en ancho de banda que promete impulsar el rendimiento de la IA en 2026

La memoria más veloz de Samsung, la HBM4, llegará en 2026 con un aumento enorme de rendimiento
La próxima generación de memoria HBM4 de Samsung alcanzará los 3,3 TB/s, convirtiéndose en la más rápida jamás fabricada por la compañía
Publicado en Samsung

Samsung no piensa aflojar el ritmo en la carrera por dominar la memoria para inteligencia artificial. Tras presentar su primera memoria HBM4 de sexta generación en la feria SEDEX 2025, la compañía surcoreana ya prepara una versión aún más rápida que verá la luz a comienzos de 2026 (entre febrero y marzo).

Y no será una simple actualización: hablamos de un salto de rendimiento enorme que podría marcar un antes y un después en el hardware destinado a modelos de IA de última generación.

Un nuevo chip HBM4 con un salto del 37,5% en ancho de banda

Según lo informado por el medio TheElec, Samsung aprovechará la International Solid-State Circuits Conference (ISSCC), que se celebrará del 15 al 19 de febrero de 2026 en San Francisco, para mostrar en sociedad su nuevo chip HBM4.

Durante una sesión informativa previa celebrada en Seúl, Kim Dong-gyun (miembro del comité coreano de la ISSCC y parte de SK Hynix) confirmó que tanto Samsung como SK Hynix presentarán nuevas versiones de esta memoria.

El dato más llamativo es el incremento de rendimiento: el primer chip HBM4 de Samsung, con capacidad de 36 GB, ofrecía un ancho de banda de 2,4 TB/s. El nuevo modelo alcanzaría los 3,3 TB/s, lo que supone una mejora del 37,5%. Una cifra enorme, especialmente teniendo en cuenta que la memoria HBM ya opera en rangos extremos de rendimiento.

Este salto no viene solo con ajustes menores; el informe indica que Samsung ha rediseñado por completo tanto la estructura apilada como la interfaz del chip, algo que no solo aumenta la velocidad máxima, sino que también mejora la eficiencia energética.

En un mercado donde los centros de datos consumen cantidades masivas de electricidad para entrenar y ejecutar modelos de IA, cada mejora en eficiencia supone un impacto directo en costes y sostenibilidad.

¿Por qué este avance importa tanto para la IA?

La memoria HBM es clave en sistemas de computación avanzada, especialmente en aceleradores de IA como los de NVIDIA, AMD o incluso los desarrollos propios de empresas como Google y Meta.

A mayor ancho de banda, más rápido pueden alimentarse los modelos de IA con datos, reduciendo cuellos de botella y permitiendo modelos más grandes y complejos.

Con la competencia también preparando sus propios chips HBM4, 2026 se perfila como un año decisivo en la evolución del hardware que sostiene la revolución de la inteligencia artificial. Un adelanto importante que deja bien en claro que la próxima generación de IA no solo dependerá de mejores chips, sino de memorias capaces de seguir el ritmo, evitando así el famoso cuello de botella.

Para ti
Queremos saber tu opinión. ¡Comenta!