SK Hynix rompe la barrera de la densidad en el CES 2026 con memorias HBM4 de 16 capas y 48 GB
por Edgar Otero CES 2026La demanda de memoria para alimentar los aceleradores de inteligencia artificial no deja de crecer, y SK Hynix ha respondido en el CES 2026 presentando su solución más ambiciosa hasta la fecha. La compañía ha desvelado sus nuevos módulos de memoria de alto ancho de banda HBM4 de 16 alturas, una arquitectura que logra empaquetar una capacidad de 48 GB en un solo stack.
Se trata de un salto significativo respecto a lo que habíamos visto anteriormente en la industria, superando los módulos de 12 capas y 36 GB que hasta ahora marcaban el estándar de la próxima generación. Estos nuevos componentes están diseñados específicamente para satisfacer el hambre de memoria de los sistemas de computación de alto rendimiento o HPC y los aceleradores de IA, donde la capacidad de almacenamiento local es tan crítica como la velocidad de procesamiento.
Curiosamente, el anuncio ha sido cauto en cuanto a cifras de rendimiento específicas. SK Hynix no ha proporcionado datos oficiales sobre el ancho de banda final o la velocidad de transferencia, un silencio que podría interpretarse como una estrategia competitiva mientras rivales como Samsung y Micron ultiman sus propias propuestas de HBM4 para proveedores como AMD o NVIDIA. A pesar de la falta de números, se espera que el rendimiento supere holgadamente los 11,7 Gbps de las versiones de 12 capas.
El concepto cHBM lleva la lógica a la memoria
Más allá de la capacidad bruta, la innovación técnica más relevante presentada por el fabricante es el concepto de cHBM. Tradicionalmente, la lógica de control de memoria y la interfaz física (PHY) ocupan un espacio valioso y consumen energía en el die principal de la GPU o el ASIC. La propuesta de SK Hynix consiste en integrar un "base die" personalizado en la parte inferior de la pila de memoria DRAM.
Esta arquitectura permite mover funciones lógicas, como los controladores de memoria o los PHYs die-to-die, fuera del procesador principal y colocarlos directamente en la memoria. Esto libera espacio en la GPU para añadir más lógica de computación, maximizando así el rendimiento total del sistema. Según la compañía, este enfoque ofrece una gran flexibilidad, permitiendo a los clientes elegir qué funciones integrar e incluso embeber lógica de procesamiento dentro del propio paquete de memoria.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



