Vivobook S14 BannerCrosshair A16 HX D8WGKG-200XES Banner
Huawei presenta memoria HBM propia y la familia Ascend 950 con hasta 144 GB y 4 TB/s en su hoja de ruta para IA masiva

Huawei presenta memoria HBM propia y la familia Ascend 950 con hasta 144 GB y 4 TB/s en su hoja de ruta para IA masiva

por Manuel Naranjo

En su conferencia Connect 2025, Huawei puso sobre la mesa algo más que un calendario de lanzamientos: una estrategia a largo plazo para plantar cara en el terreno de la computación para inteligencia artificial. El fabricante chino presentó por primera vez su memoria HBM desarrollada internamente, además de detallar la próxima generación de aceleradores de la familia Ascend, con los que espera competir no chip a chip, sino a base de escala y arquitectura de sistema.

La familia Ascend 950 como punto de partida

El foco más inmediato está en el Ascend 950, previsto para principios de 2026 en dos variantes. Por un lado, el modelo 950PR, con 128 GB de memoria HBM y un ancho de banda de 1,6 TB/s. Por otro, el 950DT, que sube hasta 144 GB de memoria y escala el ancho de banda a unos 4 TB/s. Ambos chips son la base de lo que Huawei plantea como un ecosistema de aceleradores listos para trabajar en conjunto.

La compañía sabe que aún está por detrás de NVIDIA en rendimiento bruto por chip, pero su propuesta no busca ser la más rápida de forma individual, sino ganar en rendimiento agregado cuando se integran decenas de miles de unidades en un mismo clúster.

Una hoja de ruta que mira más allá de 2026

Huawei no se quedó en lo inmediato. También adelantó que en 2027 y 2028 llegarán las familias Ascend 960 y 970, que apostarán por más memoria integrada, anchos de banda más elevados y compatibilidad ampliada con formatos de precisión como FP8, cada vez más habituales en entrenamientos de IA de gran escala.

Esa visión de continuidad es clave para convencer a operadores de centros de datos y a instituciones públicas en China: una línea de producto estable, con iteraciones predecibles y capacidad de crecimiento.

Geeknetic Huawei presenta memoria HBM propia y la familia Ascend 950 con hasta 144 GB y 4 TB/s en su hoja de ruta para IA masiva 1

SuperPoDs y SuperClusters: jugar a lo grande

La verdadera jugada de Huawei está en los SuperPoDs, bloques modulares que integran estos aceleradores y que sirven de ladrillos básicos para construir lo que llaman SuperClusters. Cada SuperCluster se basa en un nuevo protocolo de interconexión llamado Lingqu y utiliza enlaces ópticos para reducir latencia y aumentar la capacidad de escalar sin cuellos de botella.

Según la compañía, el Atlas 950 Supernode, previsto para finales de 2025, será capaz de ejecutar cargas de trabajo de exaescala en FP8. Más adelante, con los Atlas 960, el número de chips crecerá aún más, apuntando a niveles de rendimiento que rivalizan con lo mejor de Occidente.

El dato más llamativo es el de su clúster tope de gama: hasta 524 ExaFLOPS en FP8 y un ZettaFLOP completo en FP4, apoyado en 64 SuperPoDs Atlas y 524.288 aceleradores trabajando en paralelo.

La comparación con NVIDIA

La escala de estos números pone a Huawei en la misma liga que el Colossus 2 de xAI, el clúster occidental más grande en desarrollo, que utilizará algo más de 550.000 GPU NVIDIA GB200 y GB300. Aunque NVIDIA mantiene la ventaja en rendimiento unitario, Huawei quiere demostrar que puede llegar a cifras comparables a nivel agregado, siempre que se disponga de la infraestructura energética y de red necesaria.

El enfoque de Huawei responde a una realidad particular: China puede permitirse centros de datos con demandas energéticas mucho mayores que las habituales en Estados Unidos o Europa. Mientras que en Occidente las limitaciones de red y consumo obligan a priorizar la eficiencia por chip, en China es posible escalar sistemas completos sin preocuparse tanto por la factura eléctrica.

Esta diferencia de contexto explica que Huawei apueste por un modelo de escala masiva, donde lo importante no es tanto el chip más potente, sino la capacidad de multiplicar nodos y conectarlos con una red propia de interconexión.

Con la presentación de la HBM propia y la hoja de ruta de los Ascend 950, 960 y 970, Huawei deja claro que no busca ser un mero seguidor de NVIDIA o AMD. Su estrategia está en construir sistemas de enorme tamaño, optimizados para cargas de trabajo de IA a nivel nacional.

Si logra materializar sus SuperClusters con cientos de miles de aceleradores trabajando al unísono, la compañía podría cambiar el debate: ya no se trataría de comparar chips individuales, sino de medir qué arquitectura puede sostener la próxima generación de entrenamientos de IA a escala planetaria.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Redactor del Artículo: Manuel Naranjo

Manuel Naranjo

Ingeniero informático y Técnico Superior en Topografía, que dejó las obras por su pasión: la tecnología. Desde hace ya varios años me dedico a lo que me gusta, con eso lo digo todo. Mi filosofía es el trabajo y la ilusión, no conozco otra forma de conseguir las cosas. El motor (sobre todo la F1) y el basket, mis vicios confesables.

Comentarios y opiniones sobre: Huawei presenta memoria HBM propia y la familia Ascend 950 con hasta 144 GB y 4 TB/s en su hoja de ruta para IA masiva ¿Qué opinas? ¿Alguna pregunta?
BestiaBanquete Banner