En el 2023 la memoria HBM aumentará su demanda un 60%

Aunque este 2023 no se auguraba buen año para las ventas en informática, parece que el sector de la alta computación y la IA no podrá decir lo mismo. Hemos visto que ahora se hace uso de la IA para casi cualquier cosa, aplicaciones o en el sector de la automoción, por ejemplo, y esto generará una gran demanda de servidores capaces de gestionar todos estos datos de forma más rápida. Según el estudio de Trendforce, la demanda de IA y la alta computación generará una demanda de un 60% más de memoria HBM en este 2023.

Esto supondrá un total de 290 millones de GB de memoria HBM para este mismo año, pero se espera un 30% más para el 2024. Este consumo se debe a la creciente demanda de tareas como vídeo en 8K, AR/VR, uso de supercomputadoras, etc. Trendforce prevé que serán necesarias entre 145.600 y 233.700 GPUs NVIDIA A100 para satisfacer la demanda de IA como ChapGPT o Midjourney para el 2025.

Para esto es ideal contar con el uso de memoria HBM, donde el ancho de banda de HBM3 es capaz de multiplicar por 15 al de la DDR5, y que se puede mejorar apilando más memoria de este tipo. También se puede reemplazar parte de la memoria SDRAM convencional con HBM3 para conseguir un mayor ahorro energético.

En este estudio también se cita que la venta de servidores para este tipo de tareas se incrementará en el 2023, con 1,2 millones de servidores enviados equipados con las diferentes soluciones aceleradoras de NVIDIA, AMD o soluciones personalizadas de los más grandes como Google o Amazon, una tasa de crecimiento del 38% respecto al año anterior y un 50% en el envío de chips relacionados con la IA.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!