NVIDIA lidera el rendimiento en inferencia de IA con sus GPU Blackwell y amplía la brecha frente a AMD
por Edgar OteroSegún un nuevo informe, las GPU Blackwell de NVIDIA se posicionan como la opción más rentable y eficiente en cargas de inferencia de inteligencia artificial. Los datos revelan que su plataforma GB200 NVL72 alcanza márgenes de beneficio cercanos al 78%, superando con claridad a rivales como Google, AWS y, sobre todo, AMD.
Los GB200 se imponen en eficiencia y rentabilidad
El estudio se centró en granjas de inferencia de 100 MW operadas por distintas compañías tecnológicas. NVIDIA encabeza la lista con un 77,6% de margen de beneficio, equivalente a unos 3.500 millones de dólares. Google ocupa la segunda posición con sus TPU v6e, logrando un 74,9%, mientras que AWS se sitúa en tercer lugar con un 62,5%.
Por el contrario, AMD aparece muy rezagada. Sus plataformas MI355X registran un margen negativo del 28,2%, mientras que la generación anterior, MI300X, cae hasta un -64%. En términos de ingresos por chip, NVIDIA vuelve a marcar diferencias: su GB200 genera 7,5 dólares por hora, frente a los 1,7 dólares de AMD con la MI355X.
El peso del software en la ventaja de NVIDIA
Algo que se desprende del análisis es que este dominio no solo se debe al hardware, sino también a la optimización del ecosistema CUDA y al soporte de precisión FP4. Estas mejoras han permitido a NVIDIA mantener un rendimiento creciente incluso en generaciones anteriores como Hopper. En contraste, AMD continúa reforzando su software, aunque los resultados en inferencia aún no logran competir.
En cuanto a costes, el informe señala que la propiedad total (TCO) de los servidores MI300X alcanza los 744 millones de dólares, muy cerca de los 800 millones de la plataforma GB200. Sin embargo, la diferencia en rendimiento y beneficios coloca a NVIDIA en una posición más favorable.
NVIDIA planea lanzar este mismo año la versión Blackwell Ultra, que ofrecería un 50% más de rendimiento respecto a los GB200, y posteriormente la arquitectura Rubin en 2026. AMD, por su parte, trabaja en la serie MI400, que llegará el próximo año para competir con Rubin y que incorporará nuevas optimizaciones centradas en inferencia.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




