La Quinta Generación de Aceleradores de IA de Google se centra en mejorar su eficiencia

Google ha anunciado la que ya es su quinta generación de chips aceleradores para Inteligencia Artificial "Cloud TPU v5e". Más conocidos como TPU (Tensor Processing Units), esta quinta generación se centra en mejorar la eficiencia para conseguir, según la propia compañía, duplicar el rendimiento en entrenamiento de redes de IA por cada dólar gastado, y multiplicar por 2,5 veces su rendimiento por dólar en inferencia de esos modelos de IA.

Google asegura que estas nuevas TPU son las más baratas y eficientes del mercado de TPUs para la nube, y que han mejorado las capacidades de escalado para poder utilizar más TPUs simultáneamente que en versiones anteriores. De esta forma, se pueden utilizar no solo un módulo con varias TPU, sino que es posible combinar varios clústeres formados por varias TPU entre sí.

De hecho, es posible combinar en "vainas" (Pods) hasta 250 chips TPU v5e interconectadas con más de 400 Tb/s de ancho de banda y una potencia INT8 de 100 metaOPS.

Las Google Cloud TPU v5e son compatibles con Google Kubernetes Engine, Vertex AI, JAX, TensorFlow o Pytorch.

Además de estas TPU, que añadirán a su catálogo de servidores Cloud para IA, Google también lanzará nuevas instancias de sus servidores A3 G3 dotados de las potentes NVIDIA H100 "Hopper" para supercomputadoras con altas cargas de trabajo en IA.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!