AWS lanza Trainium, su nuevo chip personalizado para entrenamiento de redes neuronales

Como probablemente muchos asiduos a la inteligencia artificial sabrán, antes de poder realizar tareas de inferencia con una red neuronal, necesitamos entrenarla para que devuelva los resultados deseados, ya sea a la hora de devolver resultados a partir de imágenes o conducir un vehículo de forma autónoma.

Hasta ahora, generalmente se utilizan equipos potentes, normalmente con varias GPUs, para poder realizar el entrenamiento de la forma más veloz posible, algo que en operaciones a gran escala incluso termina corriendo a cuenta de uno o varios servidores para poder multiplicar la potencia de cálculo y así terminar antes el entrenamiento.

Aquí es donde entra Trainium, el nuevo chip de AWS que, según Amazon, contará con mayor rendimiento que cualquiera de sus competidores en la nube, con soporte para TensorFlow, PyTorch y MXNet mientras se usa el mismo SDK que la actual AWS Inferentia, a la cual Trainium complementará. Este chip estará disponible en instancias EC2 y en la plataforma Amazon SageMaker, diseñada para operaciones de machine learning.

Del mismo modo, se espera que las nuevas instancias con estos chips lleguen a partir del año que viene, creando así un ecosistema completo en el que las empresas podrán contar con un flujo de trabajo de principio a fin basado en la infraestructura de Amazon, permitiendo así contar con un rendimiento un 30% mayor a la misma vez que el coste se reduce en un 45%.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!