Publicado en: Nov 11, 2022

Los trabajos de entrenamiento de Amazon SageMaker ahora admiten las instancias ml.trn1 con la tecnología de los chips de AWS Trainium, que se diseñaron específicamente para aplicaciones de entrenamiento de machine learning de alto rendimiento en la nube. Puede utilizar las instancias ml.trn1 en SageMaker para entrenar modelos de natural language processing (NLP, procesamiento de lenguaje natural), visión artificial y recomendadores en una gran variedad de aplicaciones, como reconocimiento de voz, recomendaciones, detección de fraudes, clasificación de imágenes y videos, y previsiones.

Las instancias ml.trn1 pueden incluir hasta 16 chips de AWS Trainium, que son los chips de machine learning de segunda generación desarrollados por AWS después de AWS Inferentia. Las instancias ml.trn1 son las primeras instancias de EC2 que tienen hasta 800 Gbps ancho de banda de la red de Elastic Fabric Adapter (EFA) Para brindar un paralelismo eficiente entre datos y modelos, cada instancia ml.trn1.32xl tiene 512 GB de memoria de ancho de banda alto, entrega hasta 3,4 petaflops de potencia de computación de FP16/BF16 e incluye NeuronLink, una interconexión intrainstancia sin bloqueo y de ancho de banda alto.

Las instancias ml.trn1 están disponibles en dos tamaños: ml.trn1.2xlarge, para experimentar con un único acelerador y entrenar modelos pequeños de manera rentable; y ml.trn1.32xlarge, para entrenar modelos a gran escala. El entrenamiento de modelos de SageMaker admite las instancias ml.trn1 a partir de hoy en las regiones de AWS Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón).

Para obtener más información sobre las instancias ml.trn1, visite el blog de noticias de AWS o la páginas de instancias Trn1. Para comenzar a utilizar las instancias ml.trn1, inicie sesión en la consola de Amazon SageMaker. Para obtener más información acerca del entrenamiento de modelos de Amazon SageMaker, visite nuestra página web.