Publicado en: Dec 9, 2022

El entrenamiento de modelos de Amazon SageMaker ahora admite la versión preliminar de instancias ml.p4de.24xlarge (p4de), con GPU NVIDIA A100 y una memoria GPU HBM2e de alto rendimiento. Estas instancias proporcionan la infraestructura informática de mayor rendimiento disponible actualmente para casos de uso que requieren el entrenamiento de modelos de lenguajes extensos (LLM), visión artificial (detección de objetos, segmentación semántica) e inteligencia artificial generativa.

Las instancias P4de cuentan con hasta 8 GPU NVIDIA A100 con 80 GB de memoria GPU HBM2e de alto rendimiento, el doble que las GPU de las instancias p4d. Una mayor memoria GPU ayuda principalmente a reducir el tiempo y el coste de entrenamiento de los flujos de trabajo que involucran grandes conjuntos de datos de alta resolución y modelos complejos. Al igual que la instancia p4d, también admiten hasta 96 vCPU, 400 Gbps de ancho de banda de la red con EFA y GPUDirect RDMA y 8 TB de almacenamiento SSD local basado en NVME.

El entrenamiento de modelos de SageMaker admite la versión preliminar de las instancias p4de en las regiones Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón) de AWS.

Para obtener más información sobre las instancias p4de, visite el blog de noticias de AWS o la página de instancias P4 de Amazon EC2. Para empezar a utilizar las instancias p4de, lea la documentación de Amazon SageMaker y la página sobre entrenamiento de modelos de SageMaker. Para obtener más información sobre los precios de p4de, visite la página web de precios de Amazon SageMaker