Publicado: Dec 9, 2022

O treinamento do modelo do Amazon SageMaker agora oferece suporte à demonstração de instâncias ml.p4de.24xlarge(p4de), equipadas com GPUs NVIDIA A100 e memória de GPU HBM2e de alta performance. Essas instâncias fornecem a infraestrutura computacional de mais alta performance atualmente disponível para casos de uso que exigem treinamento de grandes modelos de linguagem (LLMs), visão computacional (detecção de objetos, segmentação semântica) e inteligência artificial generativa.

As instâncias P4de apresentam até 8 GPUs NVIDIA A100 com 80 GB de memória de GPU HBM2e de alta performance, duas vezes maior do que as GPUs em instâncias p4d. A maior memória da GPU ajuda principalmente a reduzir o tempo de treinamento e o custo dos fluxos de trabalho que envolvem grandes conjuntos de dados de alta resolução e modelos complexos. Semelhantes à p4d, elas também oferecem suporte a até 96 vCPUs, até 400 Gbps de largura de banda da rede com EFA e GPUDirect RDMA e até 8 TB de armazenamento SSD local baseado em NVMe.

O treinamento de modelos do SageMaker oferece suporte à demonstração das instâncias p4de nas regiões da AWS Leste dos EUA (N. da Virgínia) e Oeste dos EUA (Oregon).

Para saber mais sobre as instâncias p4de, acesse o AWS News Blog ou a página da instância P4 do Amazon EC2. Para começar a usar as instâncias p4de, leia a documentação do Amazon SageMaker e a página de treinamento de modelos do SageMaker. Para obter mais informações sobre os preços da p4de, acesse a página da web de preços do Amazon SageMaker