Publicado: Jan 27, 2023

Temos o prazer de anunciar a demonstração das instâncias ml.p4de.24xlarge para implantação de modelos de machine learning (ML) para inferência no Amazon SageMaker.

As instâncias ml.p4de.24xlarge têm 80 GB de memória por GPU (640 GB no total), além de suporte para até 8 TB de armazenamento SSD NVMe local. Esses recursos viabilizam inferências de machine learning de alta performance para workloads com uso intenso de computação no SageMaker, como grandes modelos de linguagem e modelos generativos de IA. Essas instâncias têm 96 vCPUs, 1.152 GiBs de memória de instância e 400 Gbps de largura de banda de rede. 

Você pode usar instâncias ml.P4de nas regiões Leste dos EUA (N. da Virgínia) e Oeste dos EUA (Oregon). 

Para obter acesso à demonstração, basta solicitar um aumento de limite usando o AWS Service Quotas. Para obter informações sobre os preços dessas instâncias, acesse a página de preços. Para obter mais informações sobre a implantação de modelos com o SageMaker, consulte a visão geral e a documentação. Para saber mais sobre as instâncias P4de em geral, acesse a página de produto das instâncias P4.