Publicado: Jan 27, 2023
As instâncias ml.p4de.24xlarge têm 80 GB de memória por GPU (640 GB no total), além de suporte para até 8 TB de armazenamento SSD NVMe local. Esses recursos viabilizam inferências de machine learning de alta performance para workloads com uso intenso de computação no SageMaker, como grandes modelos de linguagem e modelos generativos de IA. Essas instâncias têm 96 vCPUs, 1.152 GiBs de memória de instância e 400 Gbps de largura de banda de rede.
Você pode usar instâncias ml.P4de nas regiões Leste dos EUA (N. da Virgínia) e Oeste dos EUA (Oregon).
Para obter acesso à demonstração, basta solicitar um aumento de limite usando o AWS Service Quotas. Para obter informações sobre os preços dessas instâncias, acesse a página de preços. Para obter mais informações sobre a implantação de modelos com o SageMaker, consulte a visão geral e a documentação. Para saber mais sobre as instâncias P4de em geral, acesse a página de produto das instâncias P4.