Publicado: Jul 15, 2022

O Amazon SageMaker amplia o acesso a novas instâncias do ML para que os clientes possam implantar modelos na instância mais adequada às workloads. Agora, os clientes podem usar instâncias ml.g5, ml.p4d e ml.c6i como opções de implantação de modelos assíncronas e em tempo real.

A visão da AWS é disponibilizar o ML nas mãos de todos os desenvolvedores e democratizar o acesso a infraestrutura de ponta, oferecida em um modelo de baixo custo com pagamento conforme o uso. Para concretizar essa visão, inovamos rapidamente para entregar sempre uma infraestrutura para workloads de ML com a melhor performance e o menor custo possíveis.

  • As instâncias ml.g5 oferecem desempenho até três vezes maior e performance até 40% melhor para inferências de machine learning em comparação com instâncias G4dn. Elas são uma solução de alta performance e ótimo custo-benefício para clientes que desejam usar bibliotecas NVIDIA como TensorRT, CUDA e cuDNN na execução de aplicações de ML. Essas instâncias são ideais para casos de uso como recomendações, chatbots, assistentes inteligentes e reconhecimento de imagem. As instâncias ml.g5 estão disponíveis nas regiões Leste dos EUA (N. da Virgínia), Oeste dos EUA (Oregon) e Europa (Irlanda).
  •  As instâncias ml.p4d oferecem uma performance em média 2,5 vezes superior para modelos de aprendizado profundo em relação às instâncias P3 da geração anterior. A memória de 40 GB por GPU e o suporte a até 8 TB de armazenamento SSD NVMe local permitem o armazenamento local de modelos e conjuntos de dados de grande porte para inferências de machine learning de alta performance, como grandes modelos linguísticos e modelos de visão computadorizada. As instâncias ml.p4d estão disponíveis nas regiões Leste dos EUA (N. da Virgínia) e Oeste dos EUA (Oregon).
  • As instâncias ml.c6i são baseadas em processadores Intel Xeon Scalable de 3ª geração e, em relação às instâncias C5, oferecem um aumento de performance de até 15% por custo unitário para uma grande variedade de workloads. Além disso, as instâncias c6i também oferecem novos tamanhos maiores, com até 128 vCPUs e 256 GiB de memória, permitindo que os clientes consolidem workloads em um número reduzido de instâncias. Agora, as instâncias c6i oferecem suporte a novas instruções Intel Advanced Vector Extensions (AVX 512), Intel Turbo Boost e Intel Deep Learning Boost para aumentar ainda mais a performance de workloads de machine learning. As instâncias ml.c6i estão disponíveis em todas as regiões comerciais.

Para obter informações sobre os preços dessas instâncias, acesse a página de preços.