Anúncio da disponibilidade geral de instâncias G6e do Amazon EC2
Hoje, anunciamos a disponibilidade geral das instâncias G6e do Amazon EC2 com tecnologia de GPUs NVIDIA L40S Tensor Core. As instâncias G6e podem ser usadas para uma grande variedade de casos de uso de machine learning e computação espacial. As instâncias G6e oferecem performance até 2,5 vezes melhor em comparação às instâncias G5 e custos de inferência até 20% menores do que as instâncias P4d.
Os clientes podem usar instâncias G6e para implantar grandes modelos de linguagem (LLMs) com até 13B parâmetros e modelos de difusão para gerar imagens, vídeo e áudio. Além disso, as instâncias G6e permitem que os clientes criem simulações 3D maiores e mais imersivas, bem como gêmeos digitais para workloads de computação espacial. As instâncias G6e apresentam até 8 GPUs NVIDIA L40S Tensor Core com 384 GB de memória por GPU (48 GB de memória por GPU) e processadores AMD EPYC de terceira geração. Elas também oferecem suporte a até 192 vCPUs, 400 Gbps de largura de banda da rede, 1,536 TB memória de sistema e até 7,6 TB de armazenamento local em SSD NVMe. Os desenvolvedores podem executar workloads de inferência de IA em instâncias G6e usando AMIs do AWS Deep Learning, contêineres do AWS Deep Learning ou serviços gerenciados como Amazon Elastic Kubernetes Service (Amazon EKS) e AWS Batch. O suporte ao Amazon SageMaker será disponibilizado em breve.
As instâncias G6e do Amazon EC2 estão disponíveis hoje nas regiões da AWS Leste dos EUA (Norte da Virgínia e Ohio) e Oeste dos EUA (Oregon). Os clientes podem adquirir as instâncias G6e como instâncias sob demanda, reservadas e spot ou como parte de Savings Plans.
Para começar a usar, acesse o Console de Gerenciamento da AWS, a AWS Command Line Interface (CLI) e os SDKs da AWS. Para saber mais, acesse a página de instâncias G6e.