Instâncias G6e do Amazon EC2 já estão disponíveis em outras regiões

Publicado: 21 de nov de 2024

A partir de hoje, as instâncias G6e do Amazon EC2 equipadas com GPUs NVIDIA L40S Tensor Core estão agora disponíveis nas regiões Ásia-Pacífico (Tóquio) e Europa (Frankfurt, Espanha). As instâncias G6e podem ser usadas em uma grande variedade de casos de uso de machine learning e computação espacial. As instâncias G6e oferecem performance até 2,5 vezes melhor em comparação às instâncias G5 e custos de inferência até 20% menores do que as instâncias P4d.

Os clientes podem usar as instâncias G6e para implantar tanto grandes modelos de linguagem (LLMs) com até 13 bilhões de parâmetros como modelos de difusão para gerar imagens, vídeo e áudio. Além disso, as instâncias G6e permitem que os clientes criem simulações 3D maiores e mais imersivas, bem como gêmeos digitais para workloads de computação espacial. As instâncias G6e apresentam até 8 GPUs NVIDIA L40S Tensor Core com 384 GB de memória por GPU (48 GB de memória por GPU) e processadores AMD EPYC de terceira geração. Elas também oferecem suporte a até 192 vCPUs, 400 Gbps de largura de banda da rede, 1,536 TB de memória de sistema e até 7,6 TB de armazenamento local em SSD NVMe. Os desenvolvedores podem executar workloads de inferência de IA em instâncias G6e usando AMIs do AWS Deep Learning, contêineres do AWS Deep Learning ou serviços gerenciados, como Amazon Elastic Kubernetes Service (Amazon EKS) e AWS Batch. O suporte ao Amazon SageMaker será disponibilizado em breve.

As instâncias G6e do Amazon EC2 estão disponíveis hoje nas regiões da AWS Leste dos EUA (N. da Virgínia, Ohio), Oeste dos EUA (Oregon), Ásia-Pacífico (Tóquio) e Europa (Frankfurt, Espanha). Os clientes podem adquirir as instâncias G6e como instâncias sob demanda, reservadas e spot ou como parte de Savings Plans.

Para começar a usar, acesse o Console de Gerenciamento da AWS, a AWS Command Line Interface (CLI) e os SDKs da AWS. Para saber mais, acesse a página das instâncias G6e.