- Amazon EC2›
- Tipos de instância›
- Instâncias G5
Instâncias G5 do Amazon EC2
Instâncias baseadas em GPU de alta performance para aplicações com uso intensivo de gráficos e inferência de machine learning.
Por que escolher instâncias G5 do Amazon EC2?
As instâncias G5 do Amazon EC2 são a última geração de instâncias baseadas em GPU NVIDIA que podem ser usadas para uma ampla variedade de casos com uso intensivo de elementos gráficos e machine learning. Elas oferecem uma performance 3 vezes maior para aplicações com uso intensivo de elementos gráficos e inferência de machine learning e uma performance 3,3 vezes maior para treinamento de machine learning em comparação com instâncias G4dn do Amazon EC2.
Os clientes podem usar instâncias G5 para aplicações com uso intensivo de elementos gráficos, como estações de trabalho remotas, renderização de vídeo e jogos para produzir gráficos de alta fidelidade em tempo real. Com as instâncias G5, os clientes de machine learning obtêm alta performance e infraestrutura com bom custo-benefício para treinar e implantar modelos maiores e mais sofisticados para casos de uso de processamento de linguagem natural, visão computacional e mecanismo de recomendação.
As instâncias G5 apresentam até 8 processadores NVIDIA e AMD EPYC de segunda geração. Elas também oferecem suporte a até 192 vCPUs, 100 Gbps de largura de banda da rede e 7,6 TB de armazenamento local em SSD NVMe.
Benefícios
As instâncias G5 oferecem desempenho gráfico até 3x maior e performance de preço até 40% melhor do que as instâncias G4dn. Elas têm mais núcleos de rastreamento de raios do que qualquer outra instância do EC2 baseada em GPU, apresentam 24 GB de memória por GPU e oferecem suporte para a tecnologia NVIDIA RTX. Isso as torna ideais para renderizar cenas realistas mais rapidamente, executar estações de trabalho virtuais poderosas e oferecer suporte a aplicações de gráficos pesados com maior fidelidade.
As instâncias G5 oferecem desempenho até 3x maior e performance de preço até 40% melhor para inferência de machine learning em comparação com instâncias G4dn. Elas são uma solução de alta performance e ótimo custo-benefício para clientes que desejam usar bibliotecas NVIDIA como TensorRT, CUDA e cuDNN na execução de aplicações de ML.
As instâncias G5 oferecem um custo de treinamento até 15% menor do que as instâncias P3 do Amazon EC2. Elas também oferecem performance até 3,3 vezes maior para treinamento de ML em comparação com instâncias G4dn. Isso as torna uma solução com bom custo-benefício para treinar modelos de machine learning moderadamente complexos e de nó único para casos de uso de processamento de linguagem natural, visão computacional e mecanismo de recomendação.
As instâncias G5 são baseadas no AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve que fornece praticamente todos os recursos de computação e memória do hardware do host para suas instâncias para obter melhor performance e segurança em geral. Com instâncias G5, o sistema Nitro provisiona as GPUs em modo de passagem, oferecendo performance comparável ao bare-metal.
Recursos
As instâncias G5 são as primeiras na nuvem a apresentar GPUs NVIDIA A10G Tensor Core que oferecem alta performance para aplicações com uso intensivo de elementos gráficos e de machine learning. Cada instância possui até 8 GPUs A10G Tensor Core que vêm com 80 núcleos de rastreamento de raios e 24 GB de memória por GPU. Elas também oferecem 320 NVIDIA Tensor Cores de terceira geração, oferecendo até 250 TOPS, resultando em alta performance para workloads de trabalho de ML.
As instâncias G5 oferecem aos clientes drivers NVIDIA RTX Enterprise e de jogos sem custo adicional. Os drivers NVIDIA RTX Enterprise podem ser usados para fornecer estações de trabalho virtuais de alta qualidade para uma ampla variedade de workloads com uso intensivo de elementos gráficos. Os drivers de jogos NVIDIA fornecem gráficos incomparáveis e suporte de computação para desenvolvimento de jogos. As instâncias G5 também oferecem suporte às bibliotecas CUDA, cuDNN, NVENC, TensorRT, cuBLAS, OpenCL, DirectX 11/12, Vulkan 1.1 e OpenGL 4.5.
As instâncias G5 são fornecidas com até 100 Gbps de taxa de transferência de rede, permitindo que elas ofereçam suporte às necessidades de baixa latência de inferência de machine learning e aplicações com uso intensivo de elementos gráficos. Os 24 GB de memória por GPU, juntamente com suporte para até 7,6 TB de armazenamento SSD NVMe local, permitem o armazenamento local de grandes modelos e conjuntos de dados para treinamento e inferência de machine learning de alta performance. As instâncias G5 também podem armazenar grandes arquivos de vídeo localmente, resultando em maior performance gráfica e na capacidade de renderizar arquivos de vídeo maiores e mais complexos.
As instâncias G5 são criadas no AWS Nitro System, que é uma coleção abundante de componentes básicos que transfere muitas das funções tradicionais de virtualização para hardware e software dedicados para oferecer alta performance, alta disponibilidade e alta segurança, além de reduzir a sobrecarga de virtualização.
Detalhes do produto
|
|
Instance Size
|
GPU
|
GPU Memory (GiB)
|
vCPUs
|
Memory (GiB)
|
Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
VMs com uma GPU
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||
|
VMs com várias GPUs
|
|
|
|
|
|
|
|
|
Atenascópio
O Athenascope usa desenvolvimentos de ponta em visão computacional e inteligência artificial para analisar a jogabilidade e exibir automaticamente os momentos de jogo mais atraentes para criar vídeos de destaque para jogadores e criadores de conteúdo.
Para criar uma experiência de vídeo perfeita, a análise de vídeo de baixa latência usando nossos modelos de CV é uma meta fundamental para nós. As instâncias G5 do Amazon EC2 oferecem uma melhoria de 30% na proporção preço/performance em relação às implantações anteriores com instâncias G4dn.
Chris Kirmse, CEO e fundador, Athenascope
Netflix
A Netflix é um dos principais serviços de transmissão de entretenimento do mundo, com 214 milhões de assinaturas pagas em mais de 190 países que aproveitam séries de TV, documentários e longas-metragens em uma ampla variedade de gêneros e idiomas.
Com as novas instâncias G5 do Amazon EC2, podemos provisionar estações de trabalho gráficas de última geração que oferecem performance até três vezes maior em comparação a estações de trabalho com instâncias G4dn do EC2. Com as instâncias G5, os criadores de conteúdo têm a liberdade de criar conteúdo mais complexo e realista para nossos espectadores.
Ben Tucker, líder técnico, engenharia de sistemas de produção de animação, Netflix
Varjo
Para aplicações VR/XR de ponta, as instâncias G5 do Amazon EC2 são um divisor de águas. Somos capazes de executar aplicações profissionais na resolução de assinatura de olho humano da Varjo com três vezes a taxa de quadros em comparação com as instâncias G4dn usadas anteriormente, oferecendo aos nossos clientes uma qualidade de experiência nunca antes vista ao transmitir do servidor.
Urho Konttori, fundador e diretor de tecnologia, Varjo
Conceitos básicos das instâncias G5
A DLAMI disponibiliza para profissionais e pesquisadores de ML a infraestrutura e as ferramentas necessárias para acelerar o DL na nuvem em qualquer escala. Os contêineres de aprendizado profundo são imagens do Docker pré-instaladas com frameworks de DL para facilitar a implantação de ambientes personalizados de ML, evitando que você se preocupe com o processo complicado de criar e otimizar ambientes do zero.
Caso prefira gerenciar suas próprias workloads em contêineres por meio dos serviços de orquestração de contêineres, você pode implantar as instâncias G5 com o Amazon EKS ou o Amazon ECS.
Você pode usar várias imagens de máquina da Amazon (AMIs) oferecidas pela AWS e NVIDIA que vêm com os drivers da NVIDIA instalados.
Você pode implantar modelos de ML em instâncias G5 usando o Amazon SageMaker, um serviço totalmente gerenciado para criar, treinar e implantar modelos de ML.