Instâncias P3 do Amazon EC2

Acelere o machine learning e os aplicativos de computação de alta performance com GPUs poderosas

As instâncias P3 do Amazon EC2 fornecem computação de alta performance na nuvem com até 8 GPUs com NVIDIA® V100 Tensor Core e taxa de transferência de rede de até 100 Gbps para machine learning e aplicativos de HPC. As instâncias possuem até 1 petaflop de desempenho de precisão mista para acelerar significativamente o machine learning e os aplicativos de computação de alta performance. As instâncias P3 do Amazon EC2 demonstraram ser capazes de reduzir o tempo de treinamento de machine learning de dias para minutos, além de aumentar o número de simulações finalizadas para computação de alta performance em 3-4x.
Com até 4x a largura de banda de instâncias P3.16xlarge, as instâncias P3dn.24xlarge do Amazon EC2 são os membros mais novos da família P3, otimizados para aplicativos HPC e machine learning distribuído. Essas instâncias fornecem até 100 Gbps de transferência de rede, 96 vCPUs Intel® Xeon® escaláveis (Skylake) personalizadas, 8 GPUs NVIDIA® V100 Tensor Core com 32 GB de memória cada e 1,8 TB de armazenamento SSD baseado em NVMe.

Apresentamos a P3dn.24xlarge do Amazon EC2 - a instância P3 mais poderosa até hoje

Otimizada para computação de alta performance e treinamento de machine learning distribuído

ReInvent_HA_P3_EDITORIAL

Benefícios

REDUZA O TEMPO DE TREINAMENTO DE MACHINE LEARNING DE DIAS PARA MINUTOS

Para cientistas de dados, pesquisadores e desenvolvedores que precisam aumentar a velocidade de suas aplicações de machine learning, as instâncias P3 do Amazon EC2 são as mais rápidas disponíveis na nuvem para treinamento de ML. As instâncias P3 do Amazon EC2 apresentam até oito GPUs NVIDIA V100 Tensor Core de última geração e fornecem até 1 petaflop de desempenho de precisão mista para acelerar significativamente as cargas de trabalho do ML. O treinamento de modelo mais rápido permite que os cientistas de dados e os engenheiros de machine learning façam iterações mais rápidas, treinem mais modelos e aumentem a precisão.

A SOLUÇÃO MAIS ECONÔMICA DO SETOR PARA TREINAMENTO DE ML

Uma das mais poderosas instâncias de GPU na nuvem combinada com planos flexíveis de definição de preço. O resultado é uma solução extremamente econômica para o treinamento de machine learning. Assim como as instâncias do Amazon EC2 em geral, as instâncias P3 estão disponíveis como instâncias sob demanda, reservadas ou spot. As instâncias spot aproveitam a capacidade de instâncias não utilizadas do EC2 e podem reduzir substancialmente os custos do Amazon EC2 em até 70% em relação aos preços sob demanda.

COMPUTAÇÃO DE ALTA PERFORMANCE FLEXÍVEL E EFICIENTE

Ao contrário dos sistemas locais, a execução de computação de alta performance em instâncias P3 do Amazon EC2 oferece capacidade praticamente ilimitada de escalabilidade horizontal da infraestrutura, além da flexibilidade para alterar facilmente os recursos com a frequência exigida pelas cargas de trabalho. Você pode configurar os recursos para atender às demandas dos aplicativos e executar um cluster de HPC em minutos, pagando apenas pelo que usar.

INTEGRAÇÃO COM SERVIÇOS DE MACHINE LEARNING DA AWS

As instâncias P3 do Amazon EC2 funcionam perfeitamente com o Amazon SageMaker para fornecer uma plataforma de machine learning completa eficiente e intuitiva. O Amazon SageMaker é uma plataforma de machine learning gerenciada que permite que você construa, treine e implante de forma rápida e fácil modelos de machine learning. Além disso, as instâncias P3 do Amazon EC2 podem ser integradas às imagens de máquina da Amazon (AMIs) do AWS Deep Learning, pré-instaladas com estruturas populares de aprendizado profundo. Assim, iniciar o treinamento de machine learning e inferências fica mais fácil e rápido.

SUPORTE A TODAS AS PRINCIPAIS ESTRUTURAS DE MACHINE LEARNING

As instâncias P3 do Amazon EC2 oferecem suporte a todas as principais estruturas de machine learning, incluindo TensorFlow, PyTorch, Apache MXNet, Caffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Chainer, Theano, Keras, Gluon e Torch. Você tem a flexibilidade de escolher as estruturas que funcionam melhor para os aplicativos.

Treinamento de machine learning escalável com vários nós

Você pode utilizar várias instâncias P3 do Amazon EC2 com até 100 Gbps de throughput de rede para treinar rapidamente modelos de machine learning. Com o throughput de rede mais alto, os desenvolvedores conseguem remover gargalos de transferências de dados e escalar horizontalmente tarefas de treinamento de modelos com eficiência em várias instâncias P3. Os clientes conseguiram treinar o ResNet-50, um modelo comum de classificação de imagens, até a precisão padrão do setor em apenas 18 minutos usando 16 instâncias P3. Esse nível de performance era impossível para a grande maioria de clientes de ML, pois exigia um grande investimento em CapEx para criar clusters de GPUs locais. Agora, com as instâncias P3 e sua disponibilidade por meio de um modelo de uso sob demanda, esse nível de performance está disponível para todos os desenvolvedores e engenheiros de machine learning.

Histórias de clientes

200x100_AirBNB_Logo

A Airbnb está usando o machine learning para otimizar recomendações de pesquisa e aprimorar a orientação para a definição de preço dinâmica para os anfitriões. O resultado: aumento das conversões das reservas. Com as instâncias P3 do Amazon EC2, a Airbnb pode agilizar a execução de cargas de trabalho de treinamento, executar mais iterações, criar melhores modelos de machine learning e reduzir custos.

salesforce_logo_200x100

A Salesforce está usando o machine learning para impulsionar o Einstein Vision, permitindo que os desenvolvedores aproveitem o poder do reconhecimento de imagens para casos de uso, como pesquisa visual, detecção de marca e identificação de produto. As instâncias P3 do Amazon EC2 permitem que os desenvolvedores treinem modelos de aprendizado profundo com mais rapidez para que possam atingir rapidamente suas metas de machine learning.

western-digital_200x100

A Western Digital usa a Computação de Alta Performance (HPC) para executar dezenas de milhares de simulações de ciências de materiais, fluxos de calor, magnetismo e transferência de dados para melhorar a performance e a qualidade das unidades de disco e armazenamento. Com base nos testes iniciais, as instâncias P3 do Amazon EC2 permitem que as equipes de engenharia executem simulações pelo menos três vezes mais rápido do que as soluções implantadas anteriormente.  

schrodinger-200x100

A Schrodinger usa a computação de alta performance (HPC) para desenvolver modelos preditivos a fim de ampliar a escala da descoberta e da otimização e oferecer aos clientes a capacidade de acelerar a disponibilização no mercado de medicamentos que salvam vidas. As instâncias P3 do Amazon EC2 permitem que a Schrodinger realize quatro vezes mais simulações em um dia do que com instâncias P2.  

Instâncias P3 do Amazon EC2 e Amazon SageMaker

A maneira mais rápida de treinar e executar modelos de machine learning

O Amazon SageMaker é um serviço gerenciado para criar, treinar e implantar modelos de machine learning. Quando usado em conjunto com as instâncias P3 do Amazon EC2, os clientes podem escalar facilmente para dezenas, centenas ou milhares de GPUs a fim de treinar rapidamente um modelo em qualquer escala, sem se preocupar com a configuração de clusters e pipelines de dados. Agora você também pode acessar facilmente os recursos da Amazon Virtual Private Cloud (VPC) para fluxos de trabalho de treinamento e hospedagem no Amazon SageMaker. Com esse recurso, você pode usar os buckets do Amazon Simple Storage Service (Amazon S3) que só podem ser acessados ​por meio de sua VPC para armazenar dados de treinamento, bem como armazenar e hospedar os artefatos de modelo derivados do processo de treinamento. Além do S3, os modelos podem acessar todos os outros recursos da AWS contidos na VPC. Saiba mais.

Crie

Com o Amazon SageMaker, é mais fácil criar, treinar e implementar modelos de machine learning, e deixá-los prontos para treinamento. O serviço fornece tudo de que você precisa para se conectar rapidamente aos dados de treinamento e selecionar e otimizar o melhor algoritmo e a melhor estrutura para os aplicativos. O Amazon SageMaker inclui blocos de anotações Jupyter hospedados que facilitam a exploração e a visualização dos dados de treinamento armazenados no Amazon S3.  Você também pode usar a instância do bloco de anotações para escrever código para criar trabalhos de treinamento de modelo, implantar modelos no Amazon SageMaker e testar ou validar seus modelos.

Treine

Você pode começar a treinar um modelo com apenas um clique no console ou com uma simples chamada de API. O Amazon SageMaker é pré-configurado com as versões mais recentes do TensorFlow e do Apache MXNet, e oferece suporte à biblioteca CUDA9 para proporcionar a performance ideal em GPUs NVIDIA. Além disso, a otimização de hiperparâmetros pode ajustar automaticamente o modelo, definindo com inteligência diferentes combinações de parâmetros do modelo para chegar rapidamente às previsões mais precisas. Para necessidades de escala maiores, você pode escalar para dezenas de instâncias a fim de oferecer suporte à criação de modelo mais rápida.

Implante

Após o treinamento, clique uma vez para implantar seu modelo em instâncias do Amazon EC2 de escalabilidade automática em várias zonas de disponibilidade. Em produção, o Amazon SageMaker gerencia a infraestrutura de computação para você, fazendo verificações de integridade, aplicando patches de segurança e realizando manutenções de rotina, tudo com o monitoramento e o registro em logs do Amazon CloudWatch.

 

Instâncias P3 do Amazon EC2 e AMIs do AWS Deep Learning

Ambientes de desenvolvimento pré-configurados para iniciar rapidamente a criação de aplicativos de aprendizado profundo

Uma alternativa ao Amazon SageMaker para desenvolvedores que tenham requisitos mais personalizados, as AMIs do AWS Deep Learning fornecem aos profissionais e pesquisadores de machine learning a infraestrutura e as ferramentas para acelerar o aprendizado profundo na nuvem, em qualquer escala. Você pode executar rapidamente instâncias P3 do Amazon EC2 que já contêm estruturas de aprendizado profundo comuns, como TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon e Keras para treinar modelos de IA sofisticados e personalizados, experimentar novos algoritmos ou aprender novas habilidades e técnicas. Saiba mais

Instâncias P3 do Amazon EC2 e computação de alta performance

Resolva problemas computacionais de grande porte e obtenha novos insights usando os recursos avançados de HPC na AWS

As instâncias P3 do Amazon EC2 são uma plataforma ideal para executar simulações de engenharia, finanças computacionais, análise sísmica, modelagem molecular, genômica, renderização e outras cargas de trabalho de computação de GPU. A Computação de Alta Performance (HPC) permite que cientistas e engenheiros solucionem esses problemas complexos e que fazem uso intenso de computação. Geralmente, os aplicativos de HPC exigem redes de alta performance, armazenamento rápido, grandes quantidades de memória, recursos elevados de computação ou todos esses itens. A AWS permite aumentar a velocidade da pesquisa e reduzir o tempo para a obtenção de resultados executando HPC na nuvem e escalando para comportar uma quantidade de tarefas em paralelo maior que a possível em ambientes locais. A AWS ajuda a reduzir custos fornecendo soluções otimizadas para aplicativos específicos, sem necessidade de grandes investimentos de capital. Saiba mais

Instâncias P3dn.24xlarge do Amazon EC2

Uma instância maior, mais rápida, mais poderosa otimizada para computação de alta performance e machine learning distribuído

As instâncias P3dn.24xlarge do Amazon EC2 são as maiores, mais rápidas e mais poderosas instâncias P3. Elas oferecem até 100 Gbps de transferência de rede, 8 GPUs NVIDIA® V100 Tensor Core com 32 GB de memória cada, 96 vCPUs Intel® Xeon® escaláveis (Skylake) personalizadas e 1,8 TB de armazenamento local SSD baseado em NVMe. Com as redes mais rápidas, os novos processadores, o dobro de memória de GPU e as vCPUs adicionais, os desenvolvedores podem reduzir substancialmente o tempo de treinamento de modelos de ML ou executar mais simulações de HPC por meio da escalabilidade horizontal das tarefas em diversas instâncias (por exemplo, 16, 32 ou 64 instâncias). Os modelos de machine learning exigem uma grande quantidade de dados para treinamento. Além de aumentar o throughput da passagem de dados entre as instâncias, o throughput de rede adicional das instâncias P3dn.24xlarge também pode ser usado para acelerar o acesso a grandes quantidades de dados de treinamento com a conexão ao Amazon S3 ou a soluções de sistemas de arquivos compartilhados, como o Amazon EFS.

REMOVA GARGALOS E REDUZA O TEMPO DE TREINAMENTO DE MACHINE LEARNING

Com 100 Gbps de throughput de rede, os desenvolvedores podem usar de forma eficiente uma grande quantidade de instâncias P3dn.24xlarge (por exemplo, 16, 32 ou 64) para treinamento distribuído e reduzir consideravelmente o tempo de treinamento dos modelos. As 96 vCPUs com processadores Intel Skylake personalizados da AWS e instruções AVX-512 operando a 2,5 GHz ajudam a otimizar o pré-processamento de dados. Além disso, as instâncias P3dn.24xlarge usam o AWS Nitro System, uma combinação de hardware dedicado e hipervisor leve, que fornece praticamente todos os recursos de computação e memória do hardware do host às suas instâncias.

 

Menor TCO com a otimização do uso de GPUs

As redes aperfeiçoadas que usam a versão mais recente do adaptador de rede elástica com até 100 Gbps de largura de banda de rede agregada podem ser usadas não apenas para compartilhar dados entre várias instâncias P3dn.24xlarge, mas também para acessar dados com alto throughput por meio do Amazon S3 ou de uma solução de sistemas de arquivos compartilhados como o Amazon EFS. O acesso aos dados com alto throughput é crucial para otimizar a utilização de GPUs e entregar a máxima performance das instâncias de computação.

Oferece maior suporte e modelos mais complexos

As instâncias P3dn.24xlarge oferecem GPUs de NVIDIA V100 Tensor Core com 32 GB de memória e permitem flexibilidade para treinar modelos maiores e mais avançados de machine learning, bem como processar maiores lotes de dados, como imagens 4K para classificação de imagens e sistemas de detecção de objetos.

 

Detalhes do produto da instância P3 do Amazon EC2

Tamanho de instância GPUs – Tesla V100 Peer-to-peer de GPUs Memória de GPU (GB) vCPUs Memória (GB) Largura de banda de rede Largura de banda do EBS Preço sob demanda/hora* Instância reservada por 1 ano – por hora* Instância reservada por 3 anos – por hora*
p3.2xlarge 1 N/D 16 8 61 Até 10 Gbps 1,5 Gbps 3,06 USD 1,99 USD 1,05 USD
p3.8xlarge 4
NVLink 64 32 244 10 Gbps 7 Gbps 12,24 USD 7,96 USD 4,19 USD
p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps 24,48 USD 15,91 USD 8,39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 Gbps 14 Gbps 31,218 USD 18,30 USD 9,64 USD

* - Os preços apresentados são para Linux/Unix na região da AWS no Leste dos EUA (Norte da Virgínia) e arredondados para o centavo mais próximo. Para obter detalhes de preços completos, consulte a página de definição de preço do Amazon EC2.

Os clientes podem adquirir instâncias P3 como instâncias sob demanda, instâncias reservadas, instâncias spot ou hosts dedicados.

FATURAMENTO A CADA SEGUNDO

Uma das muitas vantagens da computação em nuvem é a natureza elástica do provisionamento ou do desprovisionamento de recursos conforme necessário. Ao reduzir o uso do faturamento a cada segundo, habilitamos os clientes a aumentar a elasticidade, economizar dinheiro e permitir que otimizem a alocação de recursos para atingir suas metas de machine learning.

DEFINIÇÃO DE PREÇO DE INSTÂNCIA RESERVADA

As instâncias reservadas proporcionam um desconto significativo (até 75%) em comparação com a definição de preço das instâncias sob demanda. Além disso, quando as instâncias reservadas são atribuídas a uma zona de disponibilidade específica, elas disponibilizam uma reserva de capacidade, proporcionando a você uma segurança adicional com relação à sua capacidade de executar instâncias quando for necessário.

DEFINIÇÃO DE PREÇO DO SPOT

Com as instâncias spot, você paga o preço spot em vigor pelo período da execução das instâncias. Os preços de instâncias spot são definidos pelo Amazon EC2 e ajustados gradualmente de acordo com tendências de longo prazo da oferta e da demanda de capacidade de instâncias spot. As instâncias spot estão disponíveis com um desconto de até 90% quando comparadas à definição de preço das instâncias sob demanda.

A maior disponibilidade global

1856-Updated Map Image-P3 Instances-transparentBG_1024x543

As instâncias P3.2xlarge, P3.8xlarge e P3.16xlarge do Amazon EC2 estão disponíveis em 14 regiões da AWS para que os clientes tenham a flexibilidade de treinar e implantar modelos de machine learning onde quer que os dados estejam armazenados. As P3 estão disponíveis nas regiões da AWS no Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Oregon), Canadá (Central), Europa (Irlanda), Europa (Frankfurt), Europa (Londres), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Ásia-Pacífico (Sydney), Ásia-Pacífico (Cingapura), China (Pequim), China (Ningxia) e AWS GovCloud (EUA).

As instâncias P3dn.24xlarge estão disponíveis nas regiões da AWS no Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio) e Oeste dos EUA (Oregon).

Comece a usar as instâncias P3 do Amazon EC2 para machine learning

Para começar a usar em poucos minutos, saiba mais sobre o Amazon SageMaker ou use a AMI do AWS Deep Learning, que contém estruturas comuns de aprendizado profundo pré-instaladas, como Caffe2 e MXNet. Como alternativa, você também pode usar a AMI NVIDIA com o driver da GPU e o toolkit do CUDA pré-instalados.

Publicações e artigos de blog

evangelist-randall-hunt-square
 
Randall Hunt
29 de novembro de 2017
bio_ML_Article
 
Cynthya Peranandam
13 de setembro de 2017
amrraga
 
Amr Ragab, Chetan Kapoor, Rahul Huilgol, Jarvis Lee, Tyler Mullenbach e Yong Wu
20 de julho de 2018

Sobre o Amazon SageMaker

Clique aqui para saber mais

Sobre o aprendizado profundo na AWS

Clique aqui para saber mais

Sobre a Computação de Alta Performance (HPC)

Clique aqui para saber mais
Pronto para começar?
Cadastrar-se
Mais dúvidas?
Entre em contato conosco