Publicado: Oct 25, 2017

Estamos felizes em anunciar a disponibilidade de instâncias P3 do Amazon EC2, a próxima geração de instâncias de GPU otimizadas para computação do EC2. As instâncias P3 são capacitadas com até 8 GPUs Tesla V100 de última geração da NVIDIA e são ideais para cargas de trabalho avançadas computacionalmente, como aprendizagem de máquina (ML), computação de alta performance (HPC), compactação de dados e criptografia. Elas também são ideais para aplicativos específicos do setor para computação e simulações científicas, análises financeiras e processamento de imagens e vídeos.

As instâncias P3 fornecem uma poderosa plataforma para ML e HPC aproveitando também 64 vCPUs usando processadores Intel Xeon E5 personalizados, 488 GB de RAM e até 25 Gbps de largura de banda de rede agregada aproveitando a tecnologia do Elastic Network Adapter.

Baseadas na arquitetura Volta mais recente do NVIDIA, cada GPU Tesla V100 fornece 125 TFLOPS de desempenho de precisão mista, 15,7 TFLOPS de desempenho de precisão única (FP32) e 7,8 TFLOPS de desempenho de precisão dupla (FP64). Isso é possível porque cada GPU Tesla V100 contém 5.120 núcleos do CUDA e 640 núcleos do Tensor. Uma interconexão hypermesh de 300 GB/s NVLink permite a comunicação de GPU para GPU em alta velocidade e baixa latência. 

Para aplicativos ML, as instâncias P3 oferecem melhoria de desempenho de até 14 vezes sobre as instâncias P2, permitindo que os desenvolvedores programem seus modelos de aprendizagem de máquina em horas (em vez de dias) e tragam suas inovações para o mercado com mais rapidez.  

As instâncias P3 estão disponíveis em três tamanhos de instância: p3.2xlarge com 1 GPU, p3.8xlarge com 4 GPUs e p3.16xlarge com 8 GPUs. Elas estão disponíveis nas regiões Leste dos EUA (Norte da Virgínia), Oeste dos EUA (Oregon), Oeste da UE (Irlanda) e Ásia-Pacífico (Tóquio). Os clientes podem adquirir instâncias P3 como instâncias sob demanda, instâncias reservadas, instâncias spot ou hosts dedicados.