Geral

P: O que é o Amazon Elastic Inference?

R: O Amazon Elastic Inference (Amazon EI) é um serviço de processamento acelerado que permite que você atribua apenas a quantidade correta de aceleração de inferência baseada em GPU a qualquer tipo de instância do Amazon EC2 ou Amazon SageMaker. Isso significa que agora é possível escolher o tipo de instância mais adequado para a computação geral, memória e armazenamento necessários para seu aplicativo, e, em seguida, configurar separadamente a quantidade de aceleração de inferência que você precisa.

P: O que são os aceleradores do Amazon Elastic Inference?

R: Os aceleradores do Amazon Elastic Inference são dispositivos de hardware com GPU desenvolvidos para funcionar com qualquer tipo de instância do EC2 para acelerar as cargas de trabalho de inferência de aprendizado profundo por um custo baixo. Quando você executa uma instância com o Amazon Elastic Inference, um acelerador é provisionado e anexado à instância na rede. As estruturas e ferramentas de aprendizado profundo como TensorFlow Serving e Apache MXNet, ativadas para o Amazon Elastic Inference, podem detectar e descarregar um modelo de computação no acelerador anexado.

Configuração

P: Como provisionar os aceleradores do Amazon Elastic Inference ?

R: É possível configurar endpoints do Amazon SageMaker ou instâncias Amazon EC2 com aceleradores do Amazon Elastic Inference usando o Console de Gerenciamento da AWS, a interface da linha de comando da AWS (CLI) ou o AWS SDK. Existem dois requisitos para a execução das instâncias do EC2 com aceleradores. Primeiramente, é preciso provisionar um VPC Endpoint do AWS PrivateLink para as sub-redes em que você pretende executar aceleradores. Em seguida, conforme executa uma instância, você deve proporcionar uma função de instância com uma política que permite aos usuários acessar a instância para conectar aos aceleradores. Quando você configura uma instância para executar com o Amazon EI, um acelerador é provisionado na mesma zona de disponibilidade atrás do VPC endpoint.

P: Para quais formatos de modelo o Amazon Elastic Inference oferece suporte?

R: O Amazon Elastic Inference oferece suporte aos modelos treinados usando TensorFlow, Apache MXNet e ONNX.

P: Posso implantar modelos no Amazon Elastic Inference usando as estruturas TensorFlow ou Apache MXNet?

R: Sim, você pode usar as bibliotecas TensorFlow Serving e Apache MXNet aprimoradas para AWS para implantar modelos e fazer chamadas de inferência.

P: Como faço para obter acesso a estruturas otimizadas para AWS?

R: AMIs do AWS Deep Learning incluem os lançamentos mais recentes do TensorFlow Serving e do Apache MXNet otimizados para o uso com aceleradores do Amazon Elastic Inference. Também é possível obter as bibliotecas por meio do Amazon S3 para desenvolver suas próprias imagens de contêiner ou AMIs. Consulte a nossa documentação para obter mais informações.

P: Posso usar CUDA com os aceleradores do Amazon Elastic Inference?

R: Não. É possível usar somente as bibliotecas TensorFlow Serving ou Apache MXNet aprimoradas para AWS como interface nos aceleradores do Amazon Elastic Inference.

Definição de preço e faturamento

P: Como sou cobrado pelo uso do Amazon Elastic Inference?

R: Você paga somente pelas horas usadas do acelerador do Amazon Elastic Inference. Para ver mais detalhes, consulte a página de definição de preço.

P: Haverá cobrança para VPC Endpoints do AWS PrivateLink do serviço do Amazon Elastic Inference?

Não. Não haverá cobrança adicional pelos VPC endpoints para o serviço do Amazon Elastic Inference desde que você tenha pelo menos uma instância configurada com um acelerador executado em uma zona de disponibilidade onde há um VPC endpoint provisionado.

Product-Page_Standard-Icons_01_Product-Features_SqInk
Saiba mais sobre a definição de preço.

Consulte a página de definição de preço do Amazon Elastic Inference para obter informações detalhadas sobre a definição de preço.

Saiba mais 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
Cadastre-se para obter uma conta gratuita

Obtenha acesso instantâneo ao nível gratuito da AWS. 

Cadastrar-se 
Product-Page_Standard-Icons_03_Start-Building_SqInk
Comece a criar no console

Comece a usar o Amazon Elastic Inference no Amazon SageMaker ou no Amazon EC2.

Faça login