Publicado: Oct 25, 2019

O Amazon Elastic Inference introduziu novos Elastic Inference Accelerators, chamados de EIA2, com até 8 GB de memória de GPU. Agora, os clientes podem usar o Amazon Elastic Inference em modelos maiores ou modelos com tamanhos de entrada maiores para processamento de imagens, detecção de objetos, classificação de imagens, processamento automatizado de fala e processamento de linguagem natural, além de outros casos de uso de deep learning.

O Amazon Elastic Inference permite associar a quantidade exata de aceleração baseada em GPU a qualquer instância do Amazon EC2, instância Amazon SageMaker ou tarefa do Amazon ECS para reduzir o custo da execução de inferências de aprendizado profundo em até 75%. Com o Amazon Elastic Inference, é possível escolher o tipo de instância mais adequado em função da memória e CPU geral necessários para o seu aplicativo, e depois configurar separadamente a quantidade de aceleração de inferência que você precisa sem alterações de código. Até então, era possível provisionar no máximo 4 GB de memória GPU no Elastic Inference. Agora, você pode escolher entre três novos tipos de aceleradores, que possuem 2 GB, 4 GB e 8 GB de memória de GPU, respectivamente. O Amazon Elastic Inference oferece suporte aos modelos TensorFlow, Apache MXNet e ONNX, com mais estruturas em breve.

Os novos Elastic Inference Accelerators estão disponíveis no Leste dos EUA (Virgínia), no Oeste dos EUA (Oregon), no Leste dos EUA (Ohio), na Ásia-Pacífico (Seul) e na UE (Irlanda). O suporte a outras regiões será disponibilizado em breve.

Para obter mais informações, consulte a página do produto e a documentação do Amazon Elastic Inference.