Publicado: Nov 28, 2018
O Amazon Elastic Inference permite associar apenas a quantidade certa de aceleração ativada por GPU a qualquer instância do Amazon EC2 e do Amazon SageMaker para reduzir o custo da execução de inferências de aprendizado profundo em até 75%. O Amazon Elastic Inference oferece suporte aos modelos TensorFlow, Apache MXNet e ONNX, com mais estruturas em breve.
Com o Amazon Elastic Inference, agora é possível escolher o tipo de instância mais adequado em função da memória e CPU geral necessários para o seu aplicativo, em seguida, configurar separadamente a quantidade de aceleração de inferência que você precisa sem alterações de código. Isso permite que você use os recursos de maneira eficiente e reduza os custos de execução da inferência. Para obter mais informações sobre o Amazon Elastic Inference, consulte a página de detalhes do serviço.