Publicado: Sep 17, 2019

O Amazon ECS oferece suporte à conexão de aceleradores do Amazon Elastic Inference a contêineres para tornar mais econômica a execução de cargas de trabalho de inferência de aprendizado profundo. O Amazon Elastic Inference permite associar a quantidade exata de aceleração baseada em GPU a qualquer instância do Amazon EC2 e do Amazon SageMaker ou tarefa do ECS para reduzir o custo da execução de inferências de aprendizado profundo em até 75%.

Com o suporte do ECS ao Amazon Elastic Inference, agora é possível escolher a configuração de CPU e memória da tarefa da forma mais adequada às necessidades do aplicativo e configurar separadamente a quantidade de aceleração de inferência necessária, sem alterações de código. Isso permite que você use os recursos de maneira eficiente e reduza os custos de execução de inferências. Esse recurso é disponibilizado para o uso de contêineres e tarefas do Linux que usam o tipo de execução EC2. O Amazon Elastic Inference oferece suporte a modelos de TensorFlow, Apache MXNet e ONNX. Mais estruturas serão disponibilizadas em breve.

O suporte do ECS ao Amazon Elastic Inference está disponível em todas as regiões em que o ECS e o Elastic Inference são oferecidos. Para começar a usar, consulte nossa documentação