Publicado: Dec 3, 2019
As AMIs do AWS Deep Learning estão disponíveis para Ubuntu 18.04, Ubuntu 16.04, Amazon Linux 2 e Amazon Linux com TensorFlow 1.15, TensorFlow 2.0, PyTorch 1.3.1 e MXNet 1.6.0-rc0. Também novo nesta versão é o suporte ao AWS Neuron, um SDK para executar inferência usando os chips AWS Inferentia. Ele consiste em um compilador, tempo de execução e ferramentas de criação de perfil que permitem que os desenvolvedores executem de inferência de alta performance e baixa latência usando instâncias Inf1 do EC2 baseadas no Inferentia. O Neuron é pré-integrado a estruturas populares de machine learning, incluindo TensorFlow, Pytorch e MXNet, para oferecer performance ideal às instâncias Inf1 do EC2. Os clientes que usam instâncias Inf1 do Amazon EC2 receberão o mais alto desempenho e o menor custo pela inferência de machine learning na nuvem, e não precisam mais fazer a troca subideal entre otimizar a latência ou o throughput ao executar grandes modelos de machine learning na produção.
As AMIs do AWS Deep Learning também oferecem suporte a outras interfaces, como Keras, Chainer e Gluon, todas pré-instaladas e totalmente configuradas para você começar a desenvolver modelos de aprendizado profundo em poucos minutos e aproveitar ao máximo a capacidade computacional e flexibilidade das instâncias do Amazon EC2. Quando você ativa um ambiente Conda, as AMIs do Deep Learning implantam automaticamente compilações das estruturas com maior performance, otimizadas para a instância do EC2 de sua escolha. Para ver uma lista completa das estruturas e versões compatíveis com a AMI do AWS Deep Learning, consulte as notas de release.
Comece a usar rapidamente as AMIs do AWS Deep Learning com os guias de conceitos básicos e os tutoriais para usuários iniciantes e avançados de nosso guia do desenvolvedor. Você também pode assinar nosso fórum de discussão para obter anúncios de lançamentos e publicar suas perguntas.