Publicado: Jun 25, 2021

As instâncias Inf1 do Amazon EC2 e o AWS Neuron agora oferecem suporte aos modelos de aprendizado profundo YOLOv5 e ResNext, bem como aos mais recentes transformadores Hugging Face de código aberto. Também otimizamos o compilador Neuron para aprimorar a performance e, agora, você pode obter uma taxa de transferência 12X mais alta pronta para uso do que instâncias baseadas em GPU comparáveis para modelos básicos BERT pré-treinados. Esses aprimoramentos permitem que você atenda efetivamente aos seus requisitos de inferência de alta performance e implante modelos de aprendizado profundo de última geração a baixos custos. 

Instâncias Inf1 do EC2 são alimentadas pelo AWS Inferentia, um chip personalizado desenvolvido pela AWS para acelerar a inferência de machine learning. Essas instâncias oferecem o menor custo para inferência de aprendizado profundo na nuvem. Você pode treinar facilmente seus modelos de machine learning em estruturas populares de machine learning, como TensorFlow, PyTorch e MXNet, e implantá-los em instâncias Inf1 do EC2 usando o Neuron SDK. Como o Neuron está integrado a estruturas populares de machine learning, você pode implantar seus modelos existentes em instâncias Inf1 com alterações mínimas de código. Isso lhe dá a liberdade de manter a portabilidade de hardware e aproveitar as tecnologias mais recentes sem estar vinculado à solução específica de um fornecedor.

As instâncias Inf1 foram amplamente adotadas por clientes como Snap, Autodesk e Conde Nast e serviços da Amazon como o Alexa e o Rekognition e estão disponíveis em 23 regiões da AWS em todo o mundo. Nossos investimentos em engenharia, juntamente com nossa escala e nossa capacidade comprovada de gerenciar nossa capacidade, nos permitem identificar e repassar a economia de custos aos nossos clientes. Para ajudar você a dimensionar ainda mais suas aplicações de aprendizado profundo em produção nas instâncias Inf1 do Amazon EC2, estamos anunciando uma redução de 38% em nossos preços sob demanda (OD) a partir de 1º de junho de 2021. Para clientes que desejam aproveitar as vantagens de Savings Plan ou Instâncias reservadas (RI) para reduzir ainda mais seus custos, estamos reduzindo nossos preços de Savings Plans e RI por 1 ano em 38% e nossos preços de Savings Plans de RI por 3 anos em 31%. Esses preços mais baixos também são eficientes para clientes que usam instâncias Inf1 do EC2 por meio de serviços de orquestração de contêineres, como o Amazon ECS ou o EKS.

Para clientes que preferem usar um serviço de machine learning totalmente gerenciado, também estamos reduzindo o preço das instâncias ml.Inf1 no Amazon SageMaker. O Amazon SageMaker é um serviço totalmente gerenciado que fornece a todos os desenvolvedores e cientistas de dados a capacidade de criar, treinar e implantar modelos de machine learning. A partir de 1º de junho de 2021, os clientes do Amazon SageMaker podem aproveitar os preços 38% mais baixos em instâncias Sob demanda. A partir de hoje, estamos reduzindo os preços em Savings Plans por 1 ano do Amazon SageMaker em até 38% e em Savings Plans por 3 anos em até 25%. Essas reduções de preço aumentam ainda mais o preço para benefícios de performance das instâncias Inf1 para suas necessidades de inferência em tempo real. Para os preços de instâncias ml.Inf1 no Amazon SageMaker, visite a página de definição de preços do Amazon SageMaker.

As instâncias Inf1 do Amazon EC2 estão disponíveis em 23 regiões, entre elas: Leste dos EUA (Norte da Virgínia, Ohio), Oeste dos EUA (Oregon, Norte da Califórnia), AWS GovCloud (Leste dos EUA, Oeste dos EUA), Canadá (Central), Europa (Frankfurt, Irlanda, Londres, Milão, Paris, Estocolmo), Ásia-Pacífico (Hong Kong, Mumbai, Seul, Singapura, Sydney, Tóquio), Oriente Médio (Bahrein), América do Sul (São Paulo) e China (Pequim, Ningxia). Você pode aproveitar as instâncias Inf1 do Amazon EC2 na região que melhor atenderão aos seus requisitos de latência em tempo real para inferência de machine learning, agora com performance otimizada e custos mais baixos.

Para saber mais visite a página da instância Inf1 do Amazon EC2.