Publicado: Nov 28, 2018

O AWS Inferentia é um chip de inferência de Machine Learning, projetado especificamente pela AWS para oferecer performance de inferência com alto throughput e baixa latência a um custo extremamente baixo. O AWS Inferentia oferecerá suporte às estruturas de aprendizado profundo TensorFlow, Apache MXNet e PyTorch, assim como aos modelos que usam o formato ONNX.  

O AWS Inferentia fornece throughput de inferência de centenas de TOPS (tera operações por segundo) para permitir que modelos complexos façam previsões rápidas. Para performance ainda maior, vários chips do AWS Inferentia podem ser usados juntos para gerar um throughput de milhares de TOPS.

O AWS Inferentia estará disponível para uso com os serviços Amazon SageMaker, Amazon EC2 e Amazon Elastic Inference. Para obter mais informações sobre o AWS Inferentia, consulte a página da web.