Publicado en: Nov 28, 2018
AWS Inferentia es un chip de inferencias para aprendizaje automático que AWS diseñó de manera personalizada para ofrecer un nivel alto de procesamiento y rendimiento de inferencias de baja latencia a un costo extremadamente bajo. AWS Inferentia será compatible con los marcos de aprendizaje profundo TensorFlow, Apache MXNet y PyTorch, así como con los modelos que usen el formato ONNX.
Con AWS Inferentia, recibe cientos de TOPS (teraoperaciones por segundo) de procesamiento de inferencias para permitirles a los modelos complejos realizar predicciones rápidas. Si se desea alcanzar un nivel de rendimiento superior, se pueden usar varios chips de AWS Inferentia para transmitir miles de TOPS de procesamiento.
Será posible utilizar AWS Inferentia con Amazon SageMaker, Amazon EC2 y Amazon Elastic Inference. Para obtener más información sobre AWS Inferentia, consulte la página web: