Publicado en: Jan 18, 2019

Amazon Elastic Inference es un servicio que le permite adjuntar aceleradores a cualquier tipo de instancia de Amazon SageMaker o Amazon EC2 para agilizar las cargas de trabajo de inferencia de aprendizaje profundo. Los aceleradores de Elastic Inference le ofrecen el nivel de latencia bajo y los beneficios de alto rendimiento de la aceleración de GPU a un costo mucho menor (de hasta el 75 %). Puede usar Elastic Inference para implementar modelos de TensorFlow, Apache MXNet y ONNX y realizar inferencias.  

Amazon Elastic Inference ahora admite la versión más reciente de TensorFlow 1.12. Se incluye EIPredictor, una función de API de Python nueva y fácil de usar para implementar modelos de TensorFlow a través de aceleradores de Amazon Elastic Inference. EIPredictor le permite realizar tareas de experimentación con facilidad y comparar el rendimiento con y sin Amazon Elastic Inference. Si desea obtener más información acerca de cómo ejecutar modelos de TensorFlow con Amazon Elastic Inference, consulte esta publicación de blog.

Para leer más contenido acerca de Amazon Elastic Inference, consulte la página web y la guía del usuario de la documentación.