Publié le: Jan 18, 2019
Amazon Elastic Inference est un service qui vous permet de relier des accélérateurs à tout type d'instance Amazon SageMaker ou Amazon EC2 afin d'accélérer les charges de travail d'inférence de deep learning. Les accélérateurs Elastic Inference vous offrent les avantages de l'accélération GPU à faible latence et haut débit à un coût nettement inférieur (jusqu'à 75 % d'économies). Vous pouvez utiliser Elastic Inference pour déployer des modèles TensorFlow, Apache MXNet et ONNX à des fins d'inférence.
Amazon Elastic Inference prend désormais en charge la dernière version de TensorFlow 1.12. Il fournit EIPredictor, une nouvelle fonction d'API Python facile à utiliser pour le déploiement de modèles TensorFlow à l'aide d'accélérateurs Amazon Elastic Inference. EIPredictor permet d'expérimenter facilement et de comparer les performances avec et sans Amazon Elastic Inference. Pour en savoir plus sur l'exécution de modèles TensorFlow à l'aide d'Amazon Elastic Inference, consultez cet article de blog.
Pour en savoir plus sur Amazon Elastic Inference, consultez la page web et le guide de l'utilisateur.