Amazon Elastic Inference prend désormais en charge TensorFlow 1.12 avec une nouvelle API Python pour le déploiement de modèles TensorFlow
Amazon Elastic Inference est un service qui vous permet de relier des accélérateurs à tout type d'instance Amazon SageMaker ou Amazon EC2 afin d'accélérer les charges de travail d'inférence de deep learning. Les accélérateurs Elastic Inference vous offrent les avantages de l'accélération GPU à faible latence et haut débit à un coût nettement inférieur (jusqu'à 75 % d'économies). Vous pouvez utiliser Elastic Inference pour déployer des modèles TensorFlow, Apache MXNet et ONNX à des fins d'inférence.
Amazon Elastic Inference prend désormais en charge la dernière version de TensorFlow 1.12. Il fournit EIPredictor, une nouvelle fonction d'API Python facile à utiliser pour le déploiement de modèles TensorFlow à l'aide d'accélérateurs Amazon Elastic Inference. EIPredictor permet d'expérimenter facilement et de comparer les performances avec et sans Amazon Elastic Inference. Pour en savoir plus sur l'exécution de modèles TensorFlow à l'aide d'Amazon Elastic Inference, consultez cet article de blog.
Pour en savoir plus sur Amazon Elastic Inference, consultez la page web et le guide de l'utilisateur.