Publié le: Nov 28, 2018
Amazon Elastic Inference vous permet de relier exactement la bonne quantité d’accélération basée sur GPU à une instance Amazon EC2 et Amazon SageMaker afin de réduire le coût d'exécution de l'inférence deep learning jusqu'à 75 %. Amazon Elastic Inference prend en charge les modèles TensorFlow, Apache MXNet et ONNX, avec d'autres frameworks à venir.
Avec Amazon Elastic Inference, vous pouvez désormais choisir le type d'instance le mieux adapté aux besoins globaux de votre application en matière de processeur et de mémoire, puis configurer séparément la quantité d'accélération d'inférence dont vous avez besoin sans modifier de code. Cela vous permet d'utiliser les ressources efficacement et de réduire le coût d'exécution de l'inférence. Pour plus d'informations sur Amazon Elastic Inference, consultez la page de détail du service.