Publié le: Oct 25, 2019

Amazon Elastic Inference a introduit de nouveaux accélérateurs d'Elastic Inference appelés EIA2, avec jusqu'à 8 Go de mémoire de processeur graphique (GPU). Désormais, les clients peuvent utiliser Amazon Elastic Inference sur des modèles de plus grande taille ou sur des modèles ayant des tailles d'entrée plus importantes pour le traitement d'images, la détection d'objets, la classification d'images, le traitement automatisé de la parole et le traitement du langage naturel et autres applications de deep learning.

Amazon Elastic Inference vous permet de relier exactement la bonne quantité d'accélération basée sur processeur à une instance Amazon EC2, Amazon SageMaker ou une tâche Amazon EC2 afin de réduire le coût d'exécution de l'inférence deep learning jusqu'à 75 %. Avec Amazon Elastic Inference, vous pouvez choisir le type d'instance le mieux adapté aux besoins globaux de votre application en matière de processeur et de mémoire, puis configurer séparément la quantité d'accélération d'inférence dont vous avez besoin sans modifier de code. Jusqu'à présent, vous pouviez fournir un maximum de 4 Go de mémoire de processeur graphique (GPU) sur Elastic Inference. Dorénavant, vous pouvez choisir parmi 3 nouveaux types d'accélérateurs, qui ont respectivement 2 Go, 4 Go et 8 Go de mémoire GPU. Amazon Elastic Inference prend en charge les modèles TensorFlow, Apache MXNet et ONNX, avec d'autres cadres à venir.

Les nouveaux accélérateurs Elastic Inference sont désormais disponibles dans les régions AWS USA Est (Virginie), USA Ouest (Oregon), USA Est (Ohio), Asie-Pacifique (Séoul) et UE (Irlande). La prise en charge d'autres régions sera effective bientôt.

Pour en savoir plus, consultez la page des produits et la documentation d'Amazon Elastic Inference.