Publié le: Aug 13, 2020

AWS a étendu la disponibilité des instances Inf1 d'Amazon EC2 aux régions USA Est (Ohio), Europe (Francfort et Irlande) et Asie-Pacifique (Sydney et Tokyo). Les instances Inf1 fonctionnent grâce aux puces AWS Inferentia, qui sont fabriquées spécifiquement pour Amazon, ce qui permet de proposer aux clients le prix par inférence dans le cloud le plus attractif et de faciliter la tâche aux développeurs qui souhaitent utiliser le machine learning à grande échelle au quotidien.  

Le débit des instances Inf1 affiche des performances jusqu'à 30 % plus élevées pour un coût jusqu'à 45 % inférieur par inférence par rapport aux instances GPU. Elles sont idéales pour, par exemple, la reconnaissance d'images, le traitement automatique du langage naturel, la personnalisation et la détection des anomalies. Les développeurs peuvent déployer leurs modèles de machine learning dans les instances Inf1 à l'aide du kit SDK AWS Neuron, qui est intégré dans les principaux frameworks de machine learning comme TensorFlow, PyTorch et MXNet. Il est constitué d'un compilateur, d'un environnement d'exécution et d'outils de profilage destinés à optimiser les performances des inférences sur AWS Inferentia.

Avec ce nouveau déploiement, les instances Inf1 sont désormais disponibles dans les régions AWS USA Est (Virginie du Nord et Ohio), USA Ouest (Oregon), Europe (Francfort et Irlande) et Asie Pacifique (Mumbai, Sydney et Tokyo). Les instances Inf1 sont disponibles en quatre formats, le plus grand comprenant 16 puces Inferentia pour un débit allant jusqu'à 2 000 téra opérations par secondes (TOPS) et une bande passante allant jusqu'à 100 Gbit/s. Elles sont accessibles à la demande, sous la forme d'instances réservées, d'instances Spot ou via les Savings Plans. 

Si vous êtes intéressé par les instances Inf1, le plus simple est de commencer en utilisant Amazon SageMaker, un service entièrement géré de création, d'entraînement et de déploiement des modèles de machine learning. Quant aux développeurs qui préfèrent gérer leur propre plateforme de développement d'applications de machine learning, ils peuvent faire leurs premiers pas soit en lançant les instances Inf1 avec des AMI AWS Deep Learning, dont le kit SDK Neuron, soit utiliser les instances Inf1 avec Amazon Elastic Kubernetes Service (EKS) ou Amazon Elastic Container Service (ECS) pour les applications ML conteneurisées.

Pour en savoir plus, consultez la page de présentation des instances Inf1 d'Amazon EC2.