Publié le: Jun 25, 2021

Les instances Inf1 d'Amazon EC2 et AWS Neuron prennent maintenant en charge les modèles de deep learning YOLOv5 et ResNext autant que les dernières transformations Hugging Face à source libre. Nous avons également optimisé le compilateur Neuron pour l'amélioration de la performance et vous pouvez donc réaliser des débits à l'extérieur 12 fois plus rapides que des instances basées sur le GPU pour les modèles BERT pré-entraînés de base dès maintenant. Ces améliorations vous permettent de répondre efficacement à vos besoins en inférence de haute performance et de déployer les modèles de deep learning de pointe à faible coût. 

Les instances Inf1 EC2 sont à technologie AWS Inferentia, une puce personnalisée conçue par AWS pour l'accélération de l'inférence du machine learning. Ces instances fournissent les coûts les plus bas pour l'inférence du deep learning dans le cloud. Vous pouvez facilement entraîner vos modèles de machine learning sur les cadres de machine learning populaires comme TensorFlow, PyTorch et MXNet et les déployer sur les instances Inf1 EC2 à l'aide du kit SDK Neuron. Puisque Neuron est intégré aux cadres de machine learning populaires, vous pouvez déployer vos modèles existants vers les instances Inf1 avec les modifications de code minimales. Cela vous permet de maintenir la portabilité du matériel librement et de profiter des technologies de pointe sans être lié à la solution d'un fournisseur en particulier.

Les instances Inf1 ont été largement adoptées par des clients tels que Snap, Autodesk et Conde Nast. De même, des services Amazon comme Alexa et Rekognition et sont disponibles dans 23 régions AWS dans le monde. Nos investissements de conception, associés à notre mise à l'échelle et notre capacité à gérer notre capacité à l'épreuve du temps, nous permettent d'identifier et à répercuter les économies faites sur le coût vers notre client. Pour vous aider à mettre vos applications de deep learning à l'échelle dans la production sur les instances Inf1 d'Amazon EC2, nous annonçons une réduction de 38 % de nos prix à la demande (OD) dès le 1er juin 2021. Pour les clients qui souhaitent profiter des Savings Plans ou des instances réservées (RI) pour réduire leurs coûts plus tard, nous réduisons notre Savings Plan 1 an et nos prix RI de 38 % ainsi que notre Savings Plan et prix RI de 3 ans de 31 %. Ces réductions de prix prendront également effet pour les clients qui se servent des instances Inf1 EC2 à travers les services d’organisation de conteneur comme Amazon ECS ou EKS.

Les clients qui préfèrent utiliser le service de machine learning entièrement géré, nous annonçons également une réduction du prix des instances ml.Inf1 dans Amazon SageMaker. Amazon SageMaker est un service entièrement géré qui offre à chaque développeur et scientifique des données la possibilité de créer, d'entraîner et de déployer rapidement des modèles de machine learning. Les clients Amazon SageMaker peuvent profiter, dès le 1er juin 2021, de 38 % de réduction des prix sur les instances à la demande. Dès aujourd'hui, nous effectuons une réduction allant jusqu'à 38 % sur les prix sur le Savings Plan d'un an d'Amazon SageMaker et de 25 % sur le Savings Plan de 3 ans. Ces réductions de prix permettront d'augmenter le prix des bénéfices de performance des instances Inf1 pour vos besoins d'inférence en temps réel. En ce qui concerne la tarification des instances ml.Inf1 dans Amazon SageMaker, visitez la page Tarification d'Amazon SageMaker.

Les instance Inf1 d'Amazon EC2 sont disponibles dans 23 régions dont : l'Amérique de l'Est (l'Ohio et la Virginie du Nord), l'Amérique de l'Ouest (la Californie du Nord et l'Oregon), AWS GovCloud (Amérique de l'Est et de l'Ouest), le Canada (Centre), l'Europe (Francfort, Irlande, Londres, Milan, Paris et Stockholm), l'Asie-Pacifique (Hong Kong, Mumbai, Séoul, Singapour, Sydney et Tokyo), le Moyen-Orient (Bahreïn) et l'Amérique du Sud (São Paulo) et la Chine (Pékin, Ningxia). Vous pouvez tirer avantage des instances Inf1 d'Amazon EC2 dans la région qui répond à vos besoins de latence en temps réel pour l'inférence de machine learning dès maintenant, grâce aux performances et de réductions de coûts optimisées.

Pour en savoir plus, consultez la page de présentation des instances Inf1 d'Amazon EC2.