Publié le: Jul 15, 2022
Amazon SageMaker étend l'accès à de nouvelles instances de ML pour que les clients puissent déployer des modèles sur les instances les mieux adaptées à leurs charges de travail. À présent, il est possible d'utiliser les instances ml.g5, ml.p4d et ml.c6i pour les options de déploiement de modèles Asynchrone et Temps réel.
AWS souhaite placer le ML entre les mains des développeurs de tous les jours et démocratiser l'accès à l'infrastructure de pointe, le tout mis à disposition dans un modèle de paiement à l'usage à faible coût. Dans cette optique, nous innovons rapidement afin de proposer en continu des performances améliorées à des coûts d'infrastructure inférieurs pour les charges de travail de ML.
- Les instances ml.gp5 offrent des performances jusqu'à 3 fois supérieures et jusqu'à 40 % supérieures par coût d'unité pour l'inférence de machine learning par rapport aux instances G4dn. Ce sont des solutions hautement performantes et économiques pour les clients cherchant à utiliser des bibliothèques NVIDIA telles que TensorRT, CUDA ou encore cuDNN pour l'exécution de leurs applications de ML. Ces instances sont idéales pour les cas d'utilisation tels que les recommandations, les chatbots, les assistants intelligents et la reconnaissance d'images. Les instances ml.gp5 sont disponibles dans les régions USA Est (Virginie du Nord), USA Ouest (Oregon) et EU (Irlande).
- Les instances ml.p4d offrent des performances moyennes 2,5 fois supérieures pour les modèles de deep learning par rapport aux instances P3. Les 40 Go de mémoire par GPU associés au stockage SSD NVMe local allant jusqu'à 8 To permettent le stockage en local de gros modèles et jeux de données pour une inférence de machine learning hautes performances comme les grands modèles de langage et de vision par ordinateur. Les instances ml.p4d sont disponibles dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon).
- Les instances ml.c6i sont alimentées par des processeurs Intel Xeon Scalable de 3e génération et offrent des performances jusqu'à 15 % supérieures par coût d'unité par rapport aux instances C5, et ce sur une large gamme de charges de travail. Les instances C6i proposent également des tailles plus importantes avec un maximum de 128 vCPU et 256 Gio de mémoire, ce qui permet aux clients de regrouper leurs charges de travail sur moins d'instances. Les instances C6i prennent en charge les nouvelles instructions Advanced Vector Extensions (AVX 512), Intel Turbo Boost et Intel Deep Learning Boost pour améliorer davantage les performances, en particulier sur les charges de travail de machine learning. Les instances ml.c6i sont disponibles dans toutes les régions commerciales.
Pour en savoir plus sur la tarification de ces instances, consultez notre page de tarification.