Pourquoi utiliser les blocs de capacité EC2 pour le ML ?
Avec les blocs de capacité Amazon Elastic Compute Cloud (Amazon EC2) pour le machine learning, vous pouvez facilement réserver des instances de calcul accéléré pour une date de début future. Les blocs de capacité prennent en charge les instances Amazon EC2 P5en, P5e, P5 et P4d optimisées respectivement par les GPU NVIDIA H200 Tensor Core, NVIDIA H100 Tensor Core et NVIDIA A100 Tensor Core les plus récents, et les instances Trn1 optimisées par AWS Trainium. Les blocs de capacité EC2 sont situés dans les Amazon EC2 UltraClusters, conçus pour les charges de travail de machine learning (ML) haute performance. Vous pouvez réserver des instances de calcul accéléré pour une durée maximale de six mois dans des clusters de 1 à 64 instances (512 GPU ou 1 024 puces Trainium), ce qui vous permet d’exécuter un large éventail de charges de travail de machine learning. Les blocs de capacité EC2 peuvent être réservés huit semaines à l'avance maximum.
Avantages
Cas d'utilisation
-
NVIDIA
-
Arcee
-
Amplify Partners
-
Canva
-
Dashtoon
-
Leonardo.Ai
-
OctoAI
-
Snorkel