Warum EC2-Kapazitätsblöcke für ML?
Mit Kapazitätsblöcken für ML von Amazon Elastic Compute Cloud (Amazon EC2) können Sie beschleunigte Computing-Instances ganz einfach für ein zukünftiges Startdatum reservieren. Kapazitätsblöcke unterstützen Instances vom Typ Amazon EC2 P5en, P5e, P5 und P4d, die mit den neuesten NVIDIA H200 Tensor Core-GPUs, NVIDIA H100 Tensor Core-GPUs bzw. NVIDIA A100 Tensor Core-GPUs betrieben werden, sowie Trn1-Instances, die mit AWS Trainium betrieben werden. EC2-Kapazitätsblöcke befinden sich in Amazon-EC2-UltraClustern, die für leistungsstarke Machine-Learning-Workloads (ML) konzipiert sind. Sie können beschleunigte Computing-Instances für bis zu sechs Monate in Clustergrößen von einer bis 64 Instances (512 GPUs oder 1024 Trainium-Chips) reservieren, sodass Sie eine Vielfalt von ML-Workloads flexibel ausführen können. EC2-Kapazitätsblöcke können bis zu acht Wochen im Voraus reserviert werden.
Vorteile
Anwendungsfälle
-
NVIDIA
-
Arcee
-
Amplify Partners
-
Canva
-
Dashtoon
-
Leonardo.Ai
-
OctoAI
-
Snorkel