Warum EC2-Kapazitätsblöcke für ML?
Mit Kapazitätsblöcken für ML von Amazon Elastic Compute Cloud (Amazon EC2) können Sie beschleunigte Computing-Instances ganz einfach für ein zukünftiges Startdatum reservieren. Kapazitätsblöcke unterstützen Amazon EC2 P5e-, P5- und P4d-Instances, die von den neuesten NVIDIA H200 Tensor Core GPUs, NVIDIA H100 Tensor Core GPUs bzw. NVIDIA A100 Tensor Core GPUs angetrieben werden, sowie Trn1-Instances, die von AWS Trainium angetrieben werden. EC2-Kapazitätsblöcke befinden sich in Amazon-EC2-UltraClustern, die für leistungsstarke Machine-Learning-Workloads (ML) konzipiert sind. Sie können beschleunigte Computing-Instances für bis zu 28 Tage in Clustergrößen von einer bis 64 Instances (512 GPUs oder 1024 Trainium-Chips) reservieren, sodass Sie eine Vielzahl von ML-Workloads flexibel ausführen können. EC2-Kapazitätsblöcke können bis zu acht Wochen im Voraus reserviert werden.
Vorteile
Anwendungsfälle
-
NVIDIA
-
Arcee
-
Amplify Partners
-
Canva
-
Dashtoon
-
Leonardo.Ai
-
OctoAI
-
Snorkel