Veröffentlicht am: Nov 1, 2023
Heute kündigt AWS die allgemeine Verfügbarkeit von Amazon Elastic Compute Cloud (Amazon EC2)-Kapazitätsblöcken für ML an. Sie können EC2-Kapazitätsblöcke verwenden, um GPU-Instances in einem Amazon EC2 UltraCluster für einen zukünftigen Zeitpunkt für den Zeitraum zu reservieren, den Sie für die Ausführung Ihrer Machine Learning (ML)-Workloads benötigen. Dies ist eine innovative Methode zur Kapazitätsreservierung, bei der Sie GPU-Instances so planen können, dass sie an einem zukünftigen Datum genau für den Zeitraum verfügbar sind, für den Sie diese Instances benötigen.
EC2 Capacity Blocks bieten Ihnen sicheren und vorhersehbaren Zugriff auf GPU-Instances für Ihre ML-Workloads. Und mit EC2 Capacity Blocks für ML erhalten Sie Konnektivität mit niedriger Latenz und hohem Durchsatz durch Colocation in Amazon EC2 UltraClusters für verteiltes Training. Sie können GPU-Kapazität für einen bis 14 Tage und in Clustergrößen von einer bis 64 Instances (512 GPUs) reservieren, sodass Sie die Flexibilität haben, eine breite Palette von ML-Workloads auszuführen. Dazu gehören das Training und die Feinabstimmung von ML-Modellen, schnelles Prototyping und der Umgang mit zukünftigen Nachfragespitzen. EC2-Kapazitätsblöcke können bis zu acht Wochen im Voraus reserviert werden.
EC2-Kapazitätsblöcke sind jetzt für die Reservierung von Amazon EC2 P5-Instances verfügbar, die von den neuesten NVIDIA H100 Tensor Core-GPUs unterstützt werden, in der AWS-Region USA Ost (Ohio).
Besuchen Sie zunächst die AWS-Managementkonsole, das AWS Command Line Interface (AWS CLI), und die AWS-SDKs. Weitere Informationen finden Sie unter Amazon EC2-Kapazitätsblöcke für ML und in der Dokumentation.