Amazon EC2 Capacity Blocks unterstützt jetzt Instant-Startzeiten und Erweiterungen

Veröffentlicht am: 25. Nov. 2024

Heute kündigt Amazon Web Services drei neue Features für Amazon-EC2-Kapazitätsblöcke-für-ML (Amazon Elastic Compute Cloud) an, mit denen Sie über Kapazitätsblöcke nahezu sofort auf GPU- und ML-Chip-Instances zugreifen, die Laufzeit Ihrer Kapazitätsblöcke verlängern und Kapazitätsblöcke über Zeiträume von bis zu sechs Monaten reservieren können. Mit diesen neuen Features haben Sie weitere Optionen zur Bereitstellung von GPU- und ML-Chipkapazität, um Ihre Workload-Anforderungen für Machine Learning (ML) zu erfüllen.

Mit Kapazitätsblöcken können Sie GPU- und ML-Chipkapazität in Clustergrößen von einer bis 64 Instances (512 GPUs oder 1.024 Trainium-Chips) reservieren, sodass Sie eine Vielzahl von ML-Workloads flexibel ausführen können. Ab sofort können Sie Kapazitätsblöcke bereitstellen, die innerhalb wenigen Minuten starten, sodass Sie schnell auf GPU- und ML-Chip-Kapazitäten zugreifen können. Weiterhin können Sie Ihren Kapazitätsblöcke erweitern, wenn Ihr ML-Job länger als erwartet dauert, um einen unterbrechungsfreien Zugriff auf die Kapazität zu gewährleisten. Und schließlich können Sie für Projekte, die GPU- oder ML-Chip-Kapazität über längere Zeiträume benötigen, jetzt Kapazitätsblöcke für bis zu sechs Monate bereitstellen, sodass Sie die Kapazität genau über den benötigten Zeitraum erhalten.

EC2-Kapazitätsblöcke sind für P5e-, P5-, P4d- und Trn1-Instances in den Regionen USA Ost (Nord-Virginia und Ohio), USA West (Oregon) und Asien-Pazifik (Tokio und Melbourne) verfügbar. DasBenutzerhandbuch enthält eine detaillierte Aufschlüsselung der Instances-Verfügbarkeit nach Region.

Weitere Informationen finden Sie im Amazon-EC2-Capacity-Blocks-für-ML-Benutzerhandbuch.