Veröffentlicht am: Dec 9, 2022

Das Modelltraining von Amazon SageMaker unterstützt jetzt die Vorschau von ml.p4de.24xlarge(p4de)-Instances, die von NVIDIA-A100-GPUs und leistungsstarkem HBM2e-GPU-Arbeitsspeicher betrieben werden. Diese Instances bieten die leistungsstärkste Recheninfrastruktur, die derzeit für Anwendungsfälle verfügbar ist, in denen das Training großer Sprachmodelle, Computer Vision (Objekterkennung, semantische Segmentierung) und generative künstliche Intelligenz erforderlich sind.

P4de-Instances verfügen über bis zu 8 NVIDIA-A100-GPUs mit 80 GB leistungsstarkem HBM2e-GPU-Speicher, doppelt so viel wie die GPUs in p4d-Instances. Der höhere GPU-Speicher trägt in erster Linie dazu bei, die Trainingszeit und die Trainingskosten für Workflows mit großen Datensätzen mit hochauflösenden Daten und komplexen Modellen zu reduzieren. Ähnlich wie  p4d  unterstützen sie auch bis zu 96 vCPUs, bis zu 400 Gbit/s Netzwerkbandbreite mit EFA und GPUDirect RDMA sowie bis zu 8 TB lokalen NVMe-basierten SSD-Speicher. 

Das SageMaker-Modelltraining unterstützt die Vorschau von p4de-Instances in den AWS-Regionen USA Ost (Nord-Virginia) und USA West (Oregon).

Weitere Informationen zu p4de-Instances finden Sie im AWS-News-Blog oder auf der Amazon-EC2-P4-Instance-Seite. Um mit der Verwendung von p4de-Instances zu beginnen, lesen Sie die Dokumentation von Amazon SageMaker und die Seite zum SageMaker-Modelltraining. Weitere Informationen zur Preisgestaltung für p4de finden Sie auf der Preisseite für Amazon SageMaker