Amazon SageMaker HyperPod kündigt P6-B200-Instances an, die durch NVIDIA-B200-GPUs beschleunigt werden

Veröffentlicht am: 24. Juni 2025

Heute kündigt Amazon SageMaker HyperPod die allgemeine Verfügbarkeit von Amazon EC2 P6-B200-Instances an, die durch NVIDIA-B200-GPUs beschleunigt werden. Amazon-EC2-P6-B200-Instances bieten im Vergleich zu P5en-Instances eine bis zu doppelt so hohe Leistung für KI-Training.

P6-B200-Instances verfügen über 8 Blackwell-GPUs mit 1440 GB GPU-Speicher mit hoher Bandbreite und einer Steigerung der GPU-Speicherbandbreite um 60% im Vergleich zu P5en, Intel Xeon-Prozessoren der 5. Generation (Emerald Rapids) und bis zu 3,2 Terabit pro Sekunde an Elastic Fabric Adapter (eFAV4) -Netzwerken. P6-B200-Instances werden vom AWS Nitro System unterstützt, sodass Sie KI-Workloads innerhalb von Amazon EC2 UltraClusters zuverlässig und sicher auf Zehntausende von GPUs skalieren können.

Die Instances sind über flexible SageMaker HyperPod Training Plans in der AWS-Region USA West (Oregon) verfügbar. Für die On-Demand-Reservierung von B200-Instances wenden Sie sich bitte an Ihren Account Manager.

Mit Amazon SageMaker AI können Sie Machine-Learning-Modelle mithilfe einer vollständig verwalteten Infrastruktur, die für Leistung und Kosten optimiert ist, problemlos in großem Maßstab trainieren. Um mit SageMaker HyperPod zu beginnen, besuchen Sie die Webseite und die Dokumentation.