Amazon-EC2-P5e-Instances sind über EC2 Capacity Blocks allgemein verfügbar
Heute kündigt AWS die allgemeine Verfügbarkeit von Amazon Elastic Compute Cloud (Amazon EC2) P5e-Instances an, die von den neuesten NVIDIA H200 Tensor Core-GPUs betrieben werden. Diese Instances sind über EC2-Kapazitätsblöcke verfügbar und bieten die höchste Leistung in Amazon EC2 für Deep Learning und die Inferenz von generativer KI.
Sie können Amazon-EC2-P5e-Instances für das Training und die Bereitstellung zunehmend komplexerer großer Sprachmodelle (LLMs) und Diffusionsmodelle verwenden, die die anspruchsvollsten generativen KI-Anwendungen unterstützen. Sie können P5e-Instances auch verwenden, um anspruchsvolle HPC-Anwendungen in großem Maßstab für die pharmazeutische Forschung, seismische Analyse, Wettervorhersage und Finanzmodelle bereitzustellen.
P5e-Instances verfügen über 8 H200-GPUs mit der 1,7-fachen GPU-Speichergröße und 1,5-fachen GPU-Speicherbandbreite als die in P5-Instances verwendeten H100-GPUs. Sie bieten marktführende Scale-Out-Fähigkeiten für verteiltes Training und eng gekoppelte HPC-Workloads mit bis zu 3.200 Gbit/s an Netzwerken mithilfe der Elastic Fabric Adapter (EFA)-Technologie der zweiten Generation. Um den Kundenanforderungen nach hoher Skalierbarkeit bei niedriger Latenz gerecht zu werden, werden P5e-Instances in Amazon-EC2-UltraClustern bereitgestellt.
P5e-Instances sind jetzt in der AWS-Region USA Ost (Ohio) in den Größen p5e.48xlarge über EC2 Capacity Blocks für ML verfügbar.
Weitere Informationen zu P5e-Instances finden Sie unter Amazon-EC2-P5e-Instances.