Veröffentlicht am: Nov 2, 2020

Wir freuen uns die Verfügbarkeit von Amazon EC2 P4d-Instances, die nächste Generation GPU-basierter Instances, anzukündigen. Diese Instances bieten die beste Leistung für Machine Learning (ML) Training und High Performance Computing (HPC) in der Cloud für Anwendungen wie natürliche Sprachverarbeitung, Objekterkennung und Klassifizierung, seismische Analyse und Genomforschung. P4d-Instances sind mit den neuesten NVIDIA A100 Tensor Core GPUs ausgestattet und bieten als erste GPUs 400 Gbps-Instance-Netzwerk in der Cloud. Sie unterstützen Elastic Fabric Adapter (EFA) und NVIDIA GPUDirect RDMA (Remote Direct Memory Access), um effizient skalierbares Multi-Node ML-Traning und HPC-Workloads zu ermöglichen.

P4d-Instances senken die Kosten für Training bis zu 60 % und bieten über 2,5-fach bessere Deep-Learning-Performance mit 2,5-fachem Speicher, zweifache Double-Precision-Gleitkommaleistung, 16-fache Netzwerk-Bandbreite und 4-fach lokalen NVMe-basierten SSD-Speicher im Vergleich zu P3-Instances der vorherigen Generation.

P4d-Instances werden in Hyperscale-Clustern bereitgestellt, bezeichnet als EC2 UltraClusters, und bieten mehr als 4 000 NVIDIA A100 GPUs, Petabit-Scale blockierungsfreie Netzwerk-Infrastruktur und einen niedrigen Latenzspeicher mit hoher Durchsatzleistung mit FSx für Lustre. Diese EC2 UltraClusters sind einer der weltweit führenden Supercomputer und demokratisieren Zugriff auf Hochleistungsrechner für Alltags-Entwickler, Daten-Wissenschaftler und Forscher, ohne Einrichtungs- oder Wartungskosten. Durch Verwendung dieser EC2 UltraClusters können Entwickler ihr Multi-Node-ML-Training oder HCP-Anwendungen für Tausende GPUs skalieren, um ihre komplexesten Probleme zu lösen, oder auf wenige Instances zu verkleinern und nur für die Instances zu bezahlen, die sie verwenden.

Amazon-EC2-P4d-Instances bauen auf dem AWS Nitro System auf, einer Sammlung von AWS-entwickelten Hardware- und Software-Innovationen, die die Bereitstellung effizienter, flexibler und sicherer Cloud-Dienste mit isolierter Multi-Tenancy, privater Vernetzung und schneller lokaler Speicherung ermöglichen.

Die P4d-Instances sind in den AWS-Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar. Sie sind verfügbar in der Größe p4d.24xl mit 96 vCPUs, 8 NVIDIA A100 GPUs, 1,1 TB Instance-Speicher, 8 TB lokaler NVMe-basierter SSD-Speicher, 400 Gbps Netzwerk-Bandbreite mit EFA und GPUDirect RDMA und 19 Gbps EBS Burst Bandbreite. Dieses P4d-Instances stehen On-Demand als Teil der Savings Plans, als Reserved Instances oder als Spot-Instances zum Kauf zur Verfügung.

Beliebte AWS-Services für ML und Orchestrierung, wie Amazon SageMaker, Amazon Elastic Kubernetes Service (EKS), Amazon Elastic Container Service (ECS), AWS Parallel Cluster und AWS Batch fügen in den nächsten Wochen Support für P4d-Instances hinzu. Kunden von Fortune-500-Unternehmen bis Startups, einschließlich Toyota Research Institute, GE Healthcare und Aon PathWise, haben am Preview-Programm teilgenommen und übernehmen P4d-Instances, um die Zeit für Training zu verkürzen und Kosten für das Training ihrer ML-Modelle zu reduzieren. Zum Einstieg in Amazon-EC2-P4d-Instances besuchen Sie die AWS-Managementkonsole, AWS-Befehlszeilenschnittstelle (CLI) und AWS-SDKs. Weitere Informationen erhalten Sie auf der Seite Produktübersicht oder auf der Seite Produktdetails.