- Amazon EC2
- Tipi di istanza
- Istanze P4
Istanze P4 di Amazon EC2
Massime prestazioni per l’addestramento del ML e le applicazioni HPC nel cloud
Perché scegliere le istanze Amazon EC2 P4?
Le istanze P4d di Amazon Elastic Compute Cloud (Amazon EC2) garantiscono prestazioni elevate per le applicazioni di addestramento del machine learning (ML) e di calcolo ad alte prestazioni (HPC) nel cloud. Le istanze P4d sono alimentate dalle GPU NVIDIA A100 Tensor Core e offrono una velocità di trasmissione effettiva elevata e una rete a bassa latenza leader nel settore. Queste istanze supportano una rete di istanze a 400 Gb/s. Le istanze P4d offrono un risparmio fino al 60% sui costi per l'addestramento dei modelli ML, inclusa una media di prestazioni 2,5 volte migliori per i modelli di deep learning rispetto alle istanze P3 e P3dn della generazione precedente.
Le istanze P4d sono distribuite in cluster denominati Amazon EC2 UltraCluster che comprendono elaborazione, rete e storage ad alte prestazioni nel cloud. Ciascun EC2 UltraCluster è uno dei supercomputer più potenti al mondo, che consente ai clienti di eseguire l’addestramento di ML multi-nodo più complessa e carichi di lavoro HPC distribuiti. Puoi facilmente dimensionare da poche a migliaia di GPU NVIDIA A100 negli EC2 UltraCluster in base alle loro esigenze di progetto ML o HPC.
Ricercatori, data scientist e sviluppatori possono utilizzare le istanze P4d per addestrare modelli ML per casi d'uso come l'elaborazione del linguaggio naturale, il rilevamento e la classificazione di oggetti e i motori di raccomandazione. Possono anche utilizzarlo per eseguire applicazioni HPC come scoperte farmaceutiche, analisi sismiche e modellazione finanziaria. A differenza dei sistemi on-premise, è possibile accedere a capacità di elaborazione e archiviazione virtualmente illimitate, dimensionare la propria infrastruttura in base alle esigenze aziendali e avviare un processo di formazione ML multi-nodo o un'applicazione HPC distribuita strettamente accoppiata in pochi minuti, senza costi di installazione o manutenzione.
Annuncio delle nuove istanze Amazon EC2 P4d
Vantaggi
Con le GPU NVIDIA A100 Tensor Core di ultima generazione, ogni istanza P4d offre prestazioni di deep learning in media 2,5 volte migliori rispetto alle istanze P3 della generazione precedente. Gli UltraCluster EC2 di istanze P4d consentono agli sviluppatori, ai data scientist e ai ricercatori di tutti i giorni di eseguire i loro carichi di lavoro ML e HPC più complessi, consentendo l'accesso a prestazioni di classe supercomputing senza costi anticipati o impegni a lungo termine. Il tempo di addestramento ridotto con le istanze P4d aumenta la produttività, consentendo agli sviluppatori di concentrarsi sulla loro missione principale per lo sviluppo di intelligenza ML nelle applicazioni aziendali.
Gli sviluppatori possono scalare senza problemi fino a migliaia di GPU con un EC2 UltraCluster di istanze P4d. Le reti ad alta velocità effettiva e bassa latenza con supporto per reti di istanze a 400 Gbps, Elastic Fabric Adapter (EFA) e tecnologia GPUDirect RDMA, aiuta ad addestrare rapidamente i modelli ML utilizzando tecniche di scalabilità orizzontale/distribuita. EFA utilizza la NVIDIA Collective Communications Library (NCCL) per scalare a migliaia di GPU e la tecnologia GPUDirect RDMA consente la comunicazione GPU a GPU a bassa latenza tra le istanze P4d.
Le istanze P4d offrono fino al 60% in meno di costi per addestrare i modelli ML rispetto alle istanze P3. Inoltre, le istanze P4d possono essere acquistate come istanze Spot. Le istanze Spot traggono vantaggio dalla capacità inutilizzata delle istanze EC2 e possono ridurre notevolmente i costi di EC2 con uno sconto fino al 90% rispetto ai prezzi on demand. Con il minor costo dell’addestramento ML con le istanze P4d, i budget possono essere riallocati per creare più intelligence ML nelle applicazioni aziendali.
AWS Deep Learning AMI (DLAMI) e i container di deep learning di Amazon semplificano l'implementazione di ambienti di deep learning P4d in pochi minuti poiché contengono le librerie e gli strumenti del framework di deep learning richiesti. Puoi anche aggiungere facilmente le tue librerie e strumenti a queste immagini. Le istanze P4d supportano i framework ML più diffusi come TensorFlow, PyTorch e MXNet. Inoltre, le istanze P4d sono supportate dai principali servizi AWS per il machine learning, la gestione e l'orchestrazione come Amazon SageMaker, Amazon Elastic Kubernetes Service (Amazon EKS), Amazon Elastic Container Service (Amazon ECS), Batch AWS e AWS ParallelCluster.
Caratteristiche
Le GPU NVIDIA A100 Tensor Core offrono un'accelerazione senza precedenti su larga scala per il machine learning e HPC. I Tensor Core di terza generazione di NVIDIA A100 accelerano ogni carico di lavoro di precisione, velocizzando il time to insight e il time to market. Ogni GPU A100 offre oltre 2,5 volte le prestazioni di calcolo rispetto alla precedente generazione di GPU V100 e viene fornita con 40 GB HBM2 (nelle istanze P4d) o 80 GB HBM2e (nelle istanze P4de) di memoria GPU ad alte prestazioni. Una maggiore memoria GPU avvantaggia in particolare quei carichi di lavoro che si addestrano su grandi set di dati di dati ad alta risoluzione. Le GPU NVIDIA A100 utilizzano la velocità di trasmissione effettiva di interconnessione GPU NVSwitch in modo che ogni GPU possa comunicare ogni altra GPU alla stessa velocità di trasmissione effettiva bidirezionale a 600 GB/s e con latenza a singolo hop.
Le istanze P4d forniscono una rete a 400 Gbps per aiutare i clienti a impiegare meglio la scalabilità orizzontale per i loro carichi di lavoro distribuiti come l’addestramento multi-nodo in modo più efficiente con reti a velocità di trasmissione effettiva elevata tra istanze P4d e tra un'istanza P4d e servizi di archiviazione come Amazon Simple Storage Service (Amazon S3) e FSx per Lustre. EFA è un'interfaccia di rete personalizzata progettata da AWS per aiutare a scalare le applicazioni ML e HPC su migliaia di GPU. Per ridurre ulteriormente la latenza, EFA è accoppiato con NVIDIA GPUDirect RDMA per consentire la comunicazione tra GPU a bassa latenza tra i server con bypass del sistema operativo.
Accedi a velocità di trasmissione effettiva elevata e a bassa latenza su scala petabyte con FSx per Lustre o a un’archiviazione conveniente e virtualmente illimitata con Amazon S3 a velocità di 400 Gb/s. Per i carichi di lavoro che richiedono un accesso rapido a set di dati di grandi dimensioni, ogni istanza P4d include anche un’archiviazione SSD basata su NVMe da 8 TB con velocità trasmissione effettiva di lettura di 16 GB/s.
Le istanze P4d sono basate su AWS Nitro System, che è una ricca raccolta di elementi costitutivi che consente di scaricare molte delle tradizionali funzioni di virtualizzazione su hardware e software dedicati per offrire elevate prestazioni, alta disponibilità e alta sicurezza riducendo al contempo il sovraccarico della virtualizzazione.
Testimonianze dei clienti
Ecco alcuni esempi di come clienti e partner hanno raggiunto i loro obiettivi aziendali con le istanze Amazon EC2 P4.
Toyota Research Institute (TRI)
ANNUNCIO TRIPLO
ANNUNCIO TRIPLO
GE Healthcare
HEAVY.AI
Zenotech S.r.l.
Aon
IA - Intelligenza Artificiale Rad
Dettagli prodotto
|
Instance Size
|
vCPUs
|
Instance Memory (GiB)
|
GPU – A100
|
GPU memory
|
Network Bandwidth (Gbps)
|
GPUDirect RDMA
|
GPU Peer to Peer
|
Instance Storage (GB)
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|---|---|---|---|
|
p4d.24xlarge
|
96
|
1152
|
8
|
320 GB
HBM2 |
400 ENA e EFA
|
Sì
|
NVSwitch a 600 Gb/s
|
8 x 1000 SSD NVMe
|
19
|
|
p4de.24xlarge
|
96
|
1152
|
8
|
640 GB
HBM2e |
400 ENA e EFA
|
Sì
|
NVSwitch a 600 Gb/s
|
8 x 1000 SSD NVMe
|
19
|
Guida introduttiva alle istanze P4d per ML
Amazon SageMaker è un servizio completamente gestito per la creazione, la formazione e la distribuzione di modelli ML. È possibile utilizzare decine, centinaia o migliaia di GPU per addestrare un modello più rapidamente senza dover configurare pipeline di dati e cluster, nel caso in cui si associno all’uso di istanze P4d.
DLAMI fornisce ai professionisti e ai ricercatori del machine learning l'infrastruttura e gli strumenti per accelerare il DL nel cloud, su qualsiasi scala. I Deep Learning Containers sono immagini Docker preinstallate con framework DL per semplificare l'implementazione rapida di ambienti ML personalizzati, consentendoti di saltare il complicato processo di creazione e ottimizzazione degli ambienti da zero.
Guida introduttiva alle istanze P4d per HPC
Le istanze P4d sono ideali per eseguire simulazioni ingegneristiche, finanza computazionale, analisi sismiche, modellistica molecolare, genomica, renderizzazione e altri carichi di lavoro HPC basati su GPU. Le applicazioni HPC spesso richiedono prestazioni di rete elevate, storage veloce, grandi quantità di memoria e funzioni di elaborazione di alto livello o tutte queste caratteristiche insieme. Le istanze P4d supportano EFA, che consente alle applicazioni HPC che utilizzano Message Passing Interface (MPI) di dimensionarsi a migliaia di GPU. AWS Batch e AWS ParallelCluster consentono agli sviluppatori HPC di creare e dimensionare rapidamente applicazioni HPC distribuite.