Inserito il: Apr 4, 2019
I clienti AWS possono ora accelerare in modo semplice i propri lavori in batch, tra cui High Performance Computing (HPC) e machine learning, con AWS Batch, semplicemente specificando il numero di istanze GPU di cui il lavoro ha bisogno. A partire da oggi, è possibile utilizzare AWS Batch per specificare il numero e il tipo di acceleratori che i tuoi lavori richiedono come variabili di input della definizione di lavoro, insieme alle opzioni correnti di vCPU e alla memoria. AWS Batch ridimensiona le istanze adatte ai tuoi lavori in base al numero richiesto di GPU e isola gli acceleratori in base alle esigenze di ciascun lavoro, affinché solo i container corretti possano accedervi.
Gli acceleratori di calcolo basati su hardware come le Graphics Processing Units (GPU) permettono agli utenti di aumentare il throughput delle applicazioni e diminuire la latenza con hardware specifici. Fino a ora, gli utenti di AWS Batch che volevano sfruttare gli acceleratori dovevano realizzare AMI personalizzate, installare i driver appropriati e utilizzare AWS Batch per ridimensionare le istanze EC2 di tipo P accelerate con GPU a seconda delle caratteristiche delle proprie CPU e di memoria. Ora, i clienti possono semplicemente specificare il numero e il tipo desiderato di GPU, così come possono specificare vCPU e memoria, e Batch lancerà le istanze EC2 di tipo P di cui hanno bisogno per eseguire i loro lavori. Inoltre, Batch isola la GPU nel container, così che ciascuno di questi ottenga la quantità appropriata di risorse di cui ha bisogno.
Scopri di più sul supporto per GPU di AWS Batch qui.