Veröffentlicht am: Apr 4, 2019
AWS-Kunden können jetzt ihre High Performance Computing (HPC)-, Machine-Learning- und andere Batchaufträge über AWS Batch beschleunigen, indem sie einfach die Anzahl der erforderlichen GPUs für den jeweiligen Auftrag angeben. Ab heute können Sie AWS Batch verwenden, um die Anzahl und Art der Accelerators, die Ihre Aufträge benötigen, als Eingabevariablen zur Auftragsdefinition festzulegen, ergänzend zu den aktuellen Optionen mit vCPU und Arbeitsspeicher. AWS Batch skaliert für Ihre Aufträge geeignete Instances basierend auf der erforderlichen Anzahl an Accelerators und isoliert die Accelerators gemäß den Anforderungen jedes Auftrags, damit nur geeignete Container darauf Zugriff haben.
Hardware-basierte Rechenbeschleuniger, wie Graphics Processing Units (GPUs) ermöglichen es Benutzern, den Anwendungsdurchsatz zu erhöhen und die Latenz mit speziell angefertigter Hardware zu verkürzen. Bisher mussten AWS Batch-Benutzer, die Accelerators nutzen wollten, ein benutzerdefiniertes AMI erstellen, die benötigten Treiber installieren und AWS Batch durch GPU-beschleunigte Typ-EC2 P-Instances skalieren lassen, basierend auf deren vCPU- und Arbeitsspeicher-Merkmalen. Jetzt können Benutzer ganz einfach die gewünschte Anzahl und Art von GPUs angeben, ähnlich wie bei der Angabe von vCPU und Arbeitsspeicher, und Batch startet die für den Auftrag benötigten Typ-EC2 P-Instances. Außerdem isoliert Batch die GPU in einem Container, damit jeder Container die erforderliche Menge an Ressourcen erhält.
Erfahren Sie hier mehr über GPU-Support in AWS Batch.