Veröffentlicht am: Oct 25, 2019

Bei Amazon Elastic Inference stehen jetzt neue Elastic Inference Accelerators mit der Bezeichnung "EIA2" zur Verfügung, die bis zu 8 GB GPU-Speicher bieten. Amazon Elastic Inference kann von Kunden nun für größere Modelle oder auch für Modelle mit größeren Eingangsgrößen im Bereich Bildbearbeitung, Objekterkennung, Bildklassifizierung, automatisierte Sprachverarbeitung und Verarbeitung natürlicher Sprache sowie andere Deep-Learning-Anwendungsfälle eingesetzt werden.

Amazon Elastic Inference ermöglicht Ihnen, jeder beliebigen Amazon EC2- oder Amazon SageMaker-Instance oder Amazon ECS-Aufgabe genau die benötigte GPU-Beschleunigung zur Verfügung zu stellen, sodass die Kosten für Deep Learning Inference um bis zu 75 % reduziert werden können. Mit Amazon Elastic Inference können Sie den Instance-Typ auswählen, der am besten zu den allgemeinen CPU- und Speicheranforderungen Ihrer Anwendung passt und ohne Code-Änderung die benötigte Inferenzbeschleunigung separat konfigurieren. Bis jetzt konnten bei Elastic Inference maximal 4 GB GPU-Speicher zugewiesen werden. Ab sofort sind allerdings 3 neue Beschleunigertypen verfügbar, die mit 2 GB, 4 GB bzw. 8 GB GPU-Speicher ausgestattet sind. Amazon Elastic Inference unterstützt TensorFlow-, Apache MXNet- und ONNX-Modelle. Weitere Frameworks werden in Kürze zur Verfügung stehen.

Die neuen Elastic Inference Accelerators sind in den Regionen USA Ost (Virginia), USA West (Oregon), USA Ost (Ohio), Asien-Pazifik (Seoul) und EU (Irland) verfügbar. Die Unterstützung weiterer Regionen folgt in Kürze.

Weitere Informationen finden Sie auf der Produktseite und der Dokumentation von Amazon Elastic Inference.