Veröffentlicht am: Apr 1, 2019

Wir freuen uns, ein neues Python-Skript vorzustellen, das die ersten Schritte mit Amazon Elastic Inference vereinfacht.

Mit Amazon Elastic Inference (EI) können Sie den Amazon EC2- und Amazon SageMaker-Instances eine günstige GPU-unterstützte Beschleunigung hinzufügen, um die Kosten für die Ausführung der Deep Learning-Inferenz um bis zu 75 % zu reduzieren. Amazon EI unterstützt TensorFlow-, Apache MXNet- und ONNX-Modelle; weitere Frameworks werden in Kürze zur Verfügung stehen. Derzeit wird Amazon EI in den folgenden vier Regionen angeboten: USA Ost, USA West, EU und Asien-Pazifik.

Wenn Sie Amazon EI zum ersten Mal verwenden, kann die Einrichtung Ihrer Umgebung zum Starten von Instances in Amazon EI einige Zeit dauern. Bevor Sie Amazon EI-Beschleuniger verwenden können, müssen Sie verschiedene Abhängigkeiten einrichten, darunter AWS PrivateLink VPC-Endpunkte, AWS IAM-Richtlinien und Sicherheitsgruppenregeln. Das Amazon EI-Python-Skript vereinfacht die ersten Schritte, denn es erstellt die erforderlichen Ressourcen, mit denen Sie Amazon EI-Beschleuniger innerhalb weniger Minuten starten können. Sie können das Skript amazonei_setup.py von GitHub auf Ihren lokalen Computer herunterladen und es über den folgenden Befehl über Ihr Terminal ausführen:

$ python amazonei_setup.py

Das Skript gewährleistet, dass alle Einstellungen richtig konfiguriert werden und die Instance mit den erforderlichen Genehmigungen zur Verwendung von Amazon EI gestartet wird.

Weitere Informationen zur Verwendung des Amazon EI-Python-Skripts finden Sie unter EI-Beschleuniger innerhalb von Minuten mit dem Amazon Elastic Inference-Setup-Tool für EC2 starten.