Allgemeines

F: Worum handelt es sich bei Amazon Elastic Inference?

A: Amazon Elastic Inference (Amazon EI) ist ein beschleunigter Computing-Service und ermöglicht Ihnen, jedem Amazon EC2- oder Amazon SageMaker-Instance-Typ genau die richtige Menge an GPU-gesteuerter Inferenzbeschleunigung zuzuweisen. Das bedeutet, dass Sie nun den Instance-Typ auswählen können, der am besten zu den allgemeinen Rechen-, Arbeitsspeicher- und Speicherplatzanforderungen Ihrer Anwendung passt, und darüber hinaus in der Lage sind, die Höhe der benötigten Inferenzbeschleunigung separat zu konfigurieren.

F: Worum handelt es sich bei Amazon Elastic Inference-Beschleunigern?

A: Amazon Elastic Inference-Beschleuniger sind GPU-gesteuerte Hardware-Geräte, die mit jedem EC2-Instance-Typ funktionieren und Deep Learning-Inferenz-Workloads zu niedrigen Kosten beschleunigen. Wenn Sie eine Instance mit Amazon Elastic Inference starten, wird ein Beschleuniger bereitgestellt und über das Netzwerk an die Instance angehängt. Deep Learning-Tools und Frameworks wie TensorFlow Serving und Apache MXNet, die Amazon Elastic Inference-fähig sind, können automatisch die Modellberechnung erfassen und in den angehängten Beschleuniger laden.

Konfigurieren

F: Wie stelle ich Amazon Elastic Inference-Beschleuniger bereit?

A: Sie können Amazon SageMaker-Endpunkte oder Amazon EC2-Instances mit Amazon Elastic Inference-Beschleunigern konfigurieren. Dabei wird die AWS-Managementkonsole, das AWS Command Line Interface (CLI) oder das AWS SDK verwendet. Zum Start von EC2-Instances mit Beschleunigern gelten zwei Anforderungen. Erstens müssen Sie einen AWS PrivateLink VPC-Endpunkt für die Subnetze bereitstellen, in denen Sie die Beschleuniger starten möchten. Zweitens müssen Sie beim Start einer Instance eine Instance-Rolle mit einer Richtlinie bereitstellen, die Benutzern, die auf die Instance zugreifen, ermöglicht, eine Verbindung mit den Beschleunigern herzustellen. Wenn Sie eine Instance für den Start mit Amazon EI konfiguriert haben, wird in der gleichen Availability Zone hinter dem VPC-Endpunkt ein Beschleuniger bereitgestellt.

F: Welche Modellformate unterstützt Amazon Elastic Inference?

A: Amazon Elastic Inference unterstützt mit TensorFlow, Apache MXNet und ONNX-Modellen trainierte Modelle.

F: Kann ich auf Amazon Elastic Inference Modelle mit TensorFlow- oder Apache MXNet-Frameworks bereitstellen?

A: Ja, Sie können AWS-erweiterte TensorFlow Serving- und Apache MXNet-Bibliotheken nutzen, um Modelle bereitzustellen und Inferenzentscheidungen zu treffen.

F: Wie erhalte ich Zugriff auf AWS-optimierte Frameworks?

A: Die AWS Deep Learning AMIs umfassen die neuesten Releases von TensorFlow Serving und Apache MXNet, die für die Verwendung mit Amazon Elastic Inference-Beschleunigern optimiert wurden. Sie können die Bibliotheken auch über Amazon S3 erhalten, um Ihre eigenen AMIs oder Container-Images zu erstellen. Weitere Informationen finden Sie in unserer Dokumentation.

F: Kann ich CUDA mit Amazon Elastic Inference-Beschleunigern verwenden?

A: Nein. Sie können als Interface mit Amazon Elastic Inference-Beschleunigern lediglich die AWS-erweiterten TensorFlow Serving- oder Apache MXNet-Bibliotheken verwenden.

Preise und Abrechnung

F: Wie wird mir Amazon Elastic Inference in Rechnung gestellt?

A: Sie bezahlen nur für die von Ihnen genutzten Amazon Elastic Inference-Beschleunigerstunden. Weitere Informationen finden Sie auf der Seite mit den Preisangaben.

F: Entstehen für AWS PrivateLink VPC-Endpunkte für den Amazon Elastic Inference-Service kosten?

Nein. Ihnen entstehen für VPC-Endpunkte für den Amazon Elastic Inference-Service keine Kosten, so lange Sie mindestens eine Instance mit einem Beschleuniger konfiguriert haben, der in einer Availability Zone ausgeführt wird, in der ein VPC-Endpunkt bereitgestellt wird.

Product-Page_Standard-Icons_01_Product-Features_SqInk
Weitere Informationen über die Preisberechnung

Detaillierte Preisinformationen finden Sie auf der Amazon Elastic Inference-Seite mit den Preisen.

Weitere Informationen 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
Registrieren Sie sich und erhalten Sie ein kostenloses Konto

Sie erhalten sofort Zugriff auf das kostenlose AWS-Kontingent. 

Registrieren 
Product-Page_Standard-Icons_03_Start-Building_SqInk
Beginnen Sie mit der Entwicklung in der Konsole

Erste Schritte mit Amazon Elastic Inference auf Amazon SageMaker oder Amazon EC2.

Anmeldung