Allgemeines

F: Worum handelt es sich bei Amazon Elastic Inference?

A: Amazon Elastic Inference (Amazon EI) ist ein beschleunigter Computing-Service und ermöglicht es Ihnen, jedem Amazon EC2- oder Amazon SageMaker-Instance-Typ genau die richtige Menge an GPU-gesteuerter Inferenzbeschleunigung zuzuweisen. Das bedeutet, dass Sie nun den Instance-Typ auswählen können, der am besten zu den allgemeinen Rechen-, Arbeitsspeicher- und Speicherplatzanforderungen Ihrer Anwendung passt, und darüber hinaus in der Lage sind, die Höhe der benötigten Inferenzbeschleunigung separat zu konfigurieren.

F: Worum handelt es sich bei Amazon Elastic Inference-Beschleunigern?

A: Amazon Elastic Inference-Beschleuniger sind GPU-gesteuerte Hardware-Geräte, die mit jeder EC2-Instance oder SageMaker-Instance bzw. ECS-Aufgabe funktionieren und Deep Learning-Inferenz-Workloads zu niedrigen Kosten beschleunigen. Wenn Sie eine EC2-Instance oder ECS-Aufgabe mit Amazon Elastic Inference starten, wird ein Beschleuniger bereitgestellt und über das Netzwerk an die Instance angehängt. Deep Learning-Tools und Frameworks wie TensorFlow Serving, Apache MXNet und PyTorch, die Amazon Elastic Inference-fähig sind, können automatisch die Modellberechnung erfassen und in den angehängten Beschleuniger laden.

F: Was ist der Unterschied zwischen den unterschiedlichen Typen der Amazon Elastic Inference-Beschleuniger-Familie?

A. Die EIA2-Beschleuniger haben die doppelte GPU-Speicherkapazität äquivalenter EIA1-Beschleuniger. Sie können Ihren GPU-Speicherbedarf auf Basis Ihres Modells und der Tensor-Input-Größen festlegen und die richtigen Beschleuniger-Familien und -Typen basierend auf Ihren Bedürfnissen auswählen.

Konfigurieren

F: Wie stelle ich Amazon Elastic Inference-Beschleuniger bereit?

A: Sie können Amazon SageMaker-Endpunkte, Amazon EC2-Instances oder Amazon ECS-Aufgaben mit Amazon Elastic Inference-Beschleunigern konfigurieren. Dabei wird die AWS-Managementkonsole, das AWS Command Line Interface (CLI) oder das AWS SDK verwendet. Zum Start von EC2-Instances mit Beschleunigern gelten zwei Anforderungen. Erstens müssen Sie einen AWS PrivateLink VPC-Endpunkt für die Subnetze bereitstellen, in denen Sie die Beschleuniger starten möchten. Zweitens müssen Sie beim Start einer Instance eine Instance-Rolle mit einer Richtlinie bereitstellen, die Benutzern, die auf die Instance zugreifen, ermöglicht, eine Verbindung mit den Beschleunigern herzustellen. Wenn Sie eine Instance für den Start mit Amazon EI konfiguriert haben, wird in der gleichen Availability Zone hinter dem VPC-Endpunkt ein Beschleuniger bereitgestellt.

F: Welche Modellformate unterstützt Amazon Elastic Inference?

A: Amazon Elastic Inference unterstützt mit TensorFlow, Apache MXNet, PyTorch und ONNX-Modellen trainierte Modelle.

F: Kann ich auf Amazon Elastic Inference Modelle mit TensorFlow-, Apache MXNet- oder PyTorch-Frameworks bereitstellen?

A: Ja, Sie können AWS-erweiterte TensorFlow Serving-, Apache MXNet- und PyTorch-Bibliotheken nutzen, um Modelle bereitzustellen und Inferenzentscheidungen zu treffen.

F: Wie erhalte ich Zugriff auf AWS-optimierte Frameworks?

A: Die AWS Deep Learning AMIs umfassen die neuesten Releases von TensorFlow Serving, Apache MXNet und PyTorch, die für die Verwendung mit Amazon Elastic Inference-Beschleunigern optimiert wurden. Sie können die Bibliotheken auch über Amazon S3 erhalten, um Ihre eigenen AMIs oder Container-Images zu erstellen. Weitere Informationen finden Sie in unserer Dokumentation (https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-inference.html).

F: Kann ich CUDA mit Amazon Elastic Inference-Beschleunigern verwenden?

A: Nein. Sie können als Interface mit Amazon Elastic Inference-Beschleunigern lediglich die AWS-erweiterten TensorFlow Serving-, Apache MXNet- oder PyTorch-Bibliotheken verwenden.

Preise und Abrechnung

F: Wie wird mir Amazon Elastic Inference in Rechnung gestellt?

A: Sie bezahlen nur für die von Ihnen genutzten Amazon Elastic Inference-Beschleunigerstunden. Weitere Informationen finden Sie auf der Seite mit den Preisangaben.

F: Entstehen für AWS PrivateLink VPC-Endpunkte für den Amazon Elastic Inference-Service Kosten?

A: Nein. Ihnen entstehen für VPC-Endpunkte für den Amazon Elastic Inference-Service keine Kosten, solange Sie mindestens eine Instance mit einem Beschleuniger konfiguriert haben, der in einer Availability Zone ausgeführt wird, in der ein VPC-Endpunkt bereitgestellt wird.

Standard Product Icons (Features) Squid Ink
Weitere Informationen zu Preisen

Detaillierte Preisinformationen finden Sie auf der Amazon Elastic Inference-Seite mit den Preisen.

Weitere Informationen 
Sign up for a free account
Registrieren Sie sich und erhalten Sie ein kostenloses Konto

Sie erhalten sofort Zugriff auf das kostenlose AWS-Kontingent. 

Registrieren 
Standard Product Icons (Start Building) Squid Ink
Beginnen Sie mit der Entwicklung in der Konsole

Erste Schritte mit Amazon Elastic Inference auf Amazon SageMaker oder Amazon EC2.

Anmeldung