F: Was ist Amazon Elastic Compute Cloud (Amazon EC2)?

Der Web-Service Amazon Elastic Compute Cloud (Amazon EC2) ermöglicht die Anpassung der Rechenkapazität in der Cloud. Der Service ist darauf ausgelegt, Cloud Computing für Entwickler zu erleichtern.

F: Was kann ich mit Amazon EC2 tun?

So wie Amazon Simple Storage Service (Amazon S3) die Speicherung in der Cloud ermöglicht, ermöglicht Amazon EC2 das Rechnen in der Cloud. Mit der einfachen Web-Service-Oberfläche von Amazon EC2 können Sie mühelos Kapazität erhalten und konfigurieren. Sie ermöglicht Ihnen die vollständige Kontrolle über Ihre Rechenressourcen sowie die Ausführung in der bewährten Rechenumgebung von Amazon. Amazon EC2 verkürzt die zum Buchen und Hochfahren neuer Server-Instances benötigte Zeit auf wenige Minuten. So können Sie die Kapazität entsprechend den Änderungen Ihrer Datenverarbeitungsanforderungen schnell wie gewünscht anpassen. Indem Sie nur für die Kapazität zahlen, die Sie auch tatsächlich nutzen, verändert Amazon EC2 die wirtschaftlichen Rahmenbedingungen von Rechenoperationen.

F: Was sind die ersten Schritte mit Amazon EC2?

Um sich für Amazon EC2 anzumelden, klicken Sie auf der Detailseite von Amazon EC2 auf die Schaltfläche "Für diesen Web-Service anmelden". Sie benötigen ein Amazon Web Services-Konto, um auf diesen Dienst zugreifen zu können; wenn Sie noch kein Konto haben, werden Sie zu Beginn des Anmeldeprozesses für Amazon EC2 aufgefordert, ein Konto einzurichten. Lesen Sie nach der Anmeldung die Amazon EC2-Dokumentation, die auch das Handbuch "Erste Schritte" enthält.

F: Weshalb muss ich bei der Registrierung für Amazon EC2 meine Telefonnummer überprüfen lassen?

Zur Registrierung für Amazon EC2 sind eine gültige Telefonnummer und eine gültige E-Mail-Adresse in der AWS-Datenbank erforderlich, falls wir Sie direkt kontaktieren müssen. Die Überprüfung der Telefonnummer dauert nur wenige Minuten. Hierfür müssen Sie während der Registrierung einen Telefonanruf entgegennehmen und eine PIN-Nummer über das Tastenfeld des Telefons eingeben.

F: Welche neuen Funktionen stehen Entwicklern zur Verfügung?

Bislang verfügten kleine Entwicklungsfirmen nicht Übersicht das Kapital, um erhebliche Rechenressourcen zu erwerben und somit sicherzustellen, dass sie die benötigte Kapazität für unerwartete Spitzenlasten haben. Amazon EC2 ermöglicht allen Entwicklern, die Amazon-Vorteile einer enormen Skalierung ohne Anschaffungsinvestitionen oder Leistungskompromisse zu nutzen. Entwickler können sich jetzt voll auf ihre Innovationen konzentrieren und sich dabei sicher sein, dass es ganz unabhängig von ihrem Geschäftserfolg weder teuer noch kompliziert sein wird, die benötigte Rechenkapazität zur Erlangung der Geschäftsanforderungen bereitzustellen.

Die Flexibilität dieses Service ermöglicht es Entwicklern, unmittelbar durch die Skalierung auf Datenverkehrsspitzen oder hohe Anforderungen zu reagieren. Wenn sich die Rechenanforderungen unerwartet ändern (nach oben oder nach unten), kann Amazon EC2 ohne Verzögerung reagieren. Entwickler können somit kontrollieren, wie viele Ressourcen zu einem bestimmten Zeitpunkt verwendet werden. Im Gegensatz dazu verfügen herkömmliche Hosting-Services im Allgemeinen über eine feste Ressourcenanzahl für eine festgelegte Zeitspanne. Die Benutzer haben somit weniger Möglichkeiten, einfach auf sich schnell ändernde und unvorhersehbare Auslastungen zu reagieren oder sich darauf einzustellen, dass der Erfahrung nach in bestimmten Intervallen Auslastungsspitzen erreicht werden.

F: Wie führe ich Systeme in der Amazon EC2-Umgebung aus?

Nachdem Sie Ihr Konto eingerichtet und Ihre AMIs ausgewählt oder erstellt haben, haben Sie alle Vorbereitungen für das Booten Ihrer Instance getroffen. Sie können das AMI auf einer beliebigen Anzahl von On-Demand-Instances starten, indem Sie die API "RunInstances" verwenden. Sie müssen lediglich angeben, wie viele Instances Sie starten möchten. Wenn Sie mehr als 20 On-Demand-Instances ausführen möchten, füllen Sie das Antragsformular für Amazon EC2-Instance aus.

Wenn Amazon EC2 Ihrer Anforderung nachkommen kann, meldet RunInstances Erfolg und wir beginnen mit dem Starten Ihrer Instances. Sie können den Status Ihrer Instances über den API DescribeInstances überprüfen. Sie können auch eine beliebige Anzahl von Instances mit dem API TerminateInstances programmatisch terminieren.

Wenn Sie eine Instance mit einer Amazon EBS Boot-Partition ausführen, können Sie auch die API StopInstances verwenden, um die Rechenressourcen freizugeben und dabei die Daten auf der Boot-Partition zu belassen. Sie können die API StartInstances verwenden, wenn Sie für den Neustart der verbundenen Instance mit der Amazon EBS Boot Partition bereit sind.

Darüber hinaus haben Sie die Möglichkeit, mit Spot-Instances die Datenverarbeitungskosten zu senken, wenn Sie bei der Ausführung Ihrer Anwendungen zeitlich flexibel sind. Weitere Informationen zu Spot-Instances und deren Funktionsweise finden Sie unter Spot-Instances.

Sie können diese Aktionen auch über die AWS-Managementkonsole oder die Befehlszeile und unsere Befehlszeilen-Tools ausführen, die in der Web-Service-API integriert sind.

F: Welcher Unterschied besteht zwischen der Verwendung eines lokalen Instance-Speichers und der Verwendung von Amazon Elastic Block Store (Amazon EBS) für das Root-Gerät?

Beim Start Ihrer Amazon EC2-Instances haben Sie die Möglichkeit, die Daten von Ihrem Root-Gerät auf Amazon EBS oder im lokalen Instance-Speicher zu speichern. Durch Amazon EBS bleiben die Daten auf dem Root-Gerät unabhängig von der Lebensdauer der Instance bestehen. Auf diese Weise können Sie die Instance anhalten und anschließend wieder neu starten. Das ist vergleichbar mit einem Laptop, den Sie herunterfahren und neu starten, wenn Sie ihn wieder benötigen.

Im Vergleich dazu bleibt der lokale Instance-Speicher nur während der Lebensdauer der Instance bestehen. So können Sie Instances kostengünstig starten, wenn keine Daten auf dem Root-Gerät gespeichert sind. Einige Kunden verwenden diese Option beispielsweise, um große Websites auszuführen, bei denen jede Instance ein Klon für die Handhabung des Web-Datenverkehrs ist.

F: Wie schnell können Systeme ausgeführt werden?

Es dauert normalerweise nicht länger als zehn Minuten vom RunInstances-Aufruf bis zu dem Zeitpunkt, an dem alle angeforderten Instances mit der Boot-Sequenz beginnen. Die Dauer hängt von verschiedenen Faktoren ab, zum Beispiel von der Größe des AMI, der Anzahl der gestarteten Instances und wann dieses AMI zuletzt gestartet wurde. Bei Images, die zum ersten Mal gestartet werden, kann der Boot-Vorgang etwas länger dauern.

F: Wie lade und speichere ich meine Systeme mit Amazon EC2?

Mit Amazon EC2 können Sie alle Aspekte Ihrer Instances vom Betriebssystem bis zu Ihren Anwendungen einrichten und konfigurieren. Amazon Machine Image (AMI) ist eine einfache paketierte Umgebung, die alles Erforderliche für das Einrichten und Booten Ihrer Instance beinhaltet. Ihre AMIs sind Ihre Bereitstellungseinheit. Möglicherweise haben Sie nur ein AMI oder Sie stellen Ihr System aus mehreren Bausteinblock-AMIs (z. B. Webserver, Appserver und Datenbanken) zusammen. Amazon EC2 bietet mehrere Tools, mit denen das Erstellen eines AMI ganz einfach ist. Wenn Sie ein benutzerdefiniertes AMI erstellen, müssen Sie es bündeln. Für das Bündeln eines Images mit einem Root-Gerät, das von Amazon EBS gestützt wird, können Sie einfach den Bündelbefehl in der AWS-Managementkonsole verwenden. Wenn Sie ein Image mit einer Boot-Partition auf dem Instance-Speicher bündeln, müssen Sie zum Hochladen in Amazon S3 die AMI-Tools verwenden. Amazon EC2 verwendet Amazon EBS und Amazon S3, um eine zuverlässige, skalierbare Speicherung Ihrer AMIs zu bieten, damit sie bei Bedarf gebootet werden können.

Wenn Sie möchten, müssen Sie Ihr eigenes AMI nicht von Anfang an selbst einrichten. Sie können ein AMI aus vielen verschiedenen global verfügbaren AMIs auswählen, die nützliche Instances bieten. Wenn Sie beispielsweise nur einen einfachen Linux-Server wünschen, können Sie eines der Standard-AMIs für die Linux-Verteilung auswählen.

F: Wie greife ich auf meine Systeme zu?

Der RunInstances-Aufruf, mit dem die Ausführung Ihrer Anwendungen eingeleitet wird, gibt eine Gruppe von DNS-Namen zurück, von denen jeder für ein System steht, das gerade gebootet wird. Mit diesem Namen können Sie auf das System so zugreifen, als befände es sich in Ihrem eigenen Rechenzentrum. Sie sind im Besitz dieses Rechners während Ihre Betriebssystemgruppe darauf ausgeführt wird.

F: Wird Amazon EC2 zusammen mit Amazon S3 eingesetzt?

Ja, Amazon EC2 wird gemeinsam mit Amazon S3 für Instances mit Root-Geräten verwendet, die von einem lokalem Instance-Speicher gestützt werden. Mit Amazon S3 haben Entwickler Zugriff auf dieselbe äußerst skalierbare, zuverlässige, schnelle und erschwingliche Datenspeicherinfrastruktur, die Amazon zum Ausführen seines eigenen globalen Website-Netzwerks verwendet. Zum Ausführen von Systemen in der Amazon EC2-Umgebung verwenden Entwickler die bereitgestellten Tools, um ihre AMIs in Amazon S3 zu laden und zwischen Amazon S3 und Amazon EC2 zu verschieben. Unter Wie lade und speichere ich meine Systeme mit Amazon EC2? finden Sie weitere Informationen zu AMIs.

Es ist davon auszugehen, dass Entwickler die Kombination aus Amazon EC2 und Amazon S3 als sehr nützlich empfinden. Amazon EC2 ermöglicht günstige, skalierbare Rechenvorgänge in der Cloud, während Amazon S3 den Benutzern das zuverlässige Speichern ihrer Daten ermöglicht.

F: Wie viele Instances kann ich mit Amazon EC2 ausführen?

Sie können bis zu 20 On-Demand-Instances ausführen, 20 Reserved Instances aus der Instance-Familie kaufen und Spot-Instances entsprechend Ihrem dynamischen Spot-Limit pro Region anfordern. Für neue AWS-Konten gelten ggf. niedrigere Grenzwerte als hier beschrieben. Bestimmte Instance-Typen sind pro Region wie folgt weiter eingeschränkt:

Instance-Typ On-Demand-Limit
Reserved-Limit Spot-Limit
m5.large 20 20 Dynamisches Spot-Limit
m5.xlarge 20 20 Dynamisches Spot-Limit
m5.2xlarge 20 20 Dynamisches Spot-Limit
m5.4xlarge 10 20 Dynamisches Spot-Limit
m5.12xlarge 5 20 Dynamisches Spot-Limit
m5.24xlarge 5 20 Dynamisches Spot-Limit

m4.4xlarge

10

20

Dynamisches Spot-Limit

m4.10xlarge

5

20

Dynamisches Spot-Limit

m4.16xlarge

5

20

Dynamisches Spot-Limit

c5.large 20 20 Dynamisches Spot-Limit
c5.xlarge 20 20 Dynamisches Spot-Limit
c5.2xlarge 20 20 Dynamisches Spot-Limit
c5.4xlarge 10 20 Dynamisches Spot-Limit
c5.9xlarge 5 20 Dynamisches Spot-Limit
c5.18xlarge 5 20 Dynamisches Spot-Limit
c4.4xlarge 10 20 Dynamisches Spot-Limit
c4.8xlarge 5 20 Dynamisches Spot-Limit
hs1.8xlarge 2 20 Nicht angeboten
cr1.8xlarge 2 20 Dynamisches Spot-Limit
p3.2xlarge

1

20

Dynamisches Spot-Limit

p3.8xlarge

1

20

Dynamisches Spot-Limit

p3.16xlarge

1

20

Dynamisches Spot-Limit

p2.xlarge

1

20

Dynamisches Spot-Limit

p2.8xlarge

1

20

Dynamisches Spot-Limit

p2.16xlarge

1

20

Dynamisches Spot-Limit

g3.4xlarge 1 20 Dynamisches Spot-Limit
g3.8xlarge 1 20 Dynamisches Spot-Limit
g3.16xlarge 1 20 Dynamisches Spot-Limit

r4.large

20

20

Dynamisches Spot-Limit

r4.xlarge

20

20

Dynamisches Spot-Limit

r4.2xlarge

20

20

Dynamisches Spot-Limit

r4.4xlarge

10

20

Dynamisches Spot-Limit

r4.8xlarge

5

20

Dynamisches Spot-Limit

r4.16xlarge

1

20

Dynamisches Spot-Limit

r3.4xlarge 10 20 Dynamisches Spot-Limit
r3.8xlarge 5 20 Dynamisches Spot-Limit
h1.8xlarge
10 20 Dynamisches Spot-Limit
h1.16xlarge
5 20 Dynamisches Spot-Limit

i3.large

2

20

Dynamisches Spot-Limit

i3.xlarge

2

20

Dynamisches Spot-Limit

i3.2xlarge

2

20

Dynamisches Spot-Limit

i3.4xlarge

2

20

Dynamisches Spot-Limit

i3.8xlarge

2

20

Dynamisches Spot-Limit

i3.8xlarge

2

20

Dynamisches Spot-Limit

i3.16xlarge

2

20

Dynamisches Spot-Limit

i2.2xlarge 8 20 Dynamisches Spot-Limit
i2.4xlarge 4 20 Dynamisches Spot-Limit
i2.8xlarge 2 20 Dynamisches Spot-Limit
d2.4xlarge 10 20 Dynamisches Spot-Limit
d2.8xlarge 5 20 Dynamisches Spot-Limit
t2.nano 20 20 Nicht angeboten
t2.micro
20 20 Nicht angeboten
t2.small
 20 20 Nicht angeboten
t2.medium
 20 20 Nicht angeboten
t2.large
 20 20 Nicht angeboten
t2.xlarge  20 20 Nicht angeboten
t2.2xlarge 20 20 Nicht angeboten
Alle anderen Instance-Typen 20 20 Dynamisches Spot-Limit

Beachten Sie bitte, dass Instances vom Typ cc2.8xlarge, hs1.8xlarge, cr1.8xlarge, G2, D2 und I2 nicht in allen Regionen verfügbar sind.

Falls Sie weitere Instances benötigen, füllen Sie das Antragsformular für Amazon EC2-Instances aus, und geben Sie den Anwendungsfall an. Ihre Instance-Aufstockung wird dann bearbeitet. Die Anhebung der Limits ist von der Region abhängig, für die sie angefordert wurde.

F: Gibt es Einschränkungen in Bezug auf das Senden von E-Mails über Amazon EC2-Instances?

Ja. Damit wir die Qualität der Amazon EC2-Adressen zum Senden von E-Mails aufrechterhalten, beschränken wir die Anzahl der E-Mails, die von EC2-Konten gesendet werden können. Wenn Sie größere Mengen E-Mails über EC2 senden möchten, können Sie die Aufhebung der Limits für Ihr Konto beantragen, indem Sie dieses Formular ausfüllen.

F: Wie schnell kann ich die Kapazität nach oben oder nach unten skalieren?

Amazon EC2 bietet eine absolut flexible Rechenumgebung. Amazon EC2 ermöglicht Ihnen das Erhöhen oder Verringern der Kapazität innerhalb von Minuten, nicht Stunden oder Tagen. Sie können eine, Hunderte oder sogar Tausende Server-Instances gleichzeitig in Betrieb nehmen. Wenn Sie weitere Instances benötigen, rufen Sie einfach "RunInstances" auf, und Amazon EC2 richtet Ihre neuen Instances üblicherweise in wenigen Minuten ein. Natürlich kann sich Ihre Anwendung selbständig, dank der Steuerung über die Webservice-APIs, je nach Anforderung automatisch nach oben oder nach unten skalieren.

F: Welche Betriebssystemumgebungen werden unterstützt?

Amazon EC2 unterstützt derzeit die folgenden Betriebssysteme: Amazon Linux, Ubuntu, Windows Server, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, Fedora, Debian, CentOS, Gentoo Linux, Oracle Linux und FreeBSD. Aktuell wird daran gearbeitet, den Service auf weitere Plattformen zu erweitern.

F: Nutzt Amazon EC2 ECC-Speicher?

Unserer Erfahrung nach ist ECC-Speicher für die Serverinfrastruktur erforderlich und die gesamte Hardware für Amazon EC2 nutzt ECC-Speicher.

F: Wie unterscheidet sich dieser Service von einem reinen Hosting-Service?

Herkömmliche Hosting-Services bieten normalerweise eine vorkonfigurierte Ressource, die für einen festgelegten Zeitraum und zu festgelegten Kosten bereitgestellt wird. Amazon EC2 unterscheidet sich grundlegend durch seine Flexibilität, Kontrolle und erheblichen Kosteneinsparungen für die Entwickler. Sie können Amazon EC2 als eigenes persönliches Rechenzentrum betrachten und dabei die Vorteile der robusten Infrastruktur von Amazon.com nutzen.

Wenn sich die Rechenanforderungen unerwartet ändern (nach oben oder nach unten), kann Amazon EC2 ohne Verzögerung reagieren. Entwickler können somit kontrollieren, wie viele Ressourcen zu einem bestimmten Zeitpunkt verwendet werden. Im Gegensatz dazu verfügen herkömmliche Hosting-Services im Allgemeinen über eine feste Ressourcenanzahl für eine festgelegte Zeitspanne. Die Benutzer haben somit weniger Möglichkeiten, einfach auf sich schnell ändernde und unvorhersehbare Auslastungen zu reagieren oder sich darauf einzustellen, dass der Erfahrung nach in bestimmten Intervallen Auslastungsspitzen erreicht werden.

Zweitens ermöglichen viele Hosting-Services keine vollständige Kontrolle über die bereitgestellten Rechenressourcen. Mit Amazon EC2 können Entwickler nicht einfach nur entscheiden, wann Instanzen eingeleitet oder heruntergefahren werden, sondern sie können die Konfiguration ihrer Instanzen vollständig entsprechend ihren Anforderungen anpassen und diese Konfiguration zu jeder Zeit ändern. Viele Hosting-Services decken eher Benutzergruppen mit ähnlichen Systemanforderungen ab und bieten daher nur eingeschränkte Änderungsmöglichkeiten.

Des Weiteren haben Entwickler mit Amazon EC2 den Vorteil, dass sie nur für ihre tatsächliche Ressourcennutzung zahlen, und zwar zu äußerst niedrigen Tarifen. Die meisten Hosting-Services verlangen zu Beginn eine feste Gebühr unabhängig von der tatsächlich genutzten Rechenleistung. Die Benutzer riskieren deshalb häufig den Erwerb von zu vielen Ressourcen, um zu kompensieren, dass keine schnelle Skalierung der Ressourcen nach oben innerhalb kurzer Zeit möglich ist.


F: Wie wird mir die Nutzung von Amazon EC2 in Rechnung gestellt?

Sie zahlen nur für das, was Sie auch tatsächlich nutzen. Der angezeigte Preis ist der Stundensatz. Je nachdem, welche Instances Sie nutzen, bezahlen Sie für jeden Instance-Typ nach Stunde oder Sekunde (mindestens 60 Sekunden). Teilweise genutzte Instance-Stunden werden basierend auf der Instances-Nutzung in Rechnung gestellt. Datenübertragungen zwischen AWS-Diensten in verschiedenen Regionen werden auf beiden Seiten des Transfers als Internetdatenübertragungen berechnet. Die Verwendung für andere Amazon Web Services wird von Amazon EC2 separat in Rechnung gestellt.

Informationen zu den EC2-Preisen finden Sie auf der Detailseite von EC2 im Preis-Abschnitt.

F: Wann beginnt und endet die Fakturierung meiner Amazon EC2-Systeme?

Die Fakturierung beginnt, wenn Amazon EC2 die Startsequenz einer AMI-Instance einleitet. Die Fakturierung endet, wenn die Instance beendet wird. Dies kann durch einen Web-Service-Befehl, durch die Ausführung von "shutdown -h" oder durch den Ausfall der Instance geschehen. Wenn Sie eine Instance stoppen, wird sie von uns heruntergefahren. Für eine gestoppte Instance werden kein Stundensatz und keine Datenübertragungsgebühren berechnet. Der Speicherplatz von Amazon EBS-Volumes wird dagegen in Rechnung gestellt. Weitere Informationen dazu finden Sie in der AWS-Dokumentation.

F: Wie wird die EC2-Instance-Nutzung definiert, die in Rechnung gestellt werden kann?

Die Instance-Nutzung wird für die Zeit in Rechnung gestellt, in der Ihre Instances „laufen“. Wenn für Ihre Instance keine weiteren Gebühren anfallen sollen, müssen Sie diese „stoppen“ oder „beenden“, damit Ihnen keine weiteren Instance-Nutzung berechnet werden. Die Berechnung beginnt, sobald eine Instance in den Ausführungsstatus wechselt.

F: Wenn ich zwei Instances in verschiedenen Availability Zones habe, welche Gebühren werden dann für die regionale Datenübertragung erhoben?

Bei jeder Instance fallen Gebühren für den Dateneingang und den Datenausgang entsprechend den jeweiligen Tarifen für die Internetdatenübertragung an. Wenn also zwischen diesen beiden Instances Daten übertragen werden, fallen für die erste Instance Gebühren für die "Übertragung ausgehender Daten aus EC2 in eine andere AWS-Region" und für die zweite Instance Gebühren für die "Übertragung eingehender Daten aus einer anderen AWS-Region" an. Ausführliche Informationen zu den Datenübertragungsgebühren finden Sie hier.

F: Wenn ich zwei Instances in verschiedenen Regionen habe, welche Gebühren werden dann für die Datenübertragung erhoben?

Bei jeder Instance fallen Gebühren für den Dateneingang und den Datenausgang entsprechend den Tarifen für die Internetdatenübertragung an. Wenn also Daten zwischen zwei Instances übertragen werden, fallen für die Internetdatenübertragung aus der ersten Instance und für die Internetdatenübertragung in die zweite Instance Gebühren an.

F: Wir wird die Nutzung pro Sekunde gegenüber der Nutzung pro Stunde in meiner Monatsrechnung angezeigt?

Auch wenn die EC2-Gebühren in Ihrer Monatsrechnung jetzt sekundengenau berechnet werden, wird die kumulative Nutzung für jede Instance, die in einem bestimmten Monat gelaufen ist, aus Konsistenzgründen in der monatlichen EC2-Rechnung in Dezimalstunden angegeben. Ein Beispiel: Eine Instance, die für 1 Stunde 10 Minuten und 4 Sekunden läuft, würde so dargestellt: 1,1677. Im Folgenden finden Sie ein Beispiel für einen detaillierten Rechnungsbericht. In den zwei markierten Bereichen sehen Sie, wie der neue Bericht basierend auf den Dezimalstunden aussieht.

F: Sind Steuern bereits in den Preisen enthalten?

Falls nicht anders angegeben, gelten unsere Preise zuzüglich anfallender Steuern und Abgaben, u. a. MwSt. und Umsatzsteuer. Bei Kunden mit japanischer Rechnungsadresse unterliegt die Nutzung von AWS-Services der japanischen Verbrauchssteuer. Weitere Informationen.


F: Auf welcher Hardware wird mein Anwendungs-Stack ausgeführt?

Unter Amazon EC2-Instance-Typen finden Sie eine Liste der je nach Region verfügbaren EC2-Instances.

F: Wie wähle ich den richtigen Instance-Typ aus?

Amazon EC2-Instances sind in 5 Familien eingeteilt: für allgemeine Zwecke, für Datenverarbeitung, Arbeitsspeicher und Speicherung optimiert sowie Accelerated Computing Instances. Instances für allgemeine Zwecke haben ein Verhältnis von Arbeitsspeicher zu CPU, das sich gut für die meisten allgemeinen Anwendungen eignet. Sie verfügen über eine konstante Leistung (M5, M4) oder eine Burst-fähige Leistung (T2). Für Datenverarbeitung optimierte Instances (C5, C4) verfügen im Verhältnis über mehr CPU-Ressourcen als Arbeitsspeicher (RAM) und eignen sich gut für rechenintensive Anwendungen mit Skalierungsbedarf sowie HPC (High Performance Computing)-Verarbeitungslasten. Arbeitsspeicheroptimierte Instances (X1e, X1, R4) verfügen über große Arbeitsspeicherkapazitäten für arbeitsspeicherintensive Anwendungen wie Datenbank- und Arbeitsspeicher-Caching. Accelerated Computing Instances (P3, P2, G3, F1) nutzen die Möglichkeiten zur parallelen Verarbeitung von NVIDIA Tesla-GPUs zur parallelen Hochleistungs-Datenverarbeitung und Machine Learning/Deep Learning. GPU Graphics-Instances (G3) bieten hochleistungsfähige 3D-Grafikverarbeitung für OpenGL- und DirectX-Anwendungen. F1-Instances bieten Xilinx FPGA-basiertes rekonfigurierbares Computing. Speicheroptimierte Instances (H1, I3, D2) mit extrem hohen und niedrigen Latenzzeiten, hohen I/O-Kapazitäten mit SSD-basierter Speicherung auf lokaler Instance für I/O-intensive Anwendungen und Dense (D2)- oder HDD (H1)-Instance-Speicher, welche eine hohe lokale Speicherungsdichte und sequentielle I/O-Leistung für Data Warehouses, Hadoop und sonstige speicherintensive Anwendungen bereitstellen. Bei der Auswahl des Instance-Typs sollten Sie die Merkmale Ihrer Anwendung hinsichtlich Ressourcenauslastung berücksichtigen (d.h. CPU, Arbeitsspeicher, Speicher) und die optimale Instance-Familie und -Größe entsprechend auswählen.

F: Was ist eine „EC2-Recheneinheit“ und warum wurde sie eingeführt?

Der Wechsel zu einem nutzungsgeprägten Rechenmodell ändert die Art und Weise, wie Entwickler über CPU-Ressourcen denken. Anstatt einen bestimmten Prozessor für mehrere Monate oder Jahre zu erwerben oder zu leasen, wird jetzt Kapazität stundenweise gemietet. Da Amazon EC2 auf allgemein verfügbarer Hardware beruht, kann es im Laufe der Zeit mehrere verschiedene Arten von physischer Hardware geben, die den EC2-Instances zu Grunde liegt. Unser Ziel besteht darin, unabhängig von der tatsächlich zu Grunde liegenden Hardware eine gleichbleibende Menge an CPU-Kapazität zu bieten.

Amazon EC2 setzt verschiedene Maßnahmen ein, um jede Instance mit einer gleichbleibenden und vorhersehbaren Menge an CPU-Kapazität zu versorgen. Um den Entwicklern den Vergleich zwischen den CPU-Kapazitäten der verschiedenen Instance-Typen zu erleichtern, haben wir eine Amazon EC2 Compute Unit (Recheneinheit) definiert. Die einer bestimmten Instance zugewiesene CPU-Menge wird in diesen EC2 Compute Units ausgedrückt. Um die Konsistenz und Vorhersehbarkeit der Leistung einer EC2 Compute Unit zu verwalten, werden verschiedene Benchmarks und Tests eingesetzt. Die EC2 Compute Unit (ECU) bietet einen relativen Maßstab der Rechenleistung einer Amazon EC2-Instance beim Rechnen mit ganzen Zahlen. Mit der Zeit werden wir möglicherweise weitere Größenwerte zur Definition einer ECU hinzufügen oder ersetzen, sofern Metriken gefunden werden, die Ihnen die Rechenkapazität besser verdeutlichen.

F: Wie sind Amazon EC2-Instance-Typen regional verfügbar?
Eine Liste aller Instances und regionalen Verfügbarkeiten finden Sie unter Amazon EC2 – Preise.


F: Wie verhindere ich, dass andere meine Systeme einsehen?

Sie verfügen über die vollständige Kontrolle über die Sichtbarkeit Ihrer Systeme. Die Sicherheitssysteme von Amazon EC2 ermöglichen Ihnen das Platzieren Ihrer laufenden Instances in beliebige Gruppen Ihrer Wahl. Über die Web-Service-Schnittstelle können Sie dann angeben, welche Gruppen mit welchen anderen Gruppen kommunizieren dürfen sowie welche IP-Subnetze im Internet welche Gruppen ansprechen dürfen. Auf diese Weise können Sie den Zugriff auf Ihre Instances in unserer hochdynamischen Umgebung kontrollieren. Selbstverständlich sollten Sie Ihre Instances ebenso sichern wie andere Server auch.

F: Kann ich zum Zweck der Sicherheitsanalyse und Behebung von Betriebsproblemen einen Verlauf aller EC2-API-Aufrufe abrufen, die für mein Konto erfolgt sind?

Ja. Zum Abrufen eines Verlaufs aller EC2-API-Aufrufe (einschließlich VPC und EBS), die für Ihr Konto erfolgt sind, müssen Sie einfach CloudTrail in der AWS-Managementkonsole aktivieren.  Weitere Informationen finden Sie auf der Startseite von CloudTrail

F: Wo erhalte ich weitere Informationen zur Sicherheit von AWS?

Weitere Informationen zur Sicherheit von AWS finden Sie im Whitepaper Amazon Web Services: Sicherheitsprozesse im Überblick sowie im Handbuch Windows on Amazon EC2 Security Guide.


F: Weshalb gibt es eine Beschränkung auf fünf Elastic IP-Adressen pro Region?

Öffentliche (IPv4) Internetadressen sind ein knappes Gut. Öffentlicher IP-Raum steht nur begrenzt zur Verfügung und Amazon EC2 ist bestrebt, bei der effizienten Nutzung dieses Raums behilflich zu sein.

Standardmäßig sind alle Konten auf fünf Elastic IP-Adressen pro Region beschränkt. Wenn Sie mehr als fünf Elastic IP-Adressen benötigen, beantragen Sie bitte eine Anhebung des Limits. Denken Sie dabei noch einmal über Ihren Anwendungsfall nach und helfen Sie uns zu verstehen, weshalb Sie weitere Adressen benötigen. Sie können hier weitere Elastic IP-Adressen beantragen. Die Erhöhung gilt nur für die Region, für die sie beantragt wurde.

F: Weshalb werden Gebühren erhoben, wenn meine Elastic IP-Adresse nicht einer laufenden Instance zugeordnet ist?

Um unseren Kunden dabei zu helfen, die Elastic IP-Adressen effizient einzusetzen, erheben wir für jede Adresse, die nicht einer laufenden Instance zugeordnet ist, eine geringe Gebühr pro Stunde.

F: Benötige ich für jede laufende Instance eine Elastic IP-Adresse?

Nein. Sie benötigen nicht für alle Ihre Instances eine Elastic IP-Adresse. Standardmäßig ist jede Instance mit einer privaten IP-Adresse und einer im Internet routbaren öffentlichen IP-Adresse ausgestattet. Die private Adresse wird ausschließlich dieser Instance zugeordnet und wird nur an Amazon EC2 zurückgegeben, wenn die Instance beendet oder gekündigt wird. Die öffentliche Adresse wird ausschließlich dieser Instance zugeordnet, bis sie gestoppt, beendet oder durch eine Elastic IP-Adresse ersetzt wird. Diese IP-Adressen sollten für viele Anwendungen angemessen sein, bei denen kein langlebiger im Internet routbarer Endpunkt benötigt wird. Rechen-Cluster, Web-Crawling und Back-End-Services sind Beispiele für Anwendungen, bei denen üblicherweise keine Elastic IP-Adressen erforderlich sind.

F: Wie lange dauert die Neuzuordnung einer Elastic IP-Adresse?

Die Neuzuordnung dauert derzeit ab Ihrer Anweisung an uns, die Elastic IP-Adresse neu zuzuordnen, bis zu ihrer vollständigen Verbreitung in unserem System, einige Minuten.

F: Kann ich den Reverse-DNS-Eintrag für meine Elastic IP-Adresse konfigurieren?

Ja, Sie können den Reverse DNS Eintrag für Ihre Elastic IP-Adresse konfigurieren, füllen Sie hierzu dieses Formular aus. Beachten Sie, dass ein entsprechender Forward-DNS-Eintrag vorhanden sein muss, der auf diese Elastic IP-Adresse zeigt, bevor wir den Reverse-DNS-Eintrag erstellen können.


F: Wie isoliert sind Availability Zones voneinander?

Jede Availability Zone wird auf ihrer eigenen physisch getrennten unabhängigen Infrastruktur ausgeführt und ist auf hohe Zuverlässigkeit ausgelegt. Übliche Fehlerquellen wie Generatoren und Kühlanlagen werden nicht von mehreren Availability Zones geteilt. Die physische Trennung sorgt außerdem dafür, dass sogar bei äußerst seltenen Katastrophen wie Bränden, Stürmen oder Überflutungen nur eine Availability Zone betroffen ist.

F: Wird Amazon EC2 in mehr als einer Region ausgeführt?

Ja. Weitere Informationen über unsere Produkte und Services sowie deren Verfügbarkeit nach Regionen finden Sie unter Regionale Produkte und Services.

F: Wie kann ich sicherstellen, dass ich mich in derselben Availability Zone wie ein anderer Entwickler befinde?

Derzeit besteht keine Möglichkeit, Starts mehrerer AWS-Entwicklerkonten in derselben Availability Zone zu koordinieren. Der Name einer Availability Zone (z. B. us-east-1a) in zwei AWS-Kundenkonten kann sich auf zwei verschiedene physische Availability Zones beziehen.

F: Wenn ich Daten unter Nutzung öffentlicher IP-Adressen zwischen Availability Zones übertrage, werden dann die Gebühren für die regionale Datenübertragung zweimal erhoben (einmal, da die Übertragung zonenübergreifend ist, und ein zweites Mal, weil ich öffentliche IP-Adressen verwende)?

Nein. Die Tarife für die regionale Datenübertragung gelten dann, wenn mindestens eine der folgenden Voraussetzungen vorliegt, werden jedoch für eine bestimmte Instance nur einmal berechnet, auch wenn beide vorliegen:

  • Die andere Instance befindet sich unabhängig vom verwendeten Adressentyp in einer anderen Availability Zone.
  • Es werden ungeachtet der Availability Zone, in der sich die andere Instance befindet, öffentliche IP-Adressen oder Elastic IP-Adressen verwendet.

F: Was ist der Nitro-Hypervisor?

Mit der Einführung der C5-Instances wurde für Amazon EC2 auch ein neuer Hypervisor eingeführt – der Nitro-Hypervisor. Als Komponente des Nitro-Systems stellt der Nitro-Hypervisor in erster Linie CPU- und Arbeitsspeicherisolierung für EC2-Instances bereit. VPC-Netzwerk- und EBS-Speicherressourcen werden auf dedizierten Hardwarekomponenten (Nitro-Karten) bereitgestellt, die Teil aller EC2-Instance-Familien der aktuellen Generation sind. Der Nitro-Hypervisor basiert auf Linux Kernel-basierter Virtual Machine (KVM)-Technologie, enthält jedoch keine allgemeinen Betriebssystemkomponenten.

F: Welche Vorteile bietet der Nitro-Hypervisor für die Kunden?

Der Nitro-Hypervisor bietet eine konsistente Leistung und mehr Rechen- und Speicherressourcen für EC2-visualisierte Instances, da Softwarekomponenten des Host-Systeme entfernt wurden. Somit kann AWS größere Instances (wie c5.18xlarge) anbieten, mit denen den Kunden praktisch alle Serverressourcen zur Verfügung stehen. Bisher eliminierten C3- und C4-Instances jeweils Softwarekomponenten, indem VPC- und EBS-Funktionen auf von AWS entworfene und gebaute Hardware verschoben wurden. Dank dieser Hardware ist der Nitro-Hypervisor sehr klein, auch weil für ihn keine Datenverarbeitungstasks für Netzwerke und Speicher anfallen.

F: Wird der Nitro-Hypervisor irgendwann für alle EC2-Instances verwendet?

Auf lange Sicht ist geplant, den Nitro-Hypervisor für alle Instance-Typen einzusetzen, in naher Zukunft wird bei einigen neuen Instance-Typen je nach Plattformanforderungen jedoch Xen verwendet.

F: Wird AWS weiterhin in seinen Xen-basierten Hypervisor investieren?

Ja. Während AWS seine globale Cloud-Infrastruktur erweitert, wird EC2 seinen Xen-basierten Hypervisor verstärkt nutzen. Xen bleibt in absehbarer Zeit eine Kernkomponente der EC2-Instances. AWS ist seit Anbeginn der Eingliederung von Xen in das Linux Foundation Collaborative Project Gründungsmitglied des Xen-Projekts und bleibt aktives Mitglied seines Beirats. Während AWS seine globale Cloud-Infrastruktur erweitert, wird auch weiterhin in den Xen-basierten Hypervisor von EC2 investiert.

F: Wie viele EBS-Volumes und Elastic Network-Schnitstellen (ENIs) können an Instances angehängt werden, die auf dem Nitro-Hypervisor ausgeführt werden?

Auf dem Nitro-Hypervisor ausgeführte Instances unterstützen maximal 27 zusätzliche PCI-Geräte für EBS-Volumes und VPC-ENIs. Jedes EBS-Volume oder jede VPC-ENI verwendet ein PCI-Gerät. Wenn Sie beispielsweise drei zusätzliche Netzwerkschnittstellen an eine Instance anhängen, die auf dem Nitro-Hypervisor ausgeführt wird, können an diese Instance bis zu 24 EBS-Volumes angehängt werden.

F: Ändern sich durch den Nitro-Hypervisor die für die Interaktion mit EC2-Instances verwendeten APIs?

Nein, alle der Öffentlichkeit zugänglichen APIs für die Interaktion mit EC-Instances, die auf dem Nitro-Hypervisor ausgeführt werden, werden unverändert weitergeführt. So wird beispielsweise im Feld "Hypervisor" der DescribeInstances-Antwort weiterhin für alle EC2-Instances "xen" ausgegeben, selbst wenn diese auf dem Nitro-Hypervisor ausgeführt werden. Dieses Feld wird bei einer zukünftigen EC2-API möglicherweise entfernt.

F: Welche AMIs werden auf Instances unterstützt, die auf dem Nitro-Hypervisor ausgeführt werden?

EBS-gestützte HVM-AMIs, die ENA-Networking und das Booten von einem NVMe-basierten Speicher unterstützen, können in Kombination mit Instances verwendet werden, die auf dem Nitro-Hypervisor ausgeführt werden. Der aktuelle Amazon Linux AMI und von Amazon bereitgestellte Windows AMIs werden ebenso unterstützt wie der aktuelle AMI von Ubuntu, Debian, Red Hat Enterprise Linux, SUSE Enterprise Linux, CentOS und FreeBSD.

F: Werde ich Unterschiede zwischen Instances mit Xen-Hypervisor und Instances mit Nitro-Hypervisor feststellen?

Ja. Beispielsweise starten Instances, die auf dem Nitro-Hypervisor ausgeführt werden, über eine NVMe-Schnittstelle von EBS-Volumes. Auf Xen ausgeführte Instances starten von einen emulierten IDE-Laufwerk und wechseln zu den paravirtualisierten Xen-Blockgerätetreibern.

Betriebssysteme können erkennen, ob sie auf einem Hypervisor ausgeführt werden. Einige Softwareprodukte gehen davon aus, dass EC2-Instances auf dem Xen-Hypervisor ausgeführt werden, und verlassen sich darauf. Betriebssysteme erkennen, dass sie auf KVM ausgeführt werden, wenn eine Instance den Nitro-Hypervisor verwendet. Es sollte daher der Prozess zur Erkennung von EC2-Instances verwendet werden, um EC2-Instances zu erkennen, die auf beiden Hypervisors ausgeführt werden können.

Alle EC2-Funktionen, wie Instance Metadata Service, arbeiten auf Instances, die unter Xen und Nitro ausgeführt werden können, identisch. Beim Großteil der Anwendungen zeigen sich in der Funktion sowohl auf Xen als auch auf dem Nitro-Hypervisor keine Unterschiede, sofern das Betriebssystem ENA-Networking und NVMe-Speicher ausreichend unterstützt.

F: Wie sind EC2-API-Anforderungen zum Starten und Beenden von Instances im Nitro-Hypervisor implementiert?

Der Nitro-Hypervisor signalisiert dem Betriebssystem dieser Instance mittels branchenüblicher ACPI-Methoden, dass es sauber herunterfahren soll. Für Linux-Instances muss dafür acpid installiert sein und ordnungsgemäß funktionieren. Wenn acpid innerhalb der Instance nicht ordnungsgemäß funktioniert, verzögert sich die Beendigung um mehrere Minuten und wird schließlich als Kaltstart bzw. Abschalten des Systems durchgeführt.

F: Wie verhalten sich EBS-Volumes, wenn darauf über NVMe-Schnittstellen zugegriffen wird?

Es gibt einige wichtige Unterschiede im Verhalten von Betriebssystem-NVMe-Treibern im Vergleich zu paravirtualisierten (PV) Xen-Blocktreibern.

1. Die NVMe-Gerätenamen, die von Linux-basierten Betriebssystemen verwendet werden, unterscheiden sich von den Parametern für die Anhanganforderungen für EBS-Volumes und Zuordnungseinträge für Blockgeräte, wie /dev/xvda und /dev/xvdf. NVMe-Geräte werden vom Betriebssystem mit /dev/nvme0n1, /dev/nvme1n1 usw. nummeriert. Die NVMe-Gerätenamen stellen keine festen Zuordnungen zu Volumes dar. Daher sollten beim Konfigurieren der automatischen Bereitstellung von Dateisystemen oder von anderen Startaktivitäten, andere Methoden zum Einsatz kommen, wie UUIDs oder Labels. Wenn auf die EBS-Volumes über die NVMe-Schnittstelle zugegriffen wird, wird die EBS-Volume-ID über die Controller-Seriennummer bereitgestellt und der in EC2 API-Anforderungen angegebene Gerätename wird über eine NVMe-Herstellererweiterung für den Befehl zur Controller-Erkennung bereitgestellt. Dadurch kann ein Dienstprogrammskript abwärtskompatible symbolische Verknüpfungen erstellen. Weitere Informationen finden Sie in der EC2-Dokumentation zur Gerätebenennung und NVMe-basierten EBS-Volumes.

2. Die in den meisten Betriebssystemen enthaltenen NVMe-Treiber implementieren standardmäßig eine E/A-Zeitüberschreitung. Wenn ein E/A-Vorgang nicht innerhalb eines implementierungsspezifischen Zeitraums abgeschlossen ist (in der Regel Zehntelsekunden), versucht der Treiber, den E/A-Vorgang abzubrechen oder zu wiederholen. Gelingt dies nicht, gibt er für die Komponente, die den E/A-Vorgang initiiert hat, einen Fehler aus. Bei der Schnittstelle des Xen PV-Blockgeräts gibt es keine E/A-Zeitüberschreitung. Das kann dazu führen, dass Prozesse nicht beendet werden können, wenn auf den E/A-Vorgang gewartet wird. Das Verhalten des Linux NVMe-Treibers kann verändert werden, indem für den Kernel-Modul-Parameter nvme.io_timeout ein höherer Wert eingegeben wird.

3. Die NVMe-Schnittstelle kann über einen E/A-Vorgang wesentlich größere Datenmengen übertragen und in einigen Fällen mehr ausstehende E/A-Anforderungen als die Xen PV-Blockschnittelle unterstützen. Dies kann zu einer höheren E/A-Latenz führen, wenn große E/As oder eine große Anzahl an E/A-Anforderungen an Volumes ausgegeben werden, die zur Unterstützung von Durchsatzverarbeitungslasten wie EBS Throughput Optimized HDD (st1)- und Cold HDD (sc1)-Volumes konzipiert wurden. Diese E/A-Latenz ist für durchsatzoptimierte Volumes in diesen Szenarios normal, kann jedoch zu E/A-Zeitüberschreitungen in NVMe-Treibern führen. Die E/A-Zeitüberschreitung kann in Linux-Treibern angepasst werden, indem für den Kernel-Modul-Parameter nvme_core.io_timeout ein höherer Wert eingegeben wird.



F: Welche Netzwerkfunktionen sind in dieser Lösung enthalten?

Wir unterstützen derzeit optimierte Netzwerkfunktionen mithilfe von SR-IOV (Single Root I/O Virtualization). SR-IOV ist eine Methode der Gerätevirtualisierung, die im Vergleich zu herkömmlichen Implementierungen eine höhere E/A-Leistung und niedrigere CPU-Auslastung bietet. Für unterstützte Amazon EC2-Instances bietet diese Funktion eine höhere PPS-Leistung (Pakete pro Sekunde), kürzere Latenzen zwischen Instances und sehr niedrigen Netzwerk-Jitter.

F: Weshalb sollte ich Enhanced Networking verwenden?

Wenn Ihre Anwendungen von einer hohen PPS-Leistung und/oder einem Netzwerkbetrieb mit kurzer Latenz profitieren, bietet Enhanced Networking eine wesentlich verbesserte einheitliche Leistung und Skalierbarkeit.

F: Wie kann ich Enhanced Networking für unterstützte Instances aktivieren?

Zum Aktivieren dieser Funktion müssen Sie ein HVM AMI mit dem entsprechenden Treiber starten. M5-, C5-, H1-, R4-, X1-, I3-, P3-, P2-, G3- und m4.16xlarge-Instances bieten für Enhanced Networking die ENA-Schnittstelle (Elastic Network Adapter) mit dem Linux-Treiber "ena". Die Instances C3, C4, R3, I2, M4 (außer m4.16xlarge) und D2 verwenden Intel® 82599g Virtual Function Interface mit dem Linux-Treiber "ixgbevf". Das Amazon Linux-AMI beinhaltet diese beiden Treiber standardmäßig. Für AMIs, die diese Treiber nicht beinhalten, müssen Sie die entsprechenden Treiber basierend auf den zu verwendenden Instance-Typen herunterladen und installieren. Sie können nach Linux- oderWindows-Anweisungen vorgehen, um Enhanced Networking in AMIs zu aktivieren, die den SR-IOV-Treiber nicht standardmäßig enthalten. Enhanced Networking wird nur in Amazon VPC unterstützt.

F: Fällt für die Nutzung von Enhanced Networking eine zusätzliche Gebühr an?

Nein, für Enhanced Networking fällt keine Zusatzgebühr an. Um in den Genuss von Enhanced Networking zu kommen, müssen Sie das entsprechende AMI für einen unterstützten Instance-Typ in einer VPC starten.

F: Warum wird Enhanced Networking nur in Amazon VPC unterstützt?

Amazon VPC ermöglicht uns, Ihnen viele erweiterte Netzwerkfunktionen bereitzustellen, die in EC2-Classic nicht möglich sind. Enhanced Networking ist ein weiteres Beispiel einer von Amazon VPC ermöglichten Funktionalität.

F: Welche Instance-Typen unterstützen Enhanced Networking?

Derzeit wird Enhanced Networking von den Instances C3, C4, C5, D2, I3, I2, H1, M5, M4, X1 und R3 unterstützt. X1-, P2-, P3-, G3-, I3-, R4- und m4.16xlarge-Instances bieten für Enhanced Networking die ENA-Schnittstelle (Elastic Network Adapter). Die Instances C3, C4, R3, I2, M4 (außer m4.16xlarge) und D2 verwenden Intel® 82599 Virtual Function Interface.

F: Welche Instance-Typen bieten Instance-Speicher auf NVMe-Basis?

High I/O-Instances verwenden lokale auf NVMe basierende Instance-Speicher, um I/O-Kapazität mit sehr hoher bzw. niedriger Latenz für Anwendungen zu schaffen, und sie sind für Anwendungen optimiert, die Millionen von IOPS benötigen. Wie Cluster Instances können High I/O-Instances über Cluster-Placement-Gruppen für Netzwerke mit hoher Bandbreite angeordnet werden.


F: Was geschieht mit meinen Daten, wenn ein System außer Betrieb genommen wird?

Die in einem lokalen Instance-Speicher gespeicherten Daten bestehen nur so lange, wie die Instance aktiv ist. Daten, die auf einem Amazon EBS-Volume gespeichert sind, bleiben jedoch unabhängig von der Nutzungsdauer der Instance dauerhaft erhalten. Daher wird empfohlen, den lokalen Instance-Speicher für temporäre Daten zu verwenden. Für eine höhere Datenbeständigkeit wird empfohlen, Amazon EBS-Volumes zu verwenden oder die Daten auf Amazon S3 zu sichern. Wenn Sie ein Amazon EBS-Volume als Stammpartition verwenden, müssen Sie das Kennzeichen "Delete on Terminate" (Beim Beenden löschen) auf "N" setzen, wenn Ihr Amazon EBS-Volume außerhalb der Lebensdauer der Instance bestehen soll.

F: Welche Leistung kann ich von Amazon EBS-Volumes erwarten?

Amazon EBS stellt vier Volume-Typen der aktuellen Generation bereit, die in zwei Hauptkategorien unterteilt sind: SSD-Speicher für Transaktionsverarbeitungslasten und HDD-Speicher für durchsatzintensive Verarbeitungslasten. Diese Volume-Typen unterscheiden sich bei den Leistungsmerkmalen und im Preis, sodass Sie die Speicherleistung und -kosten an die Anforderungen Ihrer Anwendungen anpassen können. Weitere Informationen dazu finden Sie auf der EBS-Produktdetailseite. Weitere Informationen zur Leistung finden Sie im Abschnitt zur EBS-Leistung im Amazon EC2-Benutzerhandbuch.

F: Was sind durchsatzoptimierte HDD (ST1)- und "kalte" HDD (SC1)-Volume-Typen?

ST1-Volumes basieren auf Festplatten (HDDs) und eignen sich optimal für häufig genutzte, durchsatzintensive Arbeitslasten mit hohen Datensätzen und umfangreichen E/A-Größen wie bei MapReduce, Kafka, der Protokollverarbeitung, Data Warehouse- und ETL-Arbeitslasten. Die Leistung der Volumes wird anhand des Durchsatzes in MB/s gemessen. Sie können Spitzenleistungen bis 250 MB/s pro TB erreichen. Der Basisdurchsatz liegt bei 40 MB/s pro TB und der maximale Durchsatz bei 500 MB/s pro Volume. ST1 liefert die erwartete Durchsatzleistung 99 % der Zeit. Das E/A-Guthaben reicht aus, um zu Spitzenlastzeiten einen vollständigen Volume-Scan durchzuführen.

SC1-Volumes basieren auf Festplatten (HDDs) und zeichnen sich unter allen EBS-Volume-Typen durch die geringsten Kosten pro GB aus. Die Volumes eignen sich optimal für seltener genutzte Arbeitslasten mit großen, selten genutzte Datensätzen. Ähnlich wie st1 bietet auch sc1 ein Spitzenleistungsmodell: Diese Volumes können Spitzenleistungen bis 80 MB/s pro TB erreichen. Der Basisdurchsatz liegt bei 12 MB/s pro TB und der maximale Durchsatz bei 250 MB/s pro Volume. Für selten aufgerufene Daten bietet sc1 einen extrem kostengünstigen Speicher. SC1 liefert die erwartete Durchsatzleistung 99 % der Zeit. Das E/A-Guthaben reicht aus, um zu Spitzenlastzeiten einen vollständigen Volume-Scan durchzuführen.

Um die Leistung von ST2 und SC1 zu maximieren, wird die Verwendung von EBS-optimierten EC2 Instances empfohlen.

F: Welchen Volume-Typ sollte ich wählen?

Amazon EBS umfasst zwei Hauptspeicherkategorien: SSD-basierten Speicher für Transaktionsarbeitslasten (Leistung primär von E/A\Sek. abhängig) und HDD-basiertem Speicher für Durchsatzarbeitslasten (Leistung primär vom Durchsatz in MB/s abhängig). SSD-basierte Volumes eignen sich für Transaktions- und E/A\Sek.-intensive Datenbankarbeitslasten, Start-Volumes und Arbeitslasten, die einen hohen E/A\Sek. erfordern. SSD-basierte Volumes beinhalten eine bereitgestellte E/A\Sek.-SSD (io1) and eine Standard-SSD (gp2). HDD-basierte Volumes eignen sich für durchsatzintensive und Big Data-Arbeitslasten, umfangreiche E/A-Größen und sequenzielle E/A-Muster. HDD-basierte Volumes umfassen eine durchsatzoptimierte HDD (st1) und eine selten genutzte (cold) HDD (sc1). Weitere Informationen zu Amazon EBS finden Sie auf der EBS-Produktdetailseite.

F: Wird der Zugriff von mehreren Instances auf ein einziges Volume unterstützt?

Sie können einer Instance mehrere Volumes zuordnen, derzeit ist es jedoch nicht möglich, einem Volumes mehrere Instances zuzuordnen.

F: Kann ich mit den normalen Amazon S3-APIs auf meine EBS-Snapshots zugreifen?

Nein, EBS-Snapshots sind nur über die Amazon EC2-APIs verfügbar.

F: Muss die Bereitstellung von Volumes aufgehoben werden, um einen Snapshot erstellen zu können? Muss die Erstellung des Snapshots abgeschlossen sein, bevor das Volume wieder verwendet werden kann? 

Nein, Snapshots können in Echtzeit erstellt werden, während das Volume bereitgestellt ist und verwendet wird. Snapshots erfassen jedoch nur Daten, die auf Ihren Amazon EBS-Datenträger geschrieben wurden. Darin sind möglicherweise nicht die Daten enthalten, die lokal von Ihrer Anwendung oder dem Betriebssystem in den Zwischenspeicher geschrieben wurden. Um die einheitliche Erstellung von Snapshots auf Datenträgern sicherzustellen, die einer Instance zugeordnet sind, wird empfohlen, die Zuordnung des Datenträgers sauber zu trennen, den Snapshot-Befehl auszuführen und anschließend den Datenträger erneut zuzuordnen. Bei Amazon EBS-Datenträgern, die als Root-Geräte dienen, wird empfohlen, den Rechner herunterzufahren, um einen sauberen Snapshot zu erstellen.

F: Gibt es verschiedene Versionen von Snapshots? Kann ich einen älteren Snapshot einlesen, um eine zeitpunktbezogene Wiederherstellung durchzuführen?

Jeder Snapshot verfügt über eine eindeutige Kennzeichnung. Volumes können auf Grundlage eines beliebigen vorhandenen Snapshots erstellt werden.

F: Welche Gebühren werden für die Verwendung von freigegebenen Amazon EBS-Snapshots erhoben?

Wenn Sie einen Snapshot freigeben, werden Ihnen keine Gebühren berechnet, wenn andere Benutzer eine Kopie Ihres Snapshots erstellen. Wenn Sie eine Kopie eines freigegebenen Datenträgers eines anderen Benutzers anfertigen, werden Ihnen die normalen EBS-Tarife berechnet.

F: Können Benutzer meiner freigegebenen Amazon EBS-Snapshots meine Daten ändern?

Benutzer mit der Berechtigung zum Erstellen von Datenträgern basierend auf Ihren freigegebenen Snapshots erstellen zunächst eine Kopie des Snapshots in ihrem Konto. Benutzer können eigene Kopien der Daten ändern, aber die Daten in Ihrem ursprünglichen Snapshot sowie alle anderen Datenträger, die von anderen Benutzern aus Ihrem ursprünglichen Snapshot erstellt wurden, bleiben unverändert.

F: Wie finde ich Amazon EBS-Snapshots, die für mich freigegeben wurden?

Sie finden Snapshots, die für Sie freigegeben wurden, indem Sie über die AWS-Managementkonsole im Abschnitt Snapshots aus dem Anzeigeauswahlfeld die Option „Private Snapshots“ auswählen. In diesem Abschnitt werden sowohl Ihre eigenen Snapshots als auch die Snapshots angezeigt, die für Sie freigegeben wurden.

F: Wie finde ich heraus, welche Amazon EBS-Snapshots global freigegeben sind?

Sie können Snapshots finden, die global freigegeben wurden, indem Sie über die AWS-Managementkonsole im Abschnitt „Snapshots“ im Anzeigeauswahlfeld „Public Snapshots“ auswählen.

F: Wird die Verschlüsselung von Amazon EBS-Volumes oder -Snapshots angeboten?

Ja. EBS bietet eine reibungslose Verschlüsselung von Daten-Volumes und -Snapshots. Die EBS-Verschlüsselung erleichtert das Erfüllen von Compliance-Anforderungen an Sicherheit und Verschlüsselung.

F: Wie finde ich eine Liste der öffentlichen Datensätze bei Amazon?

Alle Informationen zu öffentlichen Datensätzen sind in unserem Ressourcenzentrum für öffentliche Datensätze verfügbar. Sie können außerdem eine Liste aller öffentlichen Datensätze über die AWS-Managementkonsole erhalten, indem Sie im Abschnitt „Snapshots“ im Anzeigeauswahlfeld „Amazon Snapshots“ auswählen.

F: Wo kann ich mehr über EBS erfahren?

Sie können die Amazon EBS-Seite mit den häufig gestellten Fragen besuchen.


F: Wie kann ich von einer Amazon EC2-Instance aus auf ein Dateisystem zugreifen?

Für den Zugriff auf Ihr Dateisystem mounten Sie das Dateisystem auf einer Amazon EC2-Linux-basierten Instance mithilfe des Linux-Standard-Mount-Befehls und des DNS-Namens des Dateisystems. Danach können Sie mit den Dateien und Verzeichnissen in Ihrem Dateisystem wie in einem lokalen Dateisystem arbeiten.

Amazon EFS verwendet das NFSv4.1-Protokoll. Ein schrittweises Beispiel für den Zugriff auf ein Dateisystem von einer Amazon EC2-Instance aus finden Sie im Amazon EFS-Handbuch Erste Schritte.

F: Welche Amazon EC2-Instance-Typen und AMIs funktionieren mit Amazon EFS?

Amazon EFS ist mit allen Amazon EC2-Instance-Typen kompatibel. Der Zugriff ist von Linux-basierten AMIs aus möglich. Sie können die Instance-Typen, die mit einem einzelnen Dateisystem verbunden sind, mischen und aufeinander abstimmen. Ein schrittweises Beispiel für den Zugriff auf ein Dateisystem von einer Amazon EC2-Instance aus finden Sie im Amazon EFS-Handbuch Erste Schritte.

F: Wie kann ich Daten in ein Dateisystem laden?

In ein Amazon EFS-Dateisystem können Sie Daten aus Ihren Amazon EC2-Instances oder von den lokalen Servern in Ihrem Rechenzentrum laden.

Amazon EFS-Dateisysteme werden auf einer Amazon EC2-Instance bereitgestellt, sodass alle Daten, auf die eine Amazon EC2-Instance zugreifen kann, auch in Amazon EFS gelesen und geschrieben werden können. Zum Laden von Daten, die aktuell nicht in der Amazon-Cloud gespeichert sind, können Sie die gleichen Methoden verwenden, die Sie heute zum Übertragen von Dateien zu Amazon EC2 verwenden, zum Beispiel Secure Copy (SCP).

Amazon EFS-Dateisysteme können auch auf lokalen Servern bereitgestellt werden, sodass alle Daten, auf die der lokale Server zugreifen kann, mittels Linux-Standardtools in Amazon EFS gelesen und geschrieben werden können. Weitere Informationen zum Zugriff auf ein Dateisystem von einem lokalen Server finden Sie auf der Seite mit häufig gestellten Fragen zu Amazon EFS im Abschnitt Lokaler Zugriff.

Weitere Informationen zum Verschieben von Daten in die Amazon-Cloud finden Sie auf der Seite Datenmigration in die Cloud.

F: Wie greife ich von außerhalb meiner VPC auf mein Dateisystem zu?

Amazon EC2-Instances innerhalb Ihrer VPC können direkt auf Ihr Dateisystem zugreifen, und Amazon EC2 Classic-Instanzen außerhalb Ihrer VPC können ein Dateisystem über ClassicLink bereitstellen. Lokale Server können Ihre Dateisysteme über eine AWS Direct Connect-Verbindung für Ihre VPCs bereitstellen.

F: Wie viele Amazon EC2-Instances können mit einem Dateisystem verbunden werden?

Amazon EFS unterstützt eine bis Tausende von Amazon EC2-Instances, die gleichzeitig eine Verbindung zu einem Dateisystem herstellen.

F: Wo kann ich mehr über EFS erfahren?

Sie können die Amazon EFS-Seite mit den häufig gestellten Fragen besuchen.


F: Welches ist das kleinste Zeitintervall für die Daten, die von Amazon CloudWatch empfangen und angesammelt werden?

Metriken werden in Intervallen von einer Minute empfangen und angesammelt.

F: Welche Betriebssysteme werden von Amazon CloudWatch unterstützt?

Amazon CloudWatch empfängt Metriken und stellt diese allen Amazon EC2-Instances bereit. Es ist davon auszugehen, dass Amazon CloudWatch derzeit ebenfalls alle Betriebssysteme unterstützt, die auch vom Amazon EC2-Service unterstützt werden.

F: Gehen die Metrikdaten verloren, wenn die Überwachung für eine Amazon EC2-Instance deaktiviert wird?

Sie können die Daten für jede Amazon EC2-Instance bis zu zwei Wochen lang ab Beginn der Überwachung abrufen. Nach zwei Wochen sind die Metrikdaten für eine Amazon EC2-Instance nicht mehr verfügbar, wenn die Überwachung dieser Amazon EC2-Instance deaktiviert wurde. Wenn Sie die Metrikdaten über zwei Wochen hinaus archivieren möchten, geben Sie in die Befehlszeile den Befehl "mon-get-stat" ein und speichern Sie die Ergebnisse in Amazon S3 oder Amazon SimpleDB.

F: Kann ich auf die Metrikdaten einer beendeten Amazon EC2-Instance oder eines gelöschten Elastic Load Balancers zugreifen?

Ja. Amazon CloudWatch speichert die Metrikdaten für beendete Amazon EC2-Instances oder gelöschte Elastic Load Balancers zwei Wochen lang.

F: Ist die Überwachungsgebühr von Amazon CloudWatch abhängig von dem Typ der Amazon EC2-Instance, die überwacht wird?

Nein, die Überwachungsgebühr von Amazon CloudWatch ist nicht abhängig vom Amazon EC2-Instance-Typ.

F: Warum sieht die Abbildung desselben Zeitfensters für fünfminütige Zeitspannen anders aus als für einminütige Zeitspannen?

Wenn Sie dasselbe Zeitfenster für eine fünfminütige bzw. eine einminütige Zeitspanne ansehen, fällt Ihnen möglicherweise auf, dass die Datenpunkte an verschiedenen Stellen des Grafen angezeigt werden. Amazon CloudWatch sucht alle verfügbaren Datenpunkte und kalkuliert für die Zeitspanne, die Sie auf Ihrem Grafen festgelegt haben, einen einzigen Gesamtpunkt, um die gesamte Zeitspanne darzustellen. Im Fall einer fünfminütigen Zeitspanne wird der einzelne Datenpunkt an den Anfang des fünfminütigen Zeitfensters gesetzt. Im Fall einer einminütigen Zeitspanne wird der einzelne Datenpunkt an die Markierung für eine Minute gesetzt. Die einminütige Zeitspanne empfiehlt sich zur Fehlerbehebung und für andere Aktivitäten, bei denen es auf eine äußerst genaue grafische Darstellung der Zeitspannen ankommt.


F: Kann ich meine Amazon EC2-Flotten automatisch skalieren?

Ja. Amazon EC2 Auto Scaling ist ein vollständig verwalteter Service zum automatischen Starten oder Beenden von Amazon EC2-Instances, damit Ihnen die richtige Anzahl an Amazon EC2-Instances zur Verfügung steht, um die Last Ihrer Anwendung zu verarbeiten. Mit EC2 Auto Scaling halten Sie die Anwendungsverfügbarkeit durch ein Flottenmanagement für EC2-Instances aufrecht, bei dem fehlerhafte Instances erkannt und ersetzt werden und Ihre Amazon EC2-Kapazität automatisch entsprechend den von Ihnen definierten Bedingungen erhöht oder reduziert wird. Sie können mit EC2 Auto Scaling während der Anforderungsspitzen auch automatisch die Anzahl der Amazon EC2-Instances erhöhen, um die Leistung beizubehalten, und während der Anforderungstiefs reduzieren, um die Kosten zu senken. Weitere Informationen finden Sie in den häufig gestellten Fragen zu Amazon EC2 Auto Scaling.


F: Welche Load Balancing-Optionen bietet der Elastic Load Balancing-Service?

Elastic Load Balancing bietet Ihnen zwei Typen von Load Balancern, die beide hohe Verfügbarkeit, automatische Skalierung und robuste Sicherheit gewährleisten. Dabei handelt es sich zum einen um den Classic Load Balancer, bei dem der Datenverkehr basierend auf Anwendungs- oder Netzwerkinformationen verteilt wird, und zum anderen um den Application Load Balancer, bei dem der Datenverkehr auf erweiterten Anwendungsinformationen verteilt wird, die die Inhalte der Anfrage beinhalten.

F: Wann sollte ich den Classic Load Balancer und wann den Application Load Balancer verwenden?

Der Classic Load Balancer eignet sich ideal für die einfache Lastverteilung über mehrere EC2-Instances, während der Application Load Balancer perfekt für Anwendungen, die erweiterte Routing-Funktionen benötigen, Microservices und Container-basierte Architekturen ist. Weitere Informationen erhalten Sie unter Elastic Load Balancing.


F: Was ist eine Reserved Instance?

Eine Reserved Instance (RI) ist ein Angebot für EC2, das Ihnen für die Nutzung von EC2 einen erheblichen Preisvorteil bietet, wenn Sie sich auf eine Laufzeit von einem oder drei Jahren festlegen.

F: Worin unterscheiden sich Standard Reserved Instances und Convertible Reserved Instances?

Standard Reserved Instances bieten Ihnen für die Nutzung von EC2 Instances einen erheblichen Preisvorteil, wenn Sie sich für eine bestimmte Instance-Familie festlegen. Bei Convertible Reserved Instances behalten Sie sich die Möglichkeit vor, trotz Rabatt für die EC2-Nutzung die Instance-Konfiguration während der Laufzeit zu ändern. Klicken Sie hier, um weitere Informationen zu Convertible Reserved Instances zu erhalten.

F: Bieten Reserved Instances eine Kapazitätsreservierung?

Ja. Wenn eine Standard oder Convertible Reserved Instance einer bestimmten Availability Zone (AZ) zugeordnet ist, wird für Sie eine Instance-Kapazität entsprechend der Reserved Instance-Konfiguration reserviert. Diese Reserved Instances werden dann auch als “zonengebundene Reserved Instances” bezeichnet. Zonengebundene Reserved Instances geben Ihnen die Gewissheit, dass Ihnen Ihre Instances bei Bedarf jederzeit zur Verfügung stehen.

Sie können auch auf die Kapazitätsreservierung verzichten und Standard oder Convertible Reserved Instances erwerben, die einer Region zugeordnet sind. Diese werden als “regionsgebundene Reserved Instances” bezeichnet. Bei regionsgebundenen Reserved Instances wird der Rabatt automatisch auf die Nutzung für alle Availability Zones und Instance-Größen innerhalb der jeweiligen Region angewendet, wodurch sich für Sie die bestmögliche Nutzung der ermäßigten Tarife für Reserved Instances vereinfacht.

F: In welchem Fall sollte ich mich für eine zonengebundene Reserved Instance entscheiden?

Wenn Sie die Vorteile der Kapazitätsreservierung nutzen möchten, sollten Sie eine Reserved Instance in einer bestimmten Availability Zone kaufen.

F: In welchem Fall sollte ich mich für eine regionsgebundene Reserved Instance entscheiden?

Wenn Sie die Vorteile der Kapazitätsreservierung nicht benötigen, empfiehlt sich eine regionsgebundene Reserved Instance. Regionsgebundene Reserved Instances bieten in puncto Availability Zone und Instance-Größe mehr Flexibilität und somit mehr Spielraum bei der Anwendung der ermäßigten Tarife für Reserved Instances.

F: Was ist unter Flexibilität in puncto Availability Zone und Instance-Größe zu verstehen?

Flexibilität in puncto Availability Zone und Instance-Größe vereinfacht für Sie die bestmögliche Nutzung der ermäßigten Tarife für Reserved Instances. Durch die Flexibilität in puncto Availability Zone kann der ermäßigte Tarif Ihrer Reserved Instance für jede Availability Zone einer Region genutzt werden. Durch die Flexibilität in puncto Instance-Größe kann der ermäßigte Tarif Ihrer Reserved Instance für jede Instance-Größe innerhalb einer Instance-Familie genutzt werden. Angenommen, Sie verfügen über eine regionsgebundene m5.2xlarge-Reserved Instance für Linux/UNIX mit Standard-Tenancy für die Region USA Ost (Nord-Virginia). Der ermäßigte Tarif dieser Reserved Instance kann in diesem Fall automatisch auf zwei m5.xlarge-Instances in der Region "us-east-1a" oder auf vier m5.large-Instances in der Region "us-east-1b" angewendet werden.

F: Welche Arten von Reserved Instances bieten Flexibilität in puncto Instance-Größe?

Regionsgebundene Reserved Instances für Linux/UNIX mit Standard-Tenancy bieten Flexibilität in puncto Instance-Größe. Nicht verfügbar ist diese Flexibilität für Reserved Instances für andere Plattformen wie Windows, Windows mit SQL Standard, Windows mit SQL Server Enterprise, Windows mit SQL Server Web, RHEL und SLES.

F: Muss ich bestimmte Aktionen ausführen, um die Vorteile der Flexibilität in puncto Availability Zone und Instance-Größe nutzen zu können?

Bei regionsgebundenen Reserved Instances sind keine weiteren Aktionen erforderlich, um die Vorteile der Flexibilität in puncto Availability Zone und Instance-Größe nutzen zu können.

F: Ich verfüge über zonengebundene Reserved Instances. Wie ordne ich diese einer Region zu?

Ihre zonengebundene Standard-Reserved Instance können Sie einer Region zuordnen, indem Sie den Gültigkeitsbereich der Reserved Instance über die EC2 Management Console oder die API "ModifyReservedInstances" von einer bestimmten Availability Zone auf eine Region umstellen. 

F: Wie kaufe ich eine Reserved Instance?

Zunächst können Sie eine Reserved Instance über die EC2 Management Console oder die AWS-Befehlszeilenschnittstelle kaufen. Geben Sie dort einfach den Instance-Typ, die Plattform, die Tenancy, die Laufzeit, die Zahlungsoption und die Region oder Availability Zone an.

F: Kann ich eine Reserved Instance auch für eine bereits aktive Instanz kaufen?

Ja. Ab dem Kauf wendet AWS den ermäßigten Tarif einer Reserved Instance auf jede zutreffende Instance-Nutzung an. Weitere Informationen finden Sie auf der Seite Erste Schritte.

F: Kann ich kontrollieren, welche Instances zum ermäßigten Tarif abgerechnet werden?

Nein. AWS ermittelt automatisch, welche Instances nach dem ermäßigten Tarif abgerechnet werden, damit sichergestellt ist, dass Sie stets den geringstmöglichen Betrag zahlen. Weitere Informationen zur Abrechnung und deren Anwendung auf Reserved Instances finden Sie in Preisvorteile und Zahlungsoptionen.

F: Wie funktioniert Flexibilität in puncto Instance-Größe?

EC2 verwendet die nachfolgend gezeigte Staffelung, um die verschiedenen Größen innerhalb einer Instance-Familie zu vergleichen. Flexibilität in puncto Instance-Größe bedeutet, dass diese Staffelung zur Anwendung des ermäßigten Tarifs für Reserved Instances auf die normierte Nutzung der Instance-Familie verwendet wird. Verfügen Sie beispielsweise über eine m5.2xlarge-Reserved Instance für eine bestimmte Region, kann der ermäßigte Tarif für die Nutzung von einer m5.2xlarge- oder zwei m5.xlarge-Instances verwendet werden.

Klicken Sie hier, um mehr über die Anwendung der Flexibilität von Reserved Instances in puncto Instance-Größe auf die EC2-Nutzung zu erfahren. Klicken Sie hier, um zu erfahren, wie die Flexibilität von Reserved Instances in puncto Instance-Größe im Kosten- und Nutzungsbericht dargestellt wird.

Instance-Größe

Normierungsfaktor

nano

 0.25

micro 0.5
small 1
medium 2
large 4
xlarge 8
2xlarge 16
4xlarge 32
8xlarge 64
9xlarge 72
10xlarge 80
12xlarge 96
16xlarge 128
18xlarge 144
24xlarge 192
32xlarge 256

F: Kann ich meine Reserved Instance während deren Laufzeit ändern?

Ja. Sie können die Availability Zone der Reserved Instance ändern, den Gültigkeitsbereich der Reserved Instance von Availability Zone auf Region (und umgekehrt) umstellen, die Netzwerkplattform von EC2-VPC auf EC2-Classic (und umgekehrt) umstellen und die Instance-Größen innerhalb der gleichen Instance-Familie ändern (letzteres allerdings nur auf der Linux/UNIX-Plattform).

F: Kann ich den Instance-Typ meiner Reserved Instance während deren Laufzeit ändern?

Ja. Convertible Reserved Instances lassen es Ihnen offen, den Instance-Typ, das Betriebssystem, die Tenancy und die Zahlungsoption einer Reserved Instance während der Laufzeit zu ändern. Weitere Informationen finden Sie im Abschnitt "Convertible Reserved Instances" der häufig gestellten Fragen.

F: Welche Zahlungsoptionen gibt es für Reserved Instances?

Beim Kauf einer Reserved Instance haben Sie die Wahl aus drei Zahlungsoptionen. Bei der Option "Komplette Vorauszahlung" zahlen Sie mit einer Vorauszahlung für die gesamte Reserved Instance-Laufzeit. Bei der Option "Teilweise Vorauszahlung" leisten Sie eine niedrige Vorauszahlung. Anschließend wird Ihnen über die gesamte Laufzeit der Reserved Instance ein ermäßigter Stundensatz in Rechnung gestellt. Die Option "Keine Vorauszahlung" erfordert keine Vorauszahlung und bietet einen ermäßigten Stundensatz über die gesamte Laufzeit.

F: Wann werden RIs aktiviert?

Der Rechnungsrabatt und die Kapazitätsreservierung (sofern zutreffend) werden aktiviert, sobald Ihre Zahlung erfolgreich genehmigt wurde. Den Status Ihrer Reserved Instances (Ausstehend | Aktiv | Zurückgezogen) können Sie in der Amazon EC2-Konsole auf der Seite "Reserved Instances" einsehen.

F: Gelten Reserved Instances auch für Spot-Instances oder solche, die über einen dedizierten Host laufen?

Nein. Reserved Instances gelten nicht für Spot-Instances oder solche, die über einen dedizierten Host laufen. Eine Möglichkeit, Kosten für die Nutzung von Dedicated Hosts zu senken, ist der Erwerb von Dedicated Host Reservations.

F: Wie funktionieren RIs mit konsolidierter Fakturierung?

Unser System ermittelt automatisch, welche Instances nach dem ermäßigten Tarif abgerechnet werden, um sicherzustellen, dass dem zahlenden Konto immer der geringstmögliche Betrag angerechnet wird. Wenn Sie über Reserved Instances für eine Availability Zone verfügen, wird die Kapazitätsreservierung nur dem Eignerkonto der Reserved Instance zugeordnet. Allerdings wird der Rabatt automatisch auf die Nutzung durch alle Konten Ihrer konsolidierten Fakturierungsgruppe angewendet.

F: Erhalte ich für den Kauf von Reserved Instances einen Preisnachlass?

Ja. EC2 bietet beim Kauf von Reserved Instances gestaffelte Rabatte. Die Rabatte werden auf Grundlage des Gesamtlistenwerts (d. h. nicht rabattierten Preises) für die aktiven Reserved Instances in der jeweiligen Region berechnet. Ihr Gesamtlistenwert ist die Summe aller erwarteten Zahlungen für eine Reserved Instance während der Laufzeit einschließlich Vorauszahlungen und wiederkehrender Stundensätze. Nachfolgend finden Sie eine Übersicht über die Staffelungsstufen und die entsprechenden Rabatte.

Staffelungsstufe nach Listenwert

Rabatt für Vorauszahlungen

Rabatt auf Stundensätze

Weniger als 500 000 USD

0 %

0 %

500 000 – 4 000 000 USD

5 %

5 %

4 000 000 – 10 000 000 USD 10 % 10 %
Mehr als 10 000 000 USD Anrufen  

F: Können Sie mir helfen, besser zu verstehen, wie Volumenrabatte auf den Kauf von Reserved Instances angerechnet werden?

Gerne. Nehmen wir an, Sie verfügen derzeit in der Region US-east-1 über aktive Reserved Instances im Wert von 400 000 USD. Wenn Sie nun weitere Reserved Instances im Wert von 150 000 USD für die gleiche Region kaufen, erhalten Sie für die ersten 100 000 USD dieses Kaufs keinen Rabatt. Für die verbleibenden 50 000 USD dieses Kaufs erhalten Sie jedoch einen Preisnachlass von 5 Prozent. Für diesen Teil des Kaufs werden Ihnen also entsprechend der Zahlungsoption nur 47 500 USD für die gesamte Laufzeit berechnet.

Weitere Informationen finden Sie im Abschnitt Understanding Reserved Instance Discount Pricing Tiers (Grundsätzliches zu den Rabattstufen für Reserved Instances) im Amazon EC2-Benutzerhandbuch.

F: Wie berechne ich den Listenwert einer RI?

Es folgt ein Beispiel einer Listenwertberechnung für Reserved Instances mit dreijähriger Laufzeit und teilweiser Vorauszahlung:

Wert des Volumenrabatts bei dreijähriger Laufzeit und teilweiser Vorauszahlung in USA Ost

 

Vorauszahlung (USD)

Wiederkehrender Stundensatz (USD)

Wiederkehrender Stundenwert

Listenwert

m3.xlarge

 1 345 USD

 0,060 USD

 1 577 USD

 2 922 USD

c3.xlarge

 1 016 USD

 0,045 USD

 1 183 USD

 2 199 USD

F: Wie werden Volumenrabatte bei Verwendung der konsolidierten Fakturierung berechnet?

AWS verwendet bei der konsolidierten Fakturierung den aggregierten Gesamtlistenpreis Ihrer aktiven Reserved Instances all Ihrer konsolidierten Konten, um zu ermitteln, welche Volumenrabattstufe angesetzt wird. Volumenrabattstufen werden zum Zeitpunkt des Kaufs bestimmt. Daher sollten Sie die konsolidierte Fakturierung vor dem Kauf von Reserved Instances aktivieren, um sicherzustellen, dass Sie von dem höchst möglichen Volumenrabatt profitieren, für den Sie sich mit Ihren konsolidierten Konten qualifizieren.

F: Qualifizieren sich Convertible Reserved Instances für Volumenrabatte?

Nein. Allerdings wirkt sich jede von Ihnen erworbene Convertible Reserved Instance positiv auf den Status Ihrer Volumenrabattstufe aus.

F: Wie kann ich bestimmen, welche Volumenrabattstufe für mich gilt?

Informationen dazu, wie Sie Ihre aktuelle Volumenrabattstufe ermitteln, finden Sie im Abschnitt Understanding Reserved Instance Discount Pricing Tiers (Grundsätzliches über die Rabattstufen für Reserved Instances) im Amazon EC2-Benutzerhandbuch.

F: Ändern sich die Kosten meiner RIs, wenn ich aufgrund meines künftigen Volumens für andere Rabattstufen in Frage komme?

Nein. Volumenrabatte werden beim Kauf berechnet. Die Kosten Ihrer Reserved Instances ändern sich daher nicht, auch wenn Sie sich für weitere Rabattstufen qualifizieren. Bei jedem neuen Kauf wird entsprechend des Volumenrabatts, für den Sie sich zwischenzeitlich qualifiziert haben, der zutreffende Rabatt neu errechnet.

F: Sind beim Kauf von Reserved Instances bestimmte Aktionen erforderlich, um Volumenrabatte zu erhalten?

Nein. Sie erhalten die Volumenrabatte automatisch, wenn Sie die Reserved Instances mit der API "PurchaseReservedInstance" oder über die EC2 Management Console kaufen. Wenn Sie Reserved Instances im Wert von über 10 000 000 USD kaufen, kontaktieren Sie uns bezüglich weiterer über die automatisch gebotenen Rabatte hinausgehender Nachlässe.


Was ist eine Convertible Reserved Instance?
Eine Convertible Reserved Instance ist eine Art Reserved Instances mit Attributen, die während der Laufzeit geändert werden kann.

F: Wann sollte ich eine Convertible Reserved Instance anstelle einer Standard Reserved Instance kaufen?
Convertible Reserved Instances sind praktisch für Kunden, die sich auf eine dreijährige Laufzeit für die Nutzung von EC2 Instances festlegen können – im Gegenzug erhalten sie einen erheblichen Rabatt auf ihre EC2-Tarife. Ebenso empfehlen sie sich für Kunden, die sich unsicher sind, welche Art Instance sie in Zukunft benötigen, oder für Kunden, die von Preisänderungen profitieren möchten.

F: Welche Laufzeitoptionen sind für Convertible Reserved Instances verfügbar?
Genauso wie Standard Convertible Instances sind auch Convertible Reserved Instances mit einer Laufzeit von einem oder drei Jahren verfügbar.

F: Kann ich meine Convertible Reserved Instance zurückgeben und stattdessen eine andere Convertible Reserved Instance nutzen, wenn sich meine Anforderungen hinsichtlich Instance-Typ, Betriebssystem, Mandantenfähigkeit oder Zahlungsoption geändert haben?
Ja, Sie können bei einer Umwandlung Ihrer Convertible Reserved Instances Änderungen am Instance-Typ, Betriebssystem, an der Mandantenfähigkeit oder Zahlungsoption vornehmen. Sie können einen Teil Ihrer Convertible Reserved Instance flexibel austauschen oder den Wert von mehreren Convertible Reserved Instances in einer einzelnen Umwandlung zusammenführen. Klicken Sie hier, um mehr über die Umwandlung von Convertible Reserved Instances zu erfahren.

F: Kann ich eine Convertible oder Standard Reserved Instance von einer Region in eine andere übertragen?
Nein, eine Reserved Instance wird einer bestimmten Region für die Dauer ihrer Laufzeit fest zugeordnet.

F: Wie ändere ich die Konfiguration einer Convertible Reserved Instance?
Sie können die Konfiguration Ihrer Convertible Reserved Instances über die EC2 Management Console oder die GetReservedInstancesExchangeQuote-API ändern. Sie können einen Teil Ihrer Convertible Reserved Instance flexibel austauschen oder den Wert von mehreren Convertible Reserved Instances in einer einzelnen Umwandlung zusammenführen. Klicken Sie hier, um mehr über die Umwandlung von Convertible Reserved Instances zu erfahren.

F: Fällt eine Gebühr für die Umwandlung meiner Convertible Reserved Instances an?
Nein, für die Umwandlung Ihrer Convertible Reserved Instances fällt keine Gebühr an. Möglicherweise müssen Sie aber eine einmalige Zahlung leisten, um eventuelle Preisunterschiede zwischen Ihren bisherigen Convertible Reserved Instances und den gewünschten neuen Convertible Reserved Instances auszugleichen.

F: Wie funktioniert die Umwandlung von Convertible Reserved Instances?
Wandeln Sie eine Convertible Reserved Instance in eine andere um, wird durch eine Umrechnung in EC2 sichergestellt, dass der Gesamtwert der Convertible Reserved Instances gleich bleibt. Wenn Sie zum Beispiel eine Reserved Instance im Wert von 1.000 USD in eine andere Reserved Instance umwandeln, erhalten Sie Convertible Reserved Instances im Gegenwert von 1.000 USD (oder mehr). Sie können Ihre Convertible Reserved Instance nicht gegen (eine) Convertible Reserved Instance(s) mit einem geringeren Gesamtwert eintauschen.

F: Was bedeutet genau Gesamtwert?
Der Gesamtwert ist die Summe aller während der Laufzeit der Reserved Instance zu leistenden Zahlungen.

F: Wie berechnet sich genau der mögliche Aufschlag, den ich beim Austausch zum Ausgleich möglicher Preisunterschiede zwischen zwei Convertible Reserved Instances mit kompletter Vorauszahlung zu zahlen habe?
Nehmen wir einmal an, Sie haben eine Convertible Reserved Instance mit kompletter Vorauszahlung im Wert von 1.000 USD erworben und vorab bezahlt. Nach Ablauf der halben Laufzeit möchten Sie die Attribute der Reserved Instance ändern. Da erst die Hälfte der Laufzeit abgelaufen ist, verbleibt noch ein Guthaben von 500 USD für die Reserved Instance. Die Convertible Reserved Instance mit kompletter Vorauszahlung, die Sie stattdessen erwerben möchten, kostet aktuell 1 200 USD. Da genau die Hälfte der Laufzeit Ihrer Convertible Reserved Instance vorbei ist, beträgt der Gegenwert der neuen Convertible Reserved Instance 600 USD – die Hälfte des Gesamtpreises. Die von Ihnen zu leistende Ausgleichszahlung ist die Differenz der bereits von Ihnen geleisteten und der für die gewünschten Convertible Reserved Instances fälligen Vorabzahlung, also 600 USD minus 500 USD = 100 USD.

F: Und wie funktioniert die Umrechnung zwischen Convertible Reserved Instances ohne Vorauszahlung?
Anders als bei Convertible Reserved Instances mit Vorauszahlung ist hier keine Ausgleichszahlung zu leisten, da hier eine Umwandlung zwischen Reserved Instances stattfindet, für die keine Vorauszahlung getätigt wurde. Jedoch müssen die pro Stunde anfallenden Kosten vor der Umwandlung größer oder gleich der pro Stunde anfallenden Kosten nach der Umwandlung sein.

Beispiel: Sie haben eine Convertible Reserved Instance ohne Vorauszahlung (A) zum Preis von 0,10 USD/Std erworben und möchten nun die Convertible Reserved Instance A in eine andere Reserved Instance (B) umwandeln, deren Kosten 0,06 USD/Std. betragen. Bei der Umwandlung erhalten Sie zwei Reserved Instances von Instance B, da die Kosten pro Stunde für die neuen Instances größer oder gleich sein müssen wie die Kosten, die Sie für die zuvor genutzte Instance (A) gezahlt haben.

F: Kann ich die Anzahl der Instances anpassen, die ich als Ergebnis einer Umwandlung von Convertible Reserved Instances erhalte?
Nein. EC2 berechnet die Mindestanzahl von Convertible Reserved Instances, die Sie erhalten, auf Grundlage der Convertible Reserved Instances, die Sie zurückgeben möchten, wobei der Wert der Convertible Reserved Instances, die Sie erhalten, mindestens gleich hoch sein muss wie der Wert der von Ihnen bisher genutzten Convertible Reserved Instances.

F: Gibt es Obergrenzen für die Umwandlung von Convertible Reserved Instances?
Nein, es gibt keine Obergrenzen für die Umwandlung von Convertible Reserved Instances.

F: Kann ich bei der Umwandlung meiner Convertible Reserved Instances den Lizenztyp frei wählen?
Nein, sie können nur eine Umwandlung in Convertible Reserved Instances vornehmen, die gerade von AWS angeboten werden.

F: Kann ich die mit meiner Convertible Reserved Instance verknüpfte Zahlungsoption upgraden?
Ja, Sie können die mit Ihrer Reserved Instance verknüpfte Zahlungsoption upgraden. Sie können beispielsweise Ihre Reserved Instances ohne Vorauszahlung in Reserved Instances mit teilweiser oder kompletter Vorauszahlung umwandeln, um so von besseren Preisen zu profitieren. Anders herum geht es nicht: Sie können die Zahlungsoption nicht von „Komplette Vorauszahlung“ in „Keine Vorauszahlung“ oder von „Teilweise Vorauszahlung“ in „Keine Vorauszahlung“ ändern.

F: Profitiere ich mit Convertible Reserved Instances von Preissenkungen während der Laufzeit meiner Convertible Reserved Instances?
Ja, Sie können Ihre Reserved Instances umwandeln, um von den niedrigeren Preisen zu profitieren. Beispiel: Wenn der Preis für neue Convertible Reserved Instances um 10 % sinkt, können Sie Ihre Convertible Reserved Instances umwandeln, um so von dem Preisnachlass um 10 % zu profitieren.  


F: Was ist der Reserved Instance Marketplace?

Der Reserved Instance Marketplace ist ein Online-Markt, der AWS-Kunden flexibel ermöglicht, ihre Amazon Elastic Compute Cloud (Amazon EC2) Reserved Instances an andere Unternehmen oder Organisationen zu verkaufen. Kunden können den Reserved Instance Marketplace durchsuchen und eine größere Auswahl an Laufzeiten und Preisoptionen für Reserved Instances finden, die von anderen AWS-Kunden angeboten werden.

F: Wann kann ich eine Reserved Instance im Reserved Instance Marketplace auflisten?

Sie können unter folgenden Bedingungen eine Reserved Instance auflisten:

  • Sie haben sich als Verkäufer im Reserved Instance Marketplace registriert.
  • Wenn Sie für Ihre Reserved Instance bezahlt haben.
  • Wenn Sie Ihre Reserved Instance länger als 30 Tage besitzen.

F: Wie registriere ich mich als Verkäufer beim Reserved Instance Marketplace?

Wenn Sie sich beim Reserved Instance Marketplace registrieren möchten, können Sie den Registrierungs-Workflow starten, indem Sie eine Reserved Instance über die EC2 Management Console verkaufen oder Ihr Profil im AWS-Portal auf der Seite mit den Kontoeinstellungen einrichten. Unabhängig von der Vorgehensweise müssen Sie die folgenden Schritte ausführen:

  1. Gehen Sie zunächst die Übersicht über den Registrierungsprozess durch.
  2. Melden Sie sich bei Ihrem AWS-Konto an.
  3. Geben Sie das Bankkonto ein, auf das wir Zahlungen überweisen sollen. Wenn Sie "Continue" wählen, verwenden wir dieses Bankkonto als standardmäßige Auszahlungsoption.
  4. Wählen Sie am Bestätigungsschirm "Continue to Console to Start Listing".

Wenn Ihr Umsatz mit Reserved Instances 20 000 USD übersteigt oder Sie mehr als 50 Reserved Instances verkaufen möchten, müssen Sie vor dem Listen weiterer Reserved Instances steuerrechtliche Angaben bereitstellen. Wählen Sie "Continue with Tax Interview". Im Verlauf dieses Interviews zu Steuern werden Sie im TIMS-Workflow aufgefordert, Ihren Firmennamen, Kontaktnamen, Ihre Adresse und Steueridentifikationsnummer einzugeben. 

Wenn Sie außerdem vorhaben, Reserved Instances im Wert von mehr als 50 000 USD pro Jahr zu verkaufen, müssen Sie auch eine Erweiterung des Limits beantragen.

F: Wie erfahre ich, wann ich mit dem Verkaufen im Reserved Instance Marketplace beginnen kann?

Sie können im Reserved Instance Marketplace mit dem Verkaufen beginnen, nachdem Sie in der Registrierungsphase ein Bankkonto hinzugefügt haben. Nach Abschluss der Aktivierung erhalten Sie eine Bestätigungs-E-Mail. Wichtig ist der Hinweis, dass Sie Auszahlungen erst dann erhalten können, nachdem wir eine Bestätigung Ihrer Bank empfangen haben, was je nach Bank bis zu zwei Wochen dauern kann.

F: Wie liste ich eine Reserved Instance zum Verkauf?

Führen Sie zum Listen einer Reserved Instance einfach die folgenden Schritte in der Amazon EC2 Console aus:

  1. Wählen Sie die Reserved Instances aus, die Sie verkaufen möchten und wählen Sie "Sell Reserved Instance". Wenn Sie den Registrierungsprozess nicht abgeschlossen haben, werden Sie aufgefordert, diesen Prozess zu durchlaufen.
  2. Bestimmen Sie für jeden Reserved Instance-Typ die Anzahl der Instances, die Sie verkaufen möchten, und die Höhe der Einmalgebühr. Je nach verbleibender Zeit können Sie den Einmalpreis auf unterschiedliche Beträge festlegen, sodass Sie den Einmalpreis nicht ständig anpassen müssen, wenn sich Ihre Reserved Instance nicht schnell verkauft. Sie müssen standardmäßig den aktuellen Preis festlegen, wobei wir den Einmalpreis jeden Monat um denselben Schritt automatisch verringern.
  3. Nachdem Sie Ihre Listung konfiguriert haben, wird ein abschließender Bestätigungsbildschirm angezeigt. Wählen Sie "Sell Reserved Instance".

F: Welche Reserved Instances kann ich zum Verkauf auflisten?

Sie können jede Reserved Instance auflisten, die mindestens 30 Tage aktiv war und für die wir eine Zahlung erhalten haben. Normalerweise heißt das, dass Sie Ihre Reservierungen auflisten können, sobald sie sich im Status Active (aktiv) befinden. Wenn Sie ein Rechnungskunde sind, kann Ihre Reserved Instance bis zum Zahlungseingang bei AWS den Status Active haben. In diesem Fall wird Ihre Reserved Instance erst aufgelistet, nachdem wir Ihre Zahlung erhalten haben.

F: Wie werden aufgelistete Reserved Instances den Käufern angezeigt?

Reserved Instances (von Drittanbietern und von AWS angebotene), die im Reserved Instance Marketplace aufgelistet wurden, können in der Amazon EC2 Console im Bereich "Reserved Instances" angezeigt werden. Sie können auch die DescribeReservedInstancesListings-API verwenden.

Angezeigte Reserved Instances werden je nach Typ, verbleibender Dauer, Standardpreis und Stundenpreis gruppiert. Durch dieses Verfahren ist es für Käufer einfacher, die Reserved Instances zu finden, die sie kaufen möchten.

F: Wie viel meiner Reserved Instance-Laufzeit kann ich auflisten?

Sie können eine Reserved Instance für die verbleibende Laufzeit abgerundet auf den nächsten Monat verkaufen. Wenn beispielsweise die verbleibende Laufzeit noch 9 Monate und 13 Tage beträgt, können Sie die Reserved Instance mit einer Laufzeit von 9 Monaten zum Verkauf anbieten.

F: Kann ich meine Reserved Instance entfernen, nachdem ich sie zum Verkauf aufgelistet habe?

Ja, Sie können eine Reserved Instance-Listung jederzeit entfernen, bis ein Verkauf pending ist (was bedeutet, dass ein Käufer Ihre Reserved Instance gekauft hat und die Zahlungsbestätigung aussteht).

F: Welchen Preisrahmen kann ich für die Reserved Instances festlegen, die ich auflisten möchte?

Im Reserved Instance Marketplace können Sie einen Standardpreis festlegen, den Sie zu akzeptieren gewillt sind. Sie können nicht den Stundenpreis festlegen (der im Vergleich zur ursprünglichen Reserved Instance unverändert bleibt), und Sie erhalten keine Beträge aus Zahlungen, die den Stundenpreisen zugeordnet sind.

F: Kann ich meine Reservierung weiter nutzen, während sie im Reserved Instance Marketplace aufgelistet ist?

Ja, bis zu ihrem Verkauf kommen Sie weiter in den Genuss der Kapazität und des Preisvorteils Ihrer Reserved Instance. Nach dem Verkauf werden sämtliche ausgeführten Instances, die gemäß dem rabattierten Tarif abgerechnet wurden, gemäß dem On-Demand-Tarif abgerechnet, es sei denn, Sie kaufen eine neue Reservierung oder Sie kündigen die Instance.

F: Kann ich eine Reserved Instance weiterverkaufen, die ich im Reserved Instance Marketplace gekauft habe?

Ja, Sie können im Reserved Instances Marketplace gekaufte Reserved Instances wie jede andere Reserved Instance verkaufen.

F: Gelten Einschränkungen für den Verkauf von Reserved Instances?

Ja, Sie benötigen ein US-Bankkonto, um Reserved Instances im Reserved Instance Marketplace verkaufen zu können. In Kürze werden auch nicht US-amerikanische Bankkonten unterstützt. Darüber hinaus dürfen Sie Reserved Instances nicht in der Region US GovCloud verkaufen.

F: Kann ich Reserved Instances verkaufen, die ich über die öffentlichen Volumenpreisstufen gekauft habe?

Nein, dies ist derzeit noch nicht möglich.

F: Wird eine Gebühr für den Verkauf von Reserved Instances im Reserved Instance Marketplace erhoben?

Ja, bei jeder Reserved Instance, die auf dem Reserved Instance Marketplace verkauft wird, berechnet AWS eine Bearbeitungsgebühr von 12 % des Gesamtvorabpreises.

F: Kann AWS Untermengen meiner aufgelisteten Reserved Instances verkaufen?

Ja, AWS kann potenziell eine Untermenge der Reserved Instances verkaufen, die Sie aufgelistet haben. Wenn Sie beispielsweise 100 Reserved Instances auflisten, kann es möglicherweise einen Käufer geben, der Interesse am Kauf von 50 Reserved Instances hat. Wir verkaufen in diesem Fall diese 50 Instances und listen Ihre 50 Reserved Instances so lange weiter auf, bis Sie sie nicht mehr länger auflisten möchten.

F: Wie bezahlen Käufer für die Reserved Instances, die sie gekauft haben?

Zahlungen für erfolgte Reserved Instance-Verkäufe erfolgen per Überweisung auf ein US-amerikanisches Bankkonto.

F: Wann erhalte ich mein Geld?

Sobald AWS Zahlungen von dem Kunden erhalten hat, der Ihre Reservierung gekauft hat, erfolgt eine Überweisung auf das Bankkonto, das Sie bei der Registrierung im Reserved Instance Marketplace angegeben haben.

Wir senden Ihnen anschließend eine E-Mail-Benachrichtigung, dass wir die Zahlungen überwiesen haben. In der Regel werden Zahlungen Ihrem Konto binnen 3-5 Tagen nach dem Verkauf Ihrer Reserved Instance gutgeschrieben.

F: Erhalte ich, wenn ich meine Reserved Instance im Reserved Instance Marketplace verkaufe, eine Rückvergütung für den Premium Support, der mir in Rechnung gestellt wurde?

Nein, Sie erhalten keine anteilige Rückvergütung für den vorab gezahlten Anteil an der AWS Premium Support-Gebühr.

F: Werde ich über Reserved Instance Marketplace-Aktivitäten benachrichtigt?

Ja, Sie erhalten eine E-Mail pro Tag mit Einzelheiten zu Ihren Reserved Instance Marketplace-Aktivitäten, wenn Sie Reserved Instance-Listungen erstellen oder stornieren, Käufer Ihre Listungen erwerben oder AWS Zahlungen auf Ihr Bankkonto überweist.

F: Welche Informationen werden zwischen Käufer und Verkäufer ausgetauscht, um die Berechnung der Transaktionssteuer zu vereinfachen?

Im Auszahlungsbericht werden dem Verkäufer Informationen zu Ort, (US-Bundesstaat), Postleitzahl und Land des Käufers genannt. Anhand dieser Informationen können Verkäufer etwaige Transaktionssteuern berechnen (z. B. Umsatzsteuer, Mehrwertsteuer usw.), die abzuführen sind. Der Name der juristischen Person des Verkäufers wird auch auf der Einkaufsrechnung angegeben.

F: Gibt es Einschränkungen hinsichtlich der Kunden beim Kauf von Reserved Instances anderer Anbieter?

Ja, Sie dürfen weder Ihre eigenen Reserved Instances noch die Ihrer verknüpften Konten (über die konsolidierte Fakturierung) kaufen.

F: Muss ich für Premium Support zahlen, wenn ich Reserved Instances im Reserved Instance Marketplace kaufe?

Ja, als Premium Support-Kunde wird Ihnen Premium Support in Rechnung gestellt, wenn Sie Reserved Instance über den Reserved Instance Marketplace erwerben.


F: Was ist die Amazon EC2-Flotte?

Mit einem einzigen API-Aufruf können Sie mit EC2-Flotte Rechenleistung über verschiedene Instance-Typen, Availability Zones und On-Demand, Reserved Instances (RI) und Spot Instances-Kaufmodelle bereitstellen, um die Skalierung, Leistung und Kosten zu optimieren.

F: Wenn ich derzeit einen Amazon EC2-Spot-Instance-Flotte verwenden, sollte ich dann zu Amazon EC2-Flotte migrieren?

Wenn Sie Amazon EC2-Spot-Instances mit Spot-Instance-Flotte verwenden, können Sie dies beibehalten. Die Spot-Instance-Flotte und EC2-Flotte bieten dieselben Funktionen. Eine Migration ist nicht erforderlich.

F: Kann ich Reserved Instance (RI)-Rabatte für Amazon EC2-Flotte verwenden?

Ja. Ähnlich wie andere EC2-APIs oder andere AWS-Services, die EC2-Instances starten, erhält diese Instance den RI-Rabatt, wenn die von EC2-Flotte gestartete On-Demand-Instance mit einer bestehenden RI übereinstimmt. Wenn Sie beispielsweise regionale RIs für M4-Instances besitzen und nur M4-Instances in Ihrer EC2-Flotte angegeben haben, werden RI-Rabatte automatisch auf diese Verwendung von M4 angewendet.

F: Erfolgt ein Failover von Amazon EC2-Flotte zu On-Demand, wenn die EC2 Spot-Kapazität nicht vollständig erfüllt ist?

Nein. EC2-Flotte wird weiterhin versuchen, basierend auf der Anzahl der Spot-Instances, die Sie in Ihrer Flottenstartspezifikation angefordert haben, Ihre gewünschte Spot-Kapazität zu erreichen.

F: Wie sieht das Preisangebot für Amazon EC2-Flotte aus?

EC2-Flotte ist ohne Aufpreis verfügbar. Sie zahlen nur für die zugrundeliegenden Ressourcen, die EC2-Flotte startet.

F: Können Sie ein Praxisbeispiel für die Verwendung von Amazon EC2-Flotte angeben?

Es gibt zahlreiche Möglichkeiten, Amazon EC2-Flotte zu nutzen, wie z.B. bei Big Data-Arbeitslasten, containerisierten Anwendungen, Arbeitslasten für die Rasterverarbeitung etc. In diesem Beispiel einer genomischen Sequenzierungs-Arbeitslast können Sie ein Raster von Worker-Knoten mit einem einzigen API-Aufruf starten: Wählen Sie Ihre bevorzugten Instances aus, weisen Sie Arbeiten für diese Instances zu, legen Sie die Zielkapazität für On-Demand- und Spot-Instances fest und bauen Sie innerhalb von Sekunden eine Flotte auf, um die genomischen Daten schnell zu durchsuchen.

F: Wie kann ich einer Amazon EC2-Flotte Ressourcen zuweisen?

Standardmäßig startet die EC2-Flotte die günstigste On-Demand-Option. Für Spot-Instances bietet EC2-Flotte zwei Zuweisungsstrategien: lowestPrice und diversified (diversifiziert). Mit der lowestPrice-Strategie können Sie die Spot-Instance in Pools bereitstellen, die zum Anforderungszeitpunkt den niedrigsten Preis pro Kapazitätseinheit bieten. Mit der diversified-Strategie können Sie die Ressourcen Ihrer Spot-Instance-Flotten in mehreren Spot-Instance-Pools bereitstellen und die Zielkapazität Ihrer Flotte beibehalten, um die Anwendung zu weitern.

F: Kann ich eine Amazon EC2-Flottenanforderung für mehrere Regionen übermitteln?

Nein. EC2-Flottenanforderungen für mehrere Regionen werden nicht unterstützt.

F: Kann ich einen Amazon EC2-Flotte durch Tags kennzeichnen?

Ja. Sie können eine EC2-Flottenanforderung mit einem Tag kennzeichnen, um geschäftsrelevante Tag-Gruppierungen zu erstellen, um Ressourcen nach technischen, geschäftlichen und sicherheitsrelevanten Aspekten zu organisieren.

F: Kann ich meine Amazon EC2-Flotte modifizieren?

Ja. Sie können die Gesamtzielkapazität Ihrer EC2-Flotte im Wartungsmodus ändern. Möglicherweise müssen Sie die Anfrage abbrechen und eine neue einreichen, um die Änderung anderer Konfigurationsparameter zu beantragen.

F: Kann ich für jeden Instance-Typ, den ich verwenden möchte, ein anderes AMI festlegen?

Ja. Geben Sie dazu einfach das gewünschte AMI in jeder Startspezifikation an, die Sie mit Ihrer EC2-Flotte bereitstellen.


F: Was ist eine Spot-Instance?

Spot-Instances sind freie EC2-Kapazitäten, mit denen Sie sich bis zu 90 % der On-Demand-Preise sparen können, die AWS jedoch zwei Minuten nach einer entsprechenden Benachrichtigung jederzeit abziehen kann. Spot nutzt die gleichen EC2-Instances, die auch On-Demand- und Reserved Instances zugrunde liegen, und eignet sich besonders für fehlertolerante und flexible Arbeitslasten. Spot-Instances sind eine zusätzliche Option für den Abruf von Rechenkapazitäten und können in Kombination mit On-Demand- und Reserved Instances verwendet werden.

F: Wie unterscheidet sich eine Spot-Instance von einer On-Demand-Instance oder Reserved Instance?

Aktive Spot-Instances unterscheiden sich in nichts von On-Demand- oder Reserved Instances. In erster Linie unterscheiden sich Spot-Instances durch ihren Preis: Spot-Instances bieten gegenüber On-Demand-Instances einen erheblichen Preisvorteil. Dafür behält sich Amazon EC2 das Recht vor, Spot-Instances bei Lastspitzen zwei Minuten nach einer entsprechenden Benachrichtigung abzuziehen. Außerdem passen sich die Preise für Spot-Instances graduell an eine langfristige Bereitstellung und entsprechend der Nachfrage nach EC2-Ersatzkapazitäten an.

Weitere Informationen zu Spot-Instances erhalten Sie hier.

F: Wie erwerbe und starte ich eine Spot-Instance?

Spot-Instances können mit den gleichen Tools gestartet werden, die Sie auch zum Starten anderer Instances verwenden, d. h. über die AWS-Managementkonsole, über Auto-Scaling-Gruppen sowie die Ausführung von Instances und Spot-Instance-Flotten. Darüber hinaus unterstützen auch viele AWS-Services den Start von Spot-Instances, beispielsweise EMR, ECS, Datapipeline, Cloudformation und Batch.

Zum Starten einer Spot-Instance müssen Sie lediglich eine Start-Vorlage und die Anzahl der angeforderten Instances auswählen.

Weitere Informationen zum Anfordern von Spot-Instances finden Sie hier.

F: Wie viele Spot-Instances kann ich anfordern?

Die Anzahl der Spot-Instances, die Sie anfordern können, ist lediglich durch Ihr Spot-Limit für die jeweilige Region begrenzt. Für neue AWS-Kunden empfiehlt es sich zunächst, mit einem niedrigeren Limit anzufangen. Weitere Informationen zu den Limits für Spot-Instances finden Sie im Amazon EC2-Benutzerhandbuch.

Falls Sie einen höheren Grenzwert benötigen, füllen Sie das Antragsformular für Amazon EC2-Instances aus und geben Sie den Anwendungsfall an. Ihre Instance-Aufstockung wird dann geprüft. Die Anhebung der Limits ist von der Region abhängig, für die sie angefordert wurde.

F: Was kostet mich eine Spot-Instance?

Sie zahlen den Spot-Preis, der zu Beginn jeder Instance-Stunde für die aktive Instance gültig ist. Falls sich der Spot-Preis nach dem Start einer Instance ändert, gilt der neue Tarif für die Nutzung der Instance erst ab der nächsten vollen Stunde.

F: Was ist ein Spot-Kapazitäten-Pool?

Ein Spot-Kapazitäten-Pool ist ein Satz ungenutzter EC2-Instances mit demselben Instance-Typ, Betriebssystem sowie derselben Availability Zone und Netzwerkplattform (EC2-Classic oder EC2-VPC). Der Preis eines Spot-Kapazitäten-Pools richtet sich nach Angebot und Nachfrage.

F: Wie kann ich Spot-Instances optimal nutzen?

Zur Maximierung der Ihnen verfügbaren Spot-Kapazität empfehlen wir Ihnen die Verwendung mehrerer Spot-Kapazitäten-Pools. Durch seine Spot-Instance-Flotten ermittelt EC2 automatisch die kostengünstigste Kapazität innerhalb der Ihnen verfügbaren Spot-Kapazitäten-Pools. Weitere Informationen finden Sie im Abschnitt Spot Best Practices (Bewährte Methoden für die Nutzung von Spot-Instances).

F: Wie kann ich den Status meiner Spot-Instance-Anforderung bestimmen?

Den Status Ihrer Spot-Instance-Anforderung ersehen Sie aus dem Statuscode und der Meldung zu Ihrer Spot-Instance-Anforderung. Den Status einer Spot-Instance-Anforderung können Sie über die Spot-Instance-Seite der EC2-Konsole in der AWS-Managementkonsole, der API und der CLI abrufen. Weitere Informationen finden Sie im Amazon EC2-Entwicklerhandbuch.

F: Sind Spot-Instances für alle Instance-Familien und -Größen sowie in allen Regionen verfügbar?

Spot-Instances sind in allen öffentlichen AWS-Regionen verfügbar. Spot-Instances sind für nahezu alle EC2-Instance-Familien und -Größen verfügbar, auch für die neueste Generation der für die Datenverarbeitung optimierten Instances, für FPGA-Instance-Typen sowie für die Grafikbeschleunigung. Eine vollständige Liste der in den einzelnen Regionen unterstützten Instance-Typen finden Sie hier.

F: Welche Betriebssysteme sind als Spot-Instances verfügbar?

Linux/UNIX und Windows Server. Windows Server mit SQL Server ist derzeit nicht verfügbar.

F: Kann ich eine Spot-Instance mit einem gebührenpflichtigen AMI für die Software eines anderen Anbieters (wie Softwarepakete von IBM) verwenden?

Nein, derzeit nicht.

F: Wann wird meine Spot-Instance unterbrochen?

Innerhalb der letzten drei Monate wurden 92 % aller Spot-Instance-Trennungen manuell vom Kunden veranlasst, weil die Arbeit, für die die Instance erforderlich war, abgeschlossen war.

Sollte Amazon EC2 eine von Ihnen genutzte Spot-Instance tatsächlich abziehen, kann dies zwei Gründe haben, an erster Stelle eigener Kapazitätsbedarf (z. B. bei einer größeren Nachfrage nach On-Demand- oder Reserved Instances). Aber auch wenn Sie einen maximalen Spot-Preis festgelegt haben, kann eine Spot-Instance getrennt werden, nämlich dann, wenn der Spot-Preis über das von Ihnen festgelegte Limit ansteigt. In beiden Fällen werden Sie zwei Minuten vor der Trennung benachrichtigt. Mit dem maximalen Spot-Preis legen Sie den maximalen Preis fest, den Sie für eine Spot-Instance-Stunde bereit sind zu zahlen. Standardmäßig ist dieser Preis durch die Höhe des On-Demand-Preises gedeckelt. Wie zuvor zahlen Sie aber nicht Ihren Höchstpreis, sondern den während der Ausführung Ihrer Instance gültigen Spot-Marktpreis, der sekundengenau abgerechnet wird.

F: Was passiert mit meiner Spot-Instance bei einer Unterbrechung?

Sie können wählen, ob Ihre Spot-Instances bei einer Unterbrechung beendet, gestoppt oder in den Ruhezustand versetzt werden. Die Optionen "Stop" (Stoppen) und "Hibernate" (Ruhezustand) sind für persistente Spot-Instance-Anforderungen und Spot-Instance-Flotten verfügbar, wenn die Option “Maintain” (Verwalten) aktiviert ist. Standardmäßig werden Ihre Instances beendet.

Weitere Informationen zur Vorgehensweise bei Unterbrechungen erhalten Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Was ist bei Spot-Instance-Unterbrechungen der Unterschied zwischen den Optionen "Stop" (Stoppen) und "Hibernate" (Ruhezustand)?

Wenn eine Instance in den Ruhezustand versetzt wird, bleiben die Daten im RAM bestehen. Beim Stoppen hingegen wird die Instance heruntergefahren und der RAM gelöscht.

In beiden Fällen jedoch bleiben die Daten aus Ihrem EBS-Stammvolume und allen angehängten EBS-Datenvolumes erhalten. Auch Ihre private und Ihre Elastic IP-Adresse (sofern zutreffend) ändert sich nicht. Das Verhalten auf Netzwerkebene entspricht dem des EC2-Workflows "Stop-Start". Die Optionen "Stop" und "Hibernate" sind nur für Amazon EBS-gestützte Instances verfügbar. Der lokale Instance-Speicher bleibt nicht erhalten.

F: Was geschieht, wenn mein EBS-Stammvolume nicht groß genug für den Arbeitsspeicherstatus (RAM) von Hibernate ist?

Der in Ihrem EBS-Stammvolume verfügbare Speicher sollte groß genug zum Speichern der Daten aus dem Arbeitsspeicher sein. Andernfalls schlägt der Hibernation-Vorgang fehl und die Instance wird nicht in den Ruhezustand versetzt, sondern heruntergefahren. Vor Auswahl der Option "Hibernate" sollten Sie daher sicherstellen, dass Ihr EBS-Stammvolume über ausreichend Speicherplatz für die Daten aus dem Arbeitsspeicher verfügt.

F: Was ist der Vorteil, wenn meine Spot-Instances bei einer Unterbrechung in den Ruhezustand versetzt werden?

Wenn Sie sich für die Option "Hibernate" entscheiden, Ihre Spot-Instances bei einer Unterbrechung also in den Ruhezustand versetzen, werden die Spot-Instances bei Unterbrechungen lediglich ausgesetzt und danach wieder aufgenommen. Ihre Arbeitslasten können dann genau an der Stelle fortfahren, an der sie zuvor unterbrochen wurden. Die Option "Hibernate" empfiehlt sich insbesondere dann, wenn der Instance-Status Ihrer Instance(s) während des Aussetzungszyklus erhalten bleiben muss, d. h., wenn Ihre unter Spot ausgeführten Anwendungen von im RAM gespeicherten Kontext-, Geschäfts- oder Sitzungsdaten abhängig sind.

F: Wie aktiviere ich "Hibernation" für meine Spot-Instances?

Informationen hierzu finden Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Fallen für meine Spot-Instance im Ruhezustand Gebühren an?

Für den Ruhezustand fallen neben den EBS-Speicherkosten und eventuell Gebühren für weitere von Ihnen genutzte EC2-Ressourcen keine zusätzlichen Gebühren an. Solange sich Ihre Instance im Ruhezustand befindet, zahlen Sie keine Nutzungsgebühren für diese Instance.

F: Kann ich eine gestoppte Instance neu starten oder eine in den Ruhezustand versetzte Instance wiederaufnehmen?

Nein. Eine gestoppte oder in den Ruhezustand versetzte Instance können Sie nicht selbst neu starten oder wiederaufnehmen. Die "Stop-Start"- und "Hibernate-Resume"-Zyklen werden von Amazon EC2 gesteuert. Eine von Spot gestoppte oder in den Ruhezustand versetzte Instance wird von Amazon EC2 neu gestartet bzw. wieder aufgenommen, sobald die hierfür erforderliche Kapazität wieder zur Verfügung steht.

F: Welche Instances und Betriebssysteme unterstützen den Ruhezustand?

Der Ruhezustand wird derzeit von Amazon Linux-AMIs sowie den Betriebssystemen Ubuntu und Microsoft Windows auf allen Instance-Typen der C3-, C4-, C5-, M4-, M5-, R3- und R4-Familien unterstützt, deren Arbeitsspeicher (RAM) kleiner als 100 GiB ist.

Eine Liste der unterstützten Betriebssystemversionen finden Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Welche Gebühren fallen bei einer Unterbrechung meiner Spot-Instance an?

Wenn Ihre Spot-Instance von Amazon EC2 in der ersten Instance-Stunde beendet oder gestoppt wird, wird Ihnen die Nutzung nicht in Rechnung gestellt. Wenn Sie die Instance jedoch selbst beenden, erfolgt die Berechnung zur nächsten Sekunde. Wird die Spot-Instance in einer der nachfolgenden Stunden durch Amazon EC2 beendet oder gestoppt, erfolgt die Gebührenberechnung sekundengenau. Wenn die Instance auf Windows ausgeführt wird und Sie diese selbst beenden, wird Ihnen eine ganze Stunde in Rechnung gestellt.

F: Wonach richten sich die Gebühren, wenn sich der Spot-Preis ändert, während meine Spot-Instance aktiv ist? 

Sie zahlen für die gesamte Instance-Stunde, sekundengenau abgerechnet, den zu Beginn der Instance-Stunde festgelegten Tarif.

F: Wo kann ich meinen Verwendungsverlauf für Spot-Instances und den Betrag einsehen, der mir in Rechnung gestellt wurde?

Über die AWS-Managementkonsole erhalten Sie einen detaillierten Abrechnungsbericht, in dem auch die Start- und Endzeiten aller Spot-Instances angezeigt werden. Sie können den Rechnungsbericht über die API mit früheren Spot-Preisen vergleichen, um zu überprüfen, ob die richtigen Spot-Preise in Rechnung gestellt wurden.

F: Werden Spot-Blöcke (Fixed Duration Spot-Instances) jemals unterbrochen?

Spot-Blöcke sind so konzipiert, dass sie unabhängig vom Spot-Marktpreis nicht unterbrochen werden und während der von Ihnen ausgewählten Dauer kontinuierlich laufen. In seltenen Fällen können Spot-Blöcke aufgrund von AWS-Kapazitätsanforderungen unterbrochen werden. In diesen Fällen senden wir zwei Minuten, bevor wir Ihre Instance beenden, eine Warnung (Nachricht über die Beendigung der Instance) und die Betroffenen Instances werden nicht verrechnet.

F: Was ist eine Spot-Instance-Flotte?

Mit einer Spot-Instance-Flotte können Sie automatisch mehrere Spot-Instances verwalten und jeweils die Spot-Instance mit dem niedrigsten Preis pro Kapazitätseinheit für Ihren Cluster bzw. Ihre Anwendung anfordern, beispielsweise für einen Batch-Verarbeitungsauftrag, einen Hadoop-Arbeitsablauf oder einen HPC-Grid-Verarbeitungsauftrag. Dabei können Sie die für Ihre Anwendung erforderlichen Instance-Typen auswählen. Sie legen die Zielkapazität auf Basis Ihrer Anforderungen fest (in Einheiten wie Instances, vCPUs, Arbeitsspeicher, Speicher oder Netzwerkdurchsatz), wobei Sie diese Kapazität auch nach dem Start der Instance-Flotte noch ändern können. Mithilfe von Spot-Flotten können Sie die Zielkapazität einführen und beibehalten und zudem automatisch Ressourcen anfordern lassen, um diejenigen zu ersetzen, bei denen Störungen vorliegen oder die manuell beendet wurden. Weitere Informationen über Spot-Instance-Flotten.

F: Fallen für Spot-Instance-Flottenanforderungen zusätzliche Gebühren an?

Nein. Für Spot-Instance-Flottenanforderungen fallen keine zusätzlichen Gebühren an.

F: Welche Limits gelten für eine Spot-Instance-Flottenanforderung?

Informationen zu den für eine Spot-Instance-Flottenanforderung geltenden Limits finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Spot Fleet Limits (Limits für Spot-Instance-Flotten).

F: Was geschieht, wenn meine Spot-Instance-Flottenanforderung versucht, Spot-Instances zu starten, mein regionales Limit für Spot-Instance-Anforderungen dadurch jedoch überschritten wird?

Wenn Ihre Spot-Instance-Flottenanforderung Ihr regionales Limit für Spot-Instance-Anforderungen überschreitet, schlagen einzelne Spot-Instance-Anforderungen fehl. Der Anforderungsstatus lautet in diesem Fall "Spot request limit exceeded" (Limit für Spot-Instance-Anforderungen überschritten). Der Verlauf Ihrer Spot-Instance-Flottenanforderung zeigt alle Limit-Fehler für Spot-Instance-Anforderungen an, die die Flottenanforderung erhalten hat. Informationen zur Beschreibung des Verlaufs Ihrer Spot-Instance-Flottenanforderung finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Monitoring Your Spot Fleet (Überwachung Ihrer Spot-Instance-Flotte).

F: Werden Spot-Instance-Flottenanforderungen garantiert erfüllt?

Nein. Über Spot-Instance-Flottenanforderungen können Sie mehrere Spot-Instance-Anforderungen gleichzeitig abgeben. Für sie gelten die gleiche Verfügbarkeit und die gleichen Preise wie für einzelne Spot-Instance-Anforderungen. Sind beispielsweise für die in Ihrer Spot-Instance-Flottenanforderung genannten Instance-Typen keine Ressourcen verfügbar, kann Ihrer Anforderung eventuell gar nicht oder nur teilweise entsprochen werden. Wir empfehlen Ihnen daher, in Ihrer Spot-Instance-Flottenanforderung alle Instance-Typen und Availability Zones aufzuführen, die sich für Ihre Arbeitslasten eignen.

F: Kann ich eine Spot-Instance-Flottenanforderung für mehrere Availability Zones übermitteln?

Ja. Informationen zur Übermittlung von Spot-Instance-Flottenanforderung für mehrere Availability Zones finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Spot Fleet Examples (Beispiele für Spot-Instance-Flotten).

F: Kann ich eine Spot-Instance-Flottenanforderung für mehrere Regionen übermitteln?

Nein. Spot-Instance-Flottenanforderungen für mehrere Regionen werden nicht unterstützt.

F: Wie weist die Spot-Instance-Flotte den verschiedenen in den Startspezifikationen angegebenen Spot-Instance-Pools Ressourcen zu?

Die RequestSpotFleet-API bietet zwei Zuweisungsstrategien: lowestPrice und diversified (diversifiziert). Mit der lowestPrice-Strategie können Sie die Ressourcen Ihrer Spot-Instance-Flotten in Instance-Pools bereitstellen, die zum Anforderungszeitpunkt den niedrigsten Preis pro Kapazitätseinheit bieten. Mit der diversified-Strategie können Sie die Ressourcen Ihrer Spot-Instance-Flotten in mehreren Spot-Instance-Pools bereitstellen. Damit sind Sie in der Lage, die Zielkapazität Ihrer Flotte beizubehalten und die Verfügbarkeit Ihrer Anwendung zu verbessern, wenn die Spot-Kapazität schwankt.

Durch das Ausführen der Ressourcen Ihrer Anwendung in verschiedenen Spot-Instance-Pools können Sie mit der Zeit auch die Betriebskosten Ihrer Flotte weiter reduzieren. Weitere Informationen finden Sie im Amazon EC2 User Guide.

F: Kann ich eine Spot-Instance-Flottenanforderung durch Tags kennzeichnen?

In Ihrer Spot-Instance-Flottenanforderung können Sie den Start von Spot-Instances mit Tags anfordern. Die Flotte selbst kann nicht durch Tags kennzeichnet werden.

F: Wo kann ich nachsehen, zu welcher Spot-Instance-Flotte meine Spot-Instances gehören?

Sie können die Ihrer Spot-Instance-Flotte zugeordneten Spot-Instances in der Beschreibung Ihrer Flottenanforderung identifizieren. Flottenanforderungen bleiben nach Beenden aller entsprechenden Spot-Instances noch 48 Stunden lang verfügbar. Informationen zur Beschreibung Ihrer Spot-Instance-Flottenanforderung finden Sie im Amazon EC2-Benutzerhandbuch.

F: Kann ich eine Spot-Instance-Flottenanforderung ändern?

Ja. Sie können die Zielkapazität Ihrer Spot-Instance-Flottenanforderung ändern. Möglicherweise müssen Sie die Anfrage abbrechen und eine neue einreichen, um die Änderung anderer Konfigurationsparameter zu beantragen.

F: Kann ich für jeden Instance-Typ, den ich verwenden möchte, ein anderes AMI festlegen?

Ja. Geben Sie dazu einfach das gewünschte AMI in jeder Startspezifikation an, die Sie mit Ihrer Spot-Instance-Flottenanforderung bereitstellen.

F: Kann ich eine Spot-Instance-Flotte mit Elastic Load Balancing, Auto Scaling oder Elastic MapReduce verwenden?

Auch für eine Spot-Instance-Flotte können Sie Auto Scaling-Funktionen verwenden, beispielsweise für die Zielverfolgung, Zustandsprüfungen, CloudWatch-Metriken und dergleichen mehr, und auch hier können Sie Instances an Ihre klassischen oder für bestimmte Anwendungen vorgesehenen Elastic Load Balancer anhängen. Elastic MapReduce enthält ein Feature mit der Bezeichnung "Instance-Flotten", das ähnliche Möglichkeiten bietet wie Spot-Instance-Flotten.

F: Werden Spot-Instances von einer Spot-Instance-Flottenanforderung beendet, wenn sie nicht mehr in den günstigsten Spot-Instance-Pools laufen, und danach aus den günstigsten Pools neu gestartet?

Nein. Spot-Instance-Flottenanforderungen beenden und starten Instances während der Ausführung nicht automatisch neu. Wenn Sie jedoch eine Spot-Instance beenden, tauscht die Spot-Instance-Flotte die bisherige Instance durch eine neue Spot-Instance aus dem zum jeweiligen Zeitpunkt günstigsten Pool aus.

F: Bieten Spot-Instance-Flotten eine Stopp- bzw. Ruhezustandsfunktion?

Ja. "Stop-Start" (Stoppen/Starten) und "Hibernate-Resume" (In den Ruhezustand versetzen/Wiederaufnehmen) werden von Spot-Instance-Flotten unterstützt, wenn die Flottenoption "Maintain" (Verwalten) aktiviert ist.


 

F: Wie viel Rechenleistung bieten Micro-Instances?

Micro Instances bieten geringe konsistente CPU-Ressourcen und ermöglichen die Erweiterung Ihrer CPU-Kapazität auf bis zu 2 ECUs, sofern zusätzliche Cycles verfügbar sind. Sie eignen sich hervorragend für Anwendungen mit geringerem Durchsatz und Websites, die signifikante Compute Cycles periodisch durchführen, jedoch geringe CPU-Ressourcen für Hintergrundprozesse, Daemons etc. benötigen. Weitere Informationen über diesen Instance-Typ.

F: Wie viel Rechenleistung bietet eine Micro-Instance im Vergleich zu einer Standard Small Instance?

Im Dauerzustand erreichen Micro-Instances einen Bruchteil der Rechenressourcen, die Small Instances erreichen können. Falls Ihre Anwendung also im Dauerzustand laufen muss oder verarbeitungsintensiv ist, empfehlen wir den Einsatz von Small Instances (oder größer, je nach Bedarf). Micro-Instances können jedoch periodisch um bis zu 2 ECUs erweitert werden (für kurze Zeitperioden). Dies ist die doppelte Anzahl an ECUs verglichen mit einer Standard Small Instance. Falls Sie also über eine Anwendung oder Website mit relativ geringem Durchsatz verfügen und gelegentlich Bedarf an Kapazitätsspitzen haben, empfehlen wir die Verwendung von Micro-Instances.

F: Wie erkenne ich, dass eine Anwendung mehr CPU-Ressourcen benötigt als eine Micro-Instance bereitstellt?

Die CloudWatch-Metrik für die CPU-Auslastung zeigt in der von CloudWatch überprüften Minute 100 % an, wenn die Instance so weit ausgelastet ist, dass die verfügbaren CPU-Ressourcen eingesetzt werden müssen. Wenn CloudWatch eine 100%ige Auslastung der CPU meldet, sollten Sie eine Skalierung – manuell oder über Auto Scaling – vertikal auf einen größeren Instance-Typ oder horizontal auf mehrere Micro-Instances erwägen.

F: Sind alle Funktionen von Amazon EC2 für Micro-Instances verfügbar?

Derzeit steht Amazon DevPay für Micro-Instances nicht zur Verfügung.


F: Wann sollte ich für Datenverarbeitung optimierte Instances nutzen?

Für Datenverarbeitung optimierte Instances eignen sich besonders für Anwendungen, die eine hohe Rechenleistung benötigen. Dazu gehören rechenintensive Anwendungen, wie z. B. Hochleistungs-Webserver, High Performance Computing (HPC), wissenschaftliche Modellierung, Distributed Analytics und Machine Learning Inference.

F: Kann ich C4-Instances als für Amazon EBS optimierte Instances starten?

Jeder C4-Instance-Typ ist standardmäßig für EBS optimiert. C4-Instances bieten EBS Verbindungen mit 500 Mbit/s bis 4 000 Mbit/s zusätzlich zum der Instance im Netzwerk bereitgestellten Durchsatz. Da diese Funktion für C4-Instances stets aktiviert ist, wirkt sich das explizite Starten einer C4- Instance als für EBS optimiert nicht auf das Verhalten der Instance aus.

F: Wie kann ich die für c4.8xlarge-Instances verfügbare Funktion zum Steuern des Prozessstatus nutzen?

Der Instance-Typ c4.8xlarge bietet einem Betriebssystem die Möglichkeit, die Prozessstatus C und P zu steuern. Diese Funktion ist derzeit nur für Linux-Instances verfügbar. Sie können die Einstellungen für die Status C oder P ändern, um die Einheitlichkeit der Prozessorleistung zu erhöhen, die Latenz zu verkürzen oder Ihre Instance für eine bestimmte Verarbeitungslast zu optimieren. Amazon Linux bietet standardmäßig die Konfiguration mit der höchsten Leistung, die für die meisten Verarbeitungslasten von Kunden optimal ist. Wenn Ihre Anwendung allerdings von einer kürzeren Latenz auf Kosten höherer Einzel- oder Doppelkern-Prozessorfrequenzen oder von einer stetigen Leistung bei niedriger Frequenz im Gegensatz zu Turbo-Frequenzen profitieren würde, sollten Sie das Experimentieren mit den Konfigurationsoptionen für die Status C oder P erwägen, die für diese Instances zur Verfügung stehen. Weitere Informationen zu dieser Funktion finden Sie im Amazon EC2 Benutzerhandbuch im Abschnitt Processor State Control.

F: Welche Instances sind innerhalb der Kategorie der für Datenverarbeitung optimierte Instances verfügbar?

C5-Instances: C5-Instances sind die aktuelle Generation der für Datenverarbeitung optimierten EC2-Instances. C5-Instances basieren auf Intel Xeon Platinum Prozessoren (Teil der skalierbaren Intel Xeon-Prozessorfamilie [Codename Skylake-SP]), sind in 6 Größen verfügbar und bieten bis zu 72 vCPUs und 144 GiB Speicher. C5-Instances bieten gegenüber C4-Instances ein um 25 % Preis-Leistungs-Verhältnis.

C4-Instances: C4-Instances basieren auf den Intel Xeon E5-2666 v3 Prozessoren (Codename Hell). C4-Instances sind in 5 Größen verfügbar und bieten bis zu 36 vCPUs und 60 GiB Speicher.

F: Sollte ich meine Verarbeitungslasten von C3- oder C4-Instances auf C5-Instances verschieben?

Die höhere Leistung der neuen CPU-Generation und der geringere Preis von C5-Instances – wodurch sich ein um 25 % Preis-Leistungs-Verhältnis gegenüber C4-Instances ergibt – bieten für eine breite Palette an Verarbeitungslasten, die aktuell auf C3- oder C4-Instances ausgeführt werden, zahlreiche Vorteile. Für Fließkomma-intensive Anwendungen ermöglicht Intel AVX-512 durch die effektive Extraktion der Parallelität der Datenebene signifikante Verbesserungen hinsichtlich der bereitgestellten TFLOPS. Kunden, die zum Rendern von Grafiken und HPC-Verarbeitungslasten, die mit GPUs oder FPGAs beschleunigt werden können, absolute Leistung benötigen, sollten sich auch die anderen Instance-Familien im Amazon EC2-Portfolio anschauen, die diese Ressourcen enthalten, um so die ideale Instance für ihre Verarbeitungslasten zu finden.

F: Welche Betriebssysteme/AMIs werden auf C5-Instances unterstützt?

EBS-gestützte HVM-AMIs, die ENA-Networking und das Booten von einem NVMe-basierten Speicher unterstützen, können in Kombination mit C5-Instances verwendet werden. Die folgenden AMIs werden auf C5-Instances unterstützt:

  • Amazon Linux 2014.03 oder neuer
  • Ubuntu 14.04 oder neuer
  • SUSE Linux Enterprise Server 12 oder neuer
  • Red Hat Enterprise Linux 7.4 oder neuer
  • CentOS 7 oder neuer
  • Windows Server 2008 R2
  • Windows Server 2012
  • Windows Server 2012 R2
  • Windows Server 2016
  • FreeBSD 11.1-VERSION

Für eine optimale lokale NVMe-basierte SSD-Speicherleistung auf C5d wird Linux-Kernel Version 4.9 oder höher empfohlen.

F: Welche Speicheroptionen gibt es für C5-Kunden?

C5-Instances verwenden zum Speichern EBS-Volumens, sind standardmäßig EBS-optimiert und bieten einen Durchsatz von bis zu 9 Gbit/s für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. Die C5-Instances greifen über NVM Express (NVMe)-Schnittstellen mit PCI auf EBS-Volumes zu. NVMe ist eine effiziente und skalierbare Speicherschnittstelle, die häufig für Flash-basierte SSDs verwendet wird, wie z. B. der bei I3-Instances bereitgestellte NVMe-Speicher. Eine NVMe-Schnittstelle bietet zwar gegenüber paravirtualisierten Xen-Blockgeräten eine geringere Latenz, wird die Schnittstelle aber zum Zugriff auf EBS-Volumes verwendet, werden die Gesamtlatenz und der Durchsatz des Volume vom Typ und der Größe des Volume und den bereitgestellten IOPS (falls zutreffend) bestimmt. Wenn NVME zur Bereitstellung von EBS-Volumes verwendet wird, werden diese per PCI-Hotplug an- und abgehängt.

F: Welche Netzwerkschnittstelle wird auf C5-Instances unterstützt?

C5-Instances verwenden den Elastic Network Adapter (ENA) für das Netzwerk und ermöglichen standardmäßig Enhanced Networking. Mit ENA sind bis zu 25 Gbit/s an Netzwerkbandbreite für C5-Instances möglich.

F: Welche Speicherschnittstelle wird auf C5-Instances unterstützt?

C5-Instances unterstützen nur NVMe EBS-Gerätemodelle. An C5-Instances angehängte EBS-Volumes werden als NVMe-Geräte angezeigt. NVME ist eine moderne Speicherschnittstelle, die die Latenz reduziert und einen höheren E/A-Wert der Festplatte und mehr Durchsatz ermöglicht.

F: Wie viele EBS-Volumes können an C5-Instances angehängt werden?

C5-Instances unterstützten betriebssystemübergreifend maximal 27 EBS-Volumes. Dieser Wert gilt auch für ENI-Anhänge. Informationen dazu finden Sie hier: http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-eni.html. Beispiel: Da jede Instance mindestens 1 ENI besitzt, können Sie bei 3 zusätzlichen ENI-Anhängen an c4.2xlarge 24 EBS-Volumes an diese Instance anhängen.

F: Welcher zugrunde liegende Hypervisor wird bei C5-Instances verwendet?

C5-Instances verwenden einen neuen EC2-Hypervisor, der auf Kern-KVM-Technologie basiert.

F: Wieso stimmt der von Linux kommunizierte Gesamtspeicher nicht mit dem für den Istance-Typ C5 beworbenen Gesamtspeicher überein?

Im C5 sind Teile des Gesamtspeichers für eine Instance für die Nutzung durch das Betriebssystem reserviert, einschließlich der Bereiche, die vom virtuellen BIOS für Aspekte wie ACPI-TAbellen und das virtuelle Video-RAM genutzt werden.


F: Was sind Accelerated Computing-Instances?

Die Produktreihe der Accelerated Computing-Instances greift zur Ausführung bestimmter Funktionen auf Hardware-Accelerators (Co-Prozessoren) zurück. So lassen sich zum Beispiel die Grafikverarbeitung oder die Berechnung von Fließkommazahlen weitaus effizienter durchführen als mit auf CPUs laufender Software. Amazon EC2 bietet drei Typen von Accelerated Computing-Instances: GPU Compute-Instances für allgemeine Computing-Anforderungen, GPU Graphics-Instances für grafikintensive Anwendungen und FPGA Compute-Instances mit programmierbarer Hardware für erweiterte wissenschaftliche Arbeitslasten.

F: Für welchen Verwendungszweck bieten sich GPU Graphics- und Compute-Instances an?

GPU-Instances eignen sich am besten für Anwendungen mit massiver Parallelverarbeitung, beispielsweise für Verarbeitungslasten mit Tausenden von Threads. Die Grafikverarbeitung ist ein Beispiel mit enormen Rechenanforderungen, bei der jede der Aufgaben relativ klein ist, die Menge der erfolgten Operationen eine Pipeline bilden und der Durchsatz dieser Pipeline wichtiger als die Latenz der einzelnen Operationen ist. Zur Entwicklung von Anwendungen, die eine derart intensive Parallelverarbeitung nutzen, sind spezifische Kenntnisse über das GPU-Gerät erforderlich. Der Entwickler muss also zum Beispiel wissen, wie die Programmierung bei verschiedenen Grafik-APIs (DirectX, OpenGL) oder GPU-Rechenprogrammierungsmodellen (CUDA, OpenCL) erfolgen muss.

F: Worin unterscheiden sich P3-Instances von G3-Instances?

P3-Instances der neuesten Generation mit einer Leistung von bis zu 8 NVIDIA Tesla V100-GPUs bilden die nächste Generation der universalen EC2 GPU Computing-Instances. Diese neuen Instances heben Performance und Skalierbarkeit auf ein völlig neues Niveau und fügen zahlreiche neue Funktionen wie eine Streaming Multiprocessor (SM)-Architektur für die Leistungsoptimierung von Machine Learning (ML) und Deep Learning (DL), einen Hochgeschwindigkeits-NVIDIA-NVLink-GPU-Interconnect der zweiten Generation sowie einen hochgradig optimierten HBM2-Speicher für höchste Effizienz hinzu.

G3-Instances arbeiten mit NVIDIA Tesla M60-GPUs und bieten eine leistungsstarke Plattform für Grafikanwendungen unter Verwendung von DirectX oder OpenGL. NVIDIA Tesla M60-GPUs unterstützen NVIDIA GRID Virtual Workstation-Funktionen und H.265 (HEVC)-Hardwarecodierung. Jede M60-GPU in G3-Instances unterstützt 4 Monitore mit Auflösungen von bis zu 4096x2160 und ist für die Verwendung von NVIDIA GRID Virtual Workstation für genau einen gleichzeitig verbundenen Benutzer lizenziert. Beispielanwendungen für G3-Instances sind etwa 3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Verarbeitungslasten.

F: Welche Vorteile bieten NVIDIA Volta GV100-GPUs?

Der neue NVIDIA Tesla V100-Accelerator beinhaltet die leistungsstarke neue Volta GV100-GPU. GV100 trägt nicht nur die Vorteile seines Vorgängers, der Pascal GP100-GPU weiter, sondern fügt neben einer erheblichen Verbesserung der Leistung und Skalierbarkeit auch zahlreiche neue Funktionen hinzu, die die Programmierung erleichtern. Diese Vorteile helfen Ihnen, Ihre HPC-, Rechenzentrum-, Supercomputer- und Deep-Learning-Systeme und -Anwendungen enorm zu optimieren.

F: Wer profitiert von P3-Instances?

Von P3-Instances mit ihrer hohen Rechenleistung profitieren besonders Benutzer von Anwendungen der Bereiche Artificial Intelligence (AI), Machine Learning (ML), Deep Learning (DL) und High Performance Computing (HPC). Diese Instances richten sich also insbesondere an Benutzer wie Datenwissenschaftler, Datenarchitekten, Datenanalysten, wissenschaftliche Forscher, ML-Engineers, IT-Manager und Softwareentwickler. Zu den wichtigsten Branchen zählen Transport, Strom- und Energieversorgung, Finanzdienstleistungen (Banken und Versicherungen), Gesundheitswesen, Pharmazie, Wissenschaften, IT, Einzelhandel, Produktion, High-Tech, Regierungen und Behörden, Universitäten und dergleichen mehr.

F: Was sind typische Anwendungsfälle für P3-Instances?

P3-Instances verwenden GPUs zur Beschleunigung der verschiedensten Deep-Learning-Systeme und -Anwendungen in Bereichen wie Entwicklung autonomer Fahrzeuge, Sprach-, Bild- und Texterkennung, intelligente Videoanalytik, Molekularsimulation, Arzneimittelforschung, Krankheitsdiagnose, Wetterprognose, Big Data-Analytik, Finanzmodellierung, Robotik, Fertigungsautomation, Echtzeit-Sprachübersetzung, Online-Suchoptimierungen, personalisierte Benutzerempfehlungen und dergleichen mehr.

F: Warum empfehlen sich für AI/ML und HPC GPU-gestützte Amazon P3-Instances?

GPU-basierte Compute-Instances bieten aufgrund ihres Designs einer massiv parallelen Verarbeitung durch tausende spezialisierte Kerne pro GPU einen größeren Durchsatz und mehr Leistung als CPUs, die aufgrund ihrer wenigen Kerne nur eine sequentielle Verarbeitung erlauben. Darüber hinaus gibt es bereits Hunderte GPU-optimierte wissenschaftliche HPC-Anwendungen in Bereichen wie Quantenchemie, Molekulardynamik, Meteorologie und vielem mehr. Studienergebnisse lassen darauf schließen, dass 70 % der heute gängigen HPC-Anwendungen GPUs bereits intern unterstützen.

F: Unterstützen P3-Instances EC2 Classic-Networking und Amazon VPC?

P3-Instances unterstützen nur VPC.

F: Worin unterscheiden sich G3-Instances von P2-Instances?

G3-Instances arbeiten mit NVIDIA Tesla M60-GPUs und bieten eine leistungsstarke Plattform für Grafikanwendungen unter Verwendung von DirectX oder OpenGL. NVIDIA Tesla M60-GPUs unterstützen NVIDIA GRID Virtual Workstation-Funktionen und H.265 (HEVC)-Hardwarecodierung. Jede M60-GPU in G3-Instances unterstützt 4 Monitore mit Auflösungen von bis zu 4096x2160 und ist für die Verwendung von NVIDIA GRID Virtual Workstation für genau einen gleichzeitig verbundenen Benutzer lizenziert. Beispielanwendungen für G3-Instances sind etwa 3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Verarbeitungslasten.

P2-Instances nutzen NVIDIA Tesla K80 GPUs und sind auf allgemeine GPU-Berechnungen mit den Programmierungsmodellen CUDA und OpenCL ausgelegt. P2-Instances bieten hohe Datenübertragungsgeschwindigkeiten von bis zu 25 Gbit/s, leistungsstarke einfach und doppelt genaue Gleitkommaoperationen und EEC-Speicher (Error-Correcting Code, Fehlerkorrekturkode). Damit eignen sie sich ideal für vertiefte Lernerfahrungen, Hochleistungsdatenbanken, numerische Strömungsmechanik, Finanzanwendungen, seismische Analysen, molekulare Modellierung, Genomforschung, Rendering und andere serverseitige GPU-Verarbeitungs-Workloads.

F: Worin unterscheiden sich P3-Instances von G2-Instances?

P3-Instances der neuesten Generation mit einer Leistung von bis zu 8 NVIDIA Volta GV100-GPUs bilden die nächste Generation der universalen EC2 GPU Computing-Instances. Diese neuen Instances heben Performance und Skalierbarkeit auf ein völlig neues Niveau und fügen zahlreiche neue Funktionen wie eine Streaming Multiprocessor (SM)-Architektur für ein leistungsoptimiertes Machine Learning (ML) und Deep Learning (DL), einen Hochgeschwindigkeits-NVIDIA-NVLink-GPU-Interconnect der zweiten Generation sowie einen hochgradig optimierten HBM2-Speicher für höchste Effizienz hinzu.

P2-Instances nutzen NVIDIA Tesla K80 GPUs und sind auf allgemeine GPU-Berechnungen mit den Programmierungsmodellen CUDA und OpenCL ausgelegt. P2-Instances bieten Kunden eine hohe Netzwerkbandbreite von 25 Gbit/s, Fließkommafunktionen mit einfacher und doppelter Genauigkeit und Arbeitsspeicher für Fehlerkorrekturcode (ECC).

F: Welche APIs und Programmiermodelle werden von GPU Graphics- und Compute-Instances unterstützt?

P3-Instances unterstützen CUDA 9 und OpenCL, P2-Instances unterstützen CUDA 8 und OpenCL 1.2 und G3-Instances unterstützen DirectX 12, OpenGL 4.5, CUDA 8 und OpenCL 1.2.

F: Wo erhalte ich die NVIDIA-Treiber für P3- und G33-Instances?

Es gibt zwei Möglichkeiten zum Abrufen von NVIDIA-Treibern. Auf AWS Marketplace gibt es Listings, die Amazon Linux- und Windows Server-AMIs mit vorinstallierten NVIDIA-Treibern enthalten. Sie können auch 64-Bit-HVM-AMIs starten und die Treiber selbst installieren. Hierzu gehen Sie zur Website mit den NVIDIA-Treibern und suchen dort nach NVIDIA Tesla V100 (für P3-Instances), nach NVIDIA Tesla K80 (für P2-Instances) bzw. nach NVIDIA Tesla M60 (für G3-Instances).

F: Welche AMIs kann ich mit P3-, P2- und G3-Instances verwenden?

Sie können derzeit Windows Server-, SUSE Enterprise Linux-, Ubuntu- und Amazon Linux-AMIs mit P3- und G2-Instances verwenden. P3-Instances unterstützen nur HVM-AMIs. Falls Sie AMIs mit Betriebssystemen starten möchten, die hier nicht aufgeführt sind, richten Sie eine Anfrage an den Kunden-Support oder konsultieren Sie die EC2-Foren.

F: Sind für die Nutzung von G2- und G3-Instances Lizenzen anderer Anbieter erforderlich?

Abgesehen von den NVIDIA-Treibern und dem GRID SDK sind bei Nutzung von G2- und G3-Instances nicht unbedingt Lizenzen anderer Anbieter erforderlich. Sie müssen allerdings feststellen, ob Ihre auf G2- und G3-Instances verwendeten Inhalte oder Technologien eine zusätzliche Lizenzierung erfordern. Wenn Sie beispielsweise Inhalte streamen, benötigen Sie ggf. Lizenzen für einen Teil der bzw. die gesamten Inhalte. Wenn Sie Drittanbieter-Technologien wie Betriebssysteme, Audio- und/oder Videocodierer und -decodierer von Microsoft, Thomson, Fraunhofer IIS, Sisvel S.p.A., MPEG-LA oder Coding Technologies nutzen, erkundigen Sie sich bei diesen Anbietern, ob eine Lizenz erforderlich ist. Wenn Sie beispielsweise den integrierten H.264-Videocodierer der NVIDIA GRID-GPU nutzen, wenden Sie sich zwecks Unterstützung an MPEG-LA. Bei Verwenden von MP3-Technologie sollten Sie sich zwecks Unterstützung an Thomson wenden.

F: Warum erhalte ich keine NVIDIA GRID-Funktionen auf G3-Instances, wenn ich den von der NVIDIA-Website heruntergeladenen Treiber verwende?

Die in G3-Instances verwendete NVIDIA Tesla M60-GPU erfordert einen speziellen NVIDIA GRID-Treiber, um alle erweiterten Grafikfunktionen und die Unterstützung für 4 Monitore mit einer Auflösung von bis zu 4096x2160 zu aktivieren. Sie müssen ein AMI mit vorinstalliertem NVIDIA GRID-Treiber verwenden oder den NVIDIA GRID-Treiber gemäß der AWS-Dokumentation herunterladen und installieren.

F: Warum kann ich die GPU bei Verwenden von Microsoft Remotedesktop nicht sehen?

Bei Verwenden von Remotedesktop werden GPUs, die das WDDM-Treibermodell verwenden, durch einen nicht beschleunigten Anzeigetreiber für Remotedesktop ersetzt. Um auf Ihre GPU-Hardware zugreifen zu können, müssen Sie ein anderes Tool für den Fernzugriff nutzen, z. B. VNC.

F. Was ist Amazon EC2 F1?

Amazon EC2 F1 ist eine Berechnungs-Instance mit programmierbarer Hardware, die Sie zur Anwendungsbeschleunigung verwenden können. Der neue Instance-Typ F1 bietet hohe Leistung, sowie einfachen Zugriff auf FGPA für die Entwicklung und Bereitstellung angepasster Hardwarebeschleunigung.

F. Was sind FPGAs und wofür werden sie benutzt?

FPGAs sind programmierbare integrierte Schaltkreise, die Sie mithilfe von Software konfigurieren können. Mit FPGAs können Sie Ihre Anwendungen im Vergleich zu Servern, die nur CPUs verwenden, bis zum 30-fachen beschleunigen. Und FGPAs können erneut programmiert werden, sodass Sie die Flexibilität haben, Ihre Hardwarebeschleunigung zu aktualisieren und zu optimieren, ohne die Hardware umkonfigurieren zu müssen.

F. wie unterscheidet sich F1 von herkömmlichen FPGA-Lösungen?

F1 ist eine AWS-Instance mit programmierbarer Hardware für die Anwendungsbeschleunigung. Mit F1 erhalten Sie durch wenige einfache Klicks Zugriff auf FPGA-Hardware, wodurch die Zeit und die Kosten für einen vollen Zyklus der FGPA-Entwicklung und der Skalierung von Bereitstellungen von Monaten oder Jahren auf Tage reduziert wird. Während die FGPA-Technologie seit Jahrzehnten verfügbar ist, war die Anwendungsbeschleunigung weniger erfolgreich, sowohl bei der Entwicklung von Accelerators als auch beim Geschäftsmodell des Vertriebs angepasster Hardware für traditionelle Unternehmen. Der Grund dafür war der Aufwand für Zeit und Kosten für Entwicklungsinfrastruktur, Hardwaredesign und größenangepasste Bereitstellung. Mit der Annahme dieses Angebots vermeiden Kunden die undifferenzierten schwierigen Vorgänge in Verbindung mit der Entwicklung von FGPAs in Rechenzentren vor Ort.

Q: Was ist ein Amazon FPGA Image (AFI)?

Das Design, das Sie zum Programmieren des FPGA erstellen, wird als Amazon FPGA Image (AFI) bezeichnet. AWS stellt einen Service zum Registrieren, Verwalten, Kopieren, Abfragen und Löschen von AFIs bereit. Nach der Erstellung eines AFI kann es auf eine ausgeführte F1-Instance geladen werden. Sie können mehrere AFIs in die gleiche F1-Instance laden und zur Laufzeit ohne Neustart zwischen den verschiedenen AFIs wechseln. Dadurch können Sie rasch mehrere Hardwarebeschleunigungen in schneller Folge testen und ausführen. Außerdem können Sie anderen Kunden auf dem AWS Marketplace eine Kombination aus FPGA-Beschleunigung und einem AMI mit benutzerdefinierter Software oder AFI-Treibern anbieten.

F: Wie liste ich meine Hardwarebeschleunigung auf dem AWS Marketplace auf?

Sie entwickeln Ihr AFI und die Softwaretreiber/-tools zum Verwenden dieser AFI. Dann packen Sie diese Softwaretools/-treiber in einem verschlüsselten Format in ein Amazon Machine Image (AMI). AWS verwaltet alle AFIs im von Ihnen bereitgestellten verschlüsselten Format, um die Sicherheit Ihres Codes beizubehalten. Um ein Produkt auf dem AWS Marketplace zu verkaufen, müssen Sie oder Ihr Unternehmen sich als AWS Marketplace-Wiederverkäufer registrieren. Dann übermitteln Sie Ihre AMI-ID und die AFI-ID(s), die in ein einzelnes Produkt gepackt werden sollen. AWS Marketplace übernimmt das Klonen des AMI und der AFIs, um ein Produkt zu erstellen, und weist diesen Artefakten einen Produkt-Code zu, sodass jeder Endbenutzer, der diesen Produkt-Code abonniert, Zugriff auf dieses AMI und diese AFIs hat.

F: Was ist mit F1-Instances verfügbar?

Für Entwickler bietet AWS ein Hardware Development Kit (HDK) für das Beschleunigen von Entwicklungszyklen, ein FPGA Developer AMI für das Entwickeln in der Cloud, ein SDK für AMIs, die die F1-Instance ausführen, sowie eine Reihe von APIs zum Registrieren, Verwalten, Kopieren, Abfragen und Löschen von AFIs. Sowohl Entwickler als auch Kunden haben Zugang auf den AWS Marketplace, auf dem AFIs für die Verwendung in Anwendungsbeschleunigungen angeboten und gekauft werden können.

F. Muss ich ein FPGA-Experte sein, um eine F1-Instance verwenden zu können?

AWS-Kunden, die ein F1-optimiertes AMI vom AWS Marketplace abonniert haben, brauchen überhaupt nichts über FPGAs zu wissen, um die Beschleunigungen durch die F1-Instance und den AWS Marketplace nutzen zu können. Sie abonnieren einfach ein F1-optimiertes AMI vom AWS Marketplace mit einer Beschleunigung, die zur Arbeitslast passt. Das AMI enthält sämtliche Software, die für die FGPA-Beschleunigung erforderlich ist. Die Kunden brauchen lediglich Software für die spezielle API für den Accelerator zu erstellen und können ihn dann benutzen.

F. Ich bin ein FPGA-Entwickler. Wie kann ich mit F1-Instances beginnen?

Entwickler können mit der F1-Instance beginnen, in dem sie AWS-Konto erstellen und das AWS Hardware Development Kit (HDK) herunterladen. Das HDK umfasst Dokumentation zu F1, interne FPGA-Schnittstellen und Compiler-Skripte zum Generieren des AFI. Entwickler können ihren FGPA-Code für die dokumentierten Schnittstellen schreiben, die im HDK zum Erstellen der Beschleunigungsfunktion enthalten sind. Entwickler können AWS-Instances mit dem FPGA Developer AMI starten. Dieses AMI enthält die Entwicklung-Tools, die zum Kompilieren und Simulieren des FPGA-Codes erforderlich sind. Das Developer AMI wird am besten auf den neuesten C5-, M5- oder R4-Instances ausgeführt. Entwickler sollten Erfahrung mit den Programmiersprachen haben, die zum Erstellen des FPGA-Codes (beispielsweise Verilog oder VHDL) verwendet werden, und den Vorgang verstehen, den sie beschleunigen möchten.

F. Ich bin kein FPGA-Entwickler. Wie kann ich mit F1-Instances beginnen?

Kunden können mit F1-Instances beginnen, indem Sie einen Accelerator vom AWS Marketplace auswählen und eine F1-Instance mit diesem AMI starten. Das AMI enthält sämtliche Software und alle APIs für diesen Accelerator. AWS verwaltet das Programmieren des FPGA mit dem AFI für diesen Accelerator. Kunden benötigen weder Erfahrung noch Kenntnisse zum FGPA, um diese Accelerators nutzen zu können. Sie können vollständig auf der Softwareebene der API für diesen Accelerator arbeiten.

F. Bietet AWS ein Developer Kit an?

Ja. Das Hardware Development Kit (HDK) enthält Simulation-Tools und Simulationsmodelle, mit denen Entwickler ihren Beschleunigungskode simulieren, debuggen, erstellen und registrieren können. Das HDK enthält Code-Beispiele, Kompilierungs-Skripte, Debug-Schnittstellen und viele weitere Tools, die Sie zum Entwickeln des FPGA-Codes für Ihre F1-Instances benötigen. Sie können das HDK entweder im von AWS bereitgestellten AMI oder in Ihrer Entwicklungsumgebung vor Ort verwenden. Diese Modelle und Skripte sind in einem AWS-Konto erhältlich.

F: Kann ich das HDK in meiner lokalen Entwicklungsumgebung verwenden?

Ja. Sie können das Hardware Development Kit (HDK) entweder in einem von AWS bereitgestellten AMI oder in Ihrer lokalen Entwicklungsumgebung verwenden.

F. Kann ich ein FPGA zu jedem EC2-Instance-Typ hinzufügen?

Nein. F1-Instances werden heute in den beiden Instance-Größen f1.2xlarge und f1.16 xlarge angeboten. 


F: Was ist eine Cluster Compute Instance?

Cluster Compute Instances bieten umfangreiche CPU-Ressourcen sowie ein High-Performance-Netzwerk, wodurch Sie sich ideal für High Performance Compute (HPC)-Anwendungen und andere komplexe, netzwerkgebundene Anwendungen eignen. Cluster Compute Instances bieten ähnliche Funktionalität zu anderen Amazon EC2-Instances, wurden jedoch speziell für High-Performance-Netzwerkanwendungen entwickelt.

Die Amazon EC2 Cluster Placement-Gruppen-Funktionalität ermöglicht Nutzern die Gruppierung von Cluster Compute Instances in Clustern – dadurch erreichen Instances die Netzwerkleistung mit geringen Wartezeiten, die für die bei vielen HPC-Anwendungen eingesetzte eng gekoppelte Node-to-Node-Kommunikation erforderlich ist. Cluster Compute Instances bieten außerdem einen deutlich höheren Netzwerk-Durchsatz – sowohl innerhalb der Amazon EC2-Umgebung als auch im Internet. Aus diesem Grund sind diese Instances auch ideal für Kundenanwendungen geeignet, die netzwerkintensive Prozesse ausführen müssen.

Weitere Informationen zu diesem Instance-Typ für HPC-Anwendungen.

F: Von welcher Netzwerkleistung kann ich ausgehen, wenn ich Instances in einer Cluster-Placement-Gruppe starte?

Die von einer EC2-Instance in einer Cluster-Placement-Gruppe nutzbare Bandbreite richtet sich nach dem Instance-Typ und dessen Netzwerkleistung. Datenverkehr unter den Instances innerhalb derselben Region kann 5 Gbps für einfache Datenströme und bis zu 25 Gbps für mehrere Datenströme nutzen. Ausgewählte EC2 Instances können beim Start in einer Placement-Gruppe bis zu 10 Gbps für einfache Datenströme nutzen.

F: Was ist eine Cluster GPU-Instance?

Cluster GPU Instances stellen universale Grafikverarbeitungseinheiten (GPUs) mit einer verhältnismäßig hohen CPU- und einer erhöhten Netzwerkleistung für Anwendungen bereit, denen die weitgehend parallele Verarbeitung zugute kommt, die von den GPUs mit Hilfe der Programmiermodelle CUDA und OpenCL beschleunigt werden kann. Häufige Anwendungen sind Modellierung und Simulation, Rendering und Media-Processing.

Mit den Cluster GPU Instances steht Kunden mit HPC-Arbeitslasten neben Cluster Compute Instances für Anwendungen, die von der parallelen Rechenleistung von GPUs profitieren, eine zusätzliche Option zur weiteren Anpassung ihrer leistungsstarken Cluster in der Cloud zur Verfügung.

Cluster GPU Instances nutzen bei der Gruppierung der Instances in Cluster die gleiche Cluster-Placement-Gruppen-Funktionalität wie Cluster Compute Instances. Dadurch erreichen Instances die Netzwerkleistung mit geringen Wartezeiten und hoher Bandbreite, die für die bei vielen HPC-Anwendungen eingesetzte eng gekoppelte Node-to-Node-Kommunikation erforderlich ist.

Weitere Informationen zu HPC in AWS.

F: Was ist eine High Memory Cluster-Instance?

High Memory Cluster-Instances bieten Kunden neben einer hohen Netzwerkleistung sehr viel CPU- und Arbeitsspeicherkapazität pro Instance. Diese Instance-Typen sind ideal für arbeitsspeicherintensive Verarbeitungslasten, einschließlich speicherinterner Analysesysteme, Kurvenauswertung und vieler wissenschaftlicher und technischer Anwendungsbereiche.

High Memory Cluster-Instances nutzen bei Gruppierung der Instances in Clustern die gleiche Cluster-Placement-Gruppen-Funktionalität wie Cluster Compute-Instances. Dadurch erreichen Instances die Netzwerkleistung mit kurzer Latenz und hoher Bandbreite, die für die bei vielen HPC-Anwendungen erfolgende eng gekoppelte Kommunikation zwischen Netzwerkknoten und andere netzwerkintensive Anwendungen erforderlich ist.

F: Unterscheidet sich die Verwendung von Cluster Compute -Instances und Cluster GPU-Instances von anderen Amazon EC2-Instance-Typen?

Die Verwendung von Cluster Compute- und Cluster GPU-Instances unterscheidet sich in zwei Punkten von anderen Amazon EC2-Instance-Typen.

Erstens: Cluster Compute Instances und Cluster GPUs verwenden auf Hardware Virtual Machine (HVM) basierende Virtualisierung und verarbeiten ausschließlich Amazon Machine Images (AMIs), basierend auf HVM-Virtualisierung. Auf Paravirtual Machine (PVM) basierende AMIs, die mit anderen Amazon EC2-Instance-Typen verwendet werden, können nicht mit Cluster Compute Instances oder Cluster GPU Instances verwendet werden.

Zweitens: Um die Vorteile der geringen Wartezeiten und vollständigen Zweiteilung der Bandbreite zwischen den Instances voll auszunutzen, müssen Cluster Compute- und Cluster GPU-Instances in einer Cluster Placement-Gruppe über die Amazon EC2-API oder die AWS-Managementkonsole gestartet werden.

F: Was ist eine Cluster-Placement-Gruppe?

Eine Cluster-Placement-Gruppe ist eine logische Entität, die die Erstellung eines Clusters aus Instances ermöglicht, indem Instances als Teil einer Gruppe gestartet werden. Das Cluster aus Instances bietet dann Konnektivität mit niedrigen Latenzzeiten zwischen Instances in der Gruppe. Cluster-Placement-Gruppen werden über Amazon EC2 API oder die AWS-Managementkonsole erstellt.

F: Sind alle Funktionen von Amazon EC2 für Cluster Compute-Instances und Cluster GPU-Instances verfügbar?

Amazon DevPay steht derzeit nicht für Cluster Compute- oder Cluster GPU-Instances zur Verfügung.

F: Gibt es Beschränkungen hinsichtlich der Anzahl der Cluster Compute- oder Cluster GPU-Instances, die ich verwenden kann, und/oder der Größe des Clusters, den ich durch den Start von Cluster Compute- oder Cluster GPU-Instances in einer Cluster-Placement-Gruppe erstellen kann?

Für Cluster Compute-Instances gilt keine Begrenzung. Im Falle von Cluster GPU-Instances können Sie selbst zwei Instances starten. Wenn Sie weitere Instances benötigen, füllen Sie das Antragsformular für Amazon EC2-Instances aus. (Wählen Sie den geeigneten primären Instance-Typ.)

F: Kann die Wahrscheinlichkeit, die vollständige Anzahl an Instances zu erhalten, die ich für meinen Cluster über eine Cluster-Placement-Gruppe anfrage, optimiert werden?

Wir empfehlen, die Mindestanzahl an Instances, die für die Teilnahme am Cluster erforderlich sind, auf einmal zu starten. Zur Erstellung sehr großer Cluster sollten Sie mehrere Placement-Gruppen starten und kombinieren (z. B. zwei Placement-Gruppen mit 128 Instances), sodass ein größerer Cluster mit 256 Instances entsteht.

F: Können Cluster GPU- und Cluster Compute-Instances in einer einzigen Cluster-Placement-Gruppe gestartet werden?

Es können zwar verschiedene Cluster-Instance-Typen in einer einzelnen Placement-Gruppe gestartet werden, doch werden derzeit nur homogene Placement-Gruppen unterstützt.

F: Wenn eine Instance in einer Cluster-Placement-Gruppe gestoppt und anschließend neu gestartet wird, bleibt diese dann in der Cluster-Placement-Gruppe bestehen?

Ja. Eine gestoppte Instance wird als Teil der Cluster-Placement-Gruppe gestartet, derer Sie während des Stopps angehörte. Falls die Kapazität für einen Start innerhalb dessen Cluster-Placement-Gruppe nicht ausreicht, schlägt dieser fehl.



F: Was sind die primären Anwendungsfälle für Amazon EC2 M5-Instances?

M5-Instances sind eine gute Wahl für die Ausführung von Entwicklungs- und Testumgebungen, für Web-, mobile und Spielanwendungen sowie für Analyse- und geschäftskritische Anwendungen einschließlich ERP, HR, CRM und Collaboration-Anwendungen. Auch Kunden, die ihre datenintensiven Arbeitslasten (z. B. HPC- oder SOLR-Cluster) auf Instances mit großzügigem Arbeitsspeicher ausführen wollen, werden M5-Instances als gute Wahl begrüßen. Arbeitslasten mit umfangreichen Fließkomma-Operationen mit einfacher und doppelter Präzision und Vektorverarbeitung, ganz typisch für die Videoverarbeitung, sowie großen Arbeitsspeicheranforderungen profitieren erheblich von den in M5 unterstützten AVX-512-Anweisungen.

F: Weshalb sollte ich mich als Kunde für EC2 M5-Instances (anstatt EC2 M4-Instances) entscheiden?

Gegenüber EC2 M4-Instances bieten die neuen EC2 M5-Instances mehr Rechen- und Speicherleistung, größere Instances zu geringeren Kosten und mehr Konsistenz und Sicherheit. Der größte Vorteil sind jedoch die Intel Xeon Scalable-Prozessoren der neuesten Generation (Skylake), auf denen diese Instances aufsetzen und die gegenüber M4 eine Preis-/Leistungsverbesserung um bis zu 14 % bedeuten. Weiterhin erbringt die AVX-512-Unterstützung in M5 gegenüber dem älteren AVX2 von M4 die zweifache Leistung bei fließkomma-intensiven Arbeitslasten. M5-Instances bieten bis zu 25 Gbit/s Netzwerkbandbreite und bis zu 10 Gbit/s Bandbreite, die speziell für Amazon EBS reserviert ist. M5-Instances bieten bei kleineren Instances mit EBS-Bursting-Funktionalität auch eine wesentlich bessere Netzwerk- und Amazon EBS-Leistung.

F: Welchen Vorteil bietet Intel AVX-512 für Kunden von EC2 M5-Instances?

Intel Advanced Vector Extension 512 (AVX-512) ist ein Satz neuer CPU-Anweisungen der neuen Intel Xeon Scalable-Prozessoren, durch die sich die Leistung von Arbeitslasten und Anwendungen wie wissenschaftliche Simulationen, Finanzanalytik, künstliche Intelligenz, Machine Learning und Deep Learning, 3D-Modellierung und -Analyse, Bild- und Videoverarbeitung, Verschlüsselung und Datenkomprimierung und vielem mehr erheblich beschleunigt. Intel AVX-512 bietet eine außergewöhnlich leistungsstarke Verarbeitung von Verschlüsselungsalgorithmen, wodurch sich die Leistungsgrenzen der Kryptografie bedeutend verschieben. EC2 M5-Kunden können daher in ihren verteilten Umgebungen ohne Leistungseinbußen wesentlich mehr sichere Daten und Services bereitstellen.

F: Welche Speicheroptionen gibt es für M5-Kunden?

Als Speicher verwenden M5-Instances EBS-Volumes. Eine lokale Speicheroption gibt es für M5-Instances derzeit noch nicht.

F: Welche Netzwerkschnittstelle wird auf M5-Instances unterstützt?

M5-Instances unterstützen nur ENA-basiertes Enhanced Networking. Netback wird von M5-Instances nicht unterstützt. Mit ENA können M5-Instances innerhalb einer Placement-Gruppe bis zu 25 Gbit/s an Netzwerkbandbreite zwischen den Instances bereitstellen.

F: Welche Betriebssysteme/AMIs werden auf M5-Instances unterstützt?

EBS-gestützte HVM-AMIs, die ENA-Networking und das Booten von einem NVMe-basierten Speicher unterstützen, können in Kombination mit M5-Instances verwendet werden. Die folgenden AMIs werden auf M5-Instances unterstützt:

  • Amazon Linux 2014.03 oder neuer
  • Ubuntu 14.04 oder neuer
  • SUSE Linux Enterprise Server 12 oder neuer
  • Red Hat Enterprise Linux 7.4 oder neuer
  • CentOS 7 oder neuer
  • Windows Server 2008 R2
  • Windows Server 2012
  • Windows Server 2012 R2
  • Windows Server 2016
  • FreeBSD 11.1-VERSION

Für eine optimale lokale NVMe-basierte SSD-Speicherleistung auf M5d wird Linux-Kernel Version 4.9 oder höher empfohlen.

F: Welche Speicheroptionen gibt es für M5-Kunden?

M5-Instances verwenden zum Speichern EBS-Volumes, sind standardmäßig EBS-optimiert und bieten einen Durchsatz von bis zu 10 Gbit/s sowohl für verschlüsselte als auch für unverschlüsselte EBS-Volumes. Die M5-Instances greifen über NVM Express (NVMe)-Schnittstellen mit PCI auf EBS-Volumes zu. NVMe ist eine effiziente und skalierbare Speicherschnittstelle, die häufig für Flash-basierte SSDs verwendet wird, wie z. B. der bei I3-Instances bereitgestellte NVMe-Speicher. Eine NVMe-Schnittstelle bietet zwar gegenüber paravirtualisierten Xen-Blockgeräten eine geringere Latenz, wird die Schnittstelle aber zum Zugriff auf EBS-Volumes verwendet, werden die Gesamtlatenz und der Durchsatz des Volume vom Typ und der Größe des Volume und den bereitgestellten IOPS (falls zutreffend) bestimmt. Wenn NVME zur Bereitstellung von EBS-Volumes verwendet wird, werden diese per PCI-Hotplug an- und abgehängt.

F: Wie viele EBS-Volumes können an M5-Instances angehängt werden?

M5-Instances unterstützen bei allen Betriebssystemen maximal 27 EBS-Volumes. Dieser Wert gilt auch für ENI-Anhänge. Informationen dazu finden Sie hier: http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-eni.html. Beispiel: Da jede Instance über mindestens eine ENI verfügt, können Sie einer m4.2xlarge-Instance bei drei zusätzlichen ENI-Anhängen 24 EBS-Volumes anhängen.

F: Auf welchem Hypervisor werden M5-Instances ausgeführt?

M5-Instances verwenden den neuen, sehr kompakten Nitro-Hypervisor, der auf Kern-KVM-Technologie basiert.

F: Wieso stimmt der von Linux kommunizierte Gesamtspeicher nicht mit dem für den Instance-Typ M5 beworbenen Gesamtspeicher überein?

Bei M5-Instances ist ein Teil des Gesamtspeichers für das Betriebssystem wie auch für Bereiche reserviert, die vom virtuellen BIOS für ACPI-Tabellen und ähnlichem mehr bzw. für Einheiten wie das virtuelle Video-RAM genutzt werden.

F: Wodurch unterscheiden sich Instances mit Spitzenlastleistung?

Amazon EC2 bietet Ihnen die Wahl zwischen Instances mit gleichbleibender Leistung (z. B. Instances der Serien C, M und R) und Instances mit Spitzenlastleistung (z. B. T2). Instances mit Spitzenlastleistung bieten eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.

Bei T2-Instances werden die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten per CPU-Guthaben verwaltet. Jede T2-Instance fortlaufend CPU-Guthaben, deren Rate von der Instance-Größe abhängt. T2-Instances sammeln im Leerlauf CPU-Guthaben und verbrauchen CPU-Guthaben, wenn sie aktiv sind. Ein CPU-Guthaben stellt die Leistung eines gesamten CPU-Kerns für eine Minute zur Verfügung.

Modell

vCPUs

CPU-Guthaben/Stunde

Maximaler CPU-Guthabensaldo

CPU-Basisleistung

t2.nano 1 3 72 5 % eines Kerns

t2.micro

1

6

144

10 % eines Kerns

t2.small

1

12

288

20 % eines Kerns

t2.medium

2

24

576

40 % eines Kerns*

t2.large 2 36 864 60 % eines Kerns**

t2.xlarge

4

54

1.296

90 % eines Kerns***

t2.2xlarge

8

81

1.944

135 % eines Kerns****

* Bei t2.medium können Anwendungen mit Single-Thread-Verfahren 40 % eines Kerns nutzen. Falls erforderlich, können Anwendungen mit Multi-Thread-Verfahren je 20 % von zwei Kernen nutzen.

**Bei t2.large können Anwendungen mit Single-Thread-Verfahren 60 % eines Kerns nutzen. Falls erforderlich, können Anwendungen mit Multi-Thread-Verfahren je 30 % von zwei Kernen nutzen.

*** Bei t2.large können Anwendungen mit Single-Thread-Verfahren 90 % eines Kerns nutzen. Falls erforderlich, können Anwendungen mit Multi-Thread-Verfahren je 45 % von zwei Kernen oder je 22,5 % von allen vier Kernen nutzen.

**** Bei t2.large können Anwendungen mit Single-Thread-Verfahren einen Kern komplett nutzen. Falls erforderlich, können Anwendungen mit Multi-Thread-Verfahren je 67,5 % von zwei Kernen oder je 16,875 % von acht Kernen nutzen. 

F: Wie wähle ich für meine T2-Instances das richtige Amazon Machine Image (AMI) aus?

Sie sollten sicherstellen, dass die Mindestspeicheranforderungen Ihres Betriebssystems und Ihrer Anwendungen innerhalb der Arbeitsspeicherkapazität jeder T2-Instance liegen (z. B. 512 MiB für t2.nano). Betriebssysteme mit einer grafischen Benutzeroberfläche (GUI) verbrauchen sehr viel Speicher und CPU. Beispielsweise könnte Microsoft Windows eine t2.micro oder größere Instance-Größe für viele Anwendungsfälle benötigen. Für t2.nano-Instances geeignete AMIs finden Sie auf AWS Marketplace. Windows-Kunden, die die grafische Benutzeroberfläche nicht benötigen, können die Microsoft Windows Server 2012 R2 Core AMI verwenden.

F: Wann sollte ich eine Instance mit Spitzenlastleistung wie T2 wählen?

T2-Instances bieten eine kostengünstige Plattform für verschiedenste allgemeine Produktionsarbeitslasten. Die unbegrenzten T2-Instances gewährleisten Ihnen eine hohe CPU-Leistung, so lange Sie diese brauchen. Falls für Ihre Arbeitslasten dauerhaft eine CPU-Leistung weit über der Grundkapazität erforderlich ist, empfiehlt sich für Sie eventuell eine dedizierte CPU-Instance-Familie wie M oder C.

F: Wie kann ich den CPU-Guthabensaldo für die einzelnen T2-Instances anzeigen?

Sie können den CPU-Guthabensaldo für die einzelnen T2-Instances in der EC2-Instance-Metrik in Amazon CloudWatch anzeigen. Für T2-Instances werden vier Metriken erfasst: CPUCreditUsage, CPUCreditBalance, CPUSurplusCreditBalance und CPUSurplusCreditsCharged. CPUCreditUsage gibt den Betrag des verbrauchten CPU-Guthabens an. CPUCreditBalance gibt den Saldo des CPU-Guthabens an. CPUSurplusCreditBalance gibt das bei Kernleistung verbrauchte Guthaben ohne neu gewonnenes Guthaben an. CPUSurplusCreditsCharged gibt das belastete Guthaben an, wenn die durchschnittliche Nutzung die Grundkapazität übersteigt.

F: Was passiert mit der CPU-Leistung, wenn meine T2-Instance fast kein Guthaben mehr hat (CPU-Guthabensaldo nahe null)?

Wenn der CPU-Guthabensaldo Ihrer T2-Instance auf null sinkt, bleibt die Leistung auf der CPU-Basisleistung. t2.micro bietet beispielsweise eine CPU-Basisleistung von 10 % eines physischen CPU-Kerns. Wenn der CPU-Gutschriftssaldo Ihrer Instance gegen null geht, wird die CPU-Leistung über einen Intervall von 15 Minuten auf die Basisleistung gesenkt.

F: Bleibt der Guthabensaldo meiner T2-Instance bei einem Stopp und Start bestehen?

Nein, eine angehaltene Instance behält ihren bisherigen Guthabensaldo nicht.

F: Können T2-Instances als Reserved Instances oder Spot-Instances gekauft werden?

T2-Instances können als On-Demand-Instances, als Reserved Instances oder als Spot-Instances gekauft werden.


F: Was ist eine Dense-Storage-Instance?

Dense-Storage-Instances sind für Verarbeitungslasten konzipiert, die hohe sequenzielle Lese- und Schreibvorgänge in sehr großen Datenbeständen erfordern, etwa verteiltes Computing mit Hadoop, Data Warehouses mit massiver Parallelverarbeitung und Protokollverarbeitungsanwendungen. Die Dense-Storage-Instances bieten den besten Preis/Speicher-GB und Preis/Datenträgerdurchsatz gegenüber anderen EC2-Instances.

F: Worin besteht der Unterschied zwischen Dense- und HDD-Storage-Instances und High I/O-Instances? 

High I/O-Instances (I2) sind für Verarbeitungslasten vorgesehen, die niedrige Latenz und hohe Random-E/A-Leistung zusätzlich zu moderater Speicherdichte benötigen und liefern den besten Preis/IOPS im Vergleich zu anderen EC2-Instance-Typen. Dense (D2)- und HDD (H1)-Storage-Instances sind für Anwendungen optimiert, die hohen sequenziellen Lese-/Schreibzugriff und kostengünstige Speicherung für sehr große Datenbestände erfordern und bieten den besten Preis pro Speicher-GB und Preis/Datenträgerdurchsatz im Vergleich zu anderen EC2-Instances.

F: Wie viel Datenträgerdurchsatz können Dense- und HDD-Storage-Instances bereitstellen?

Die derzeit größte Generation der Dense-Storage-Instances, d2.8xlarge, kann bis zu 3,5 GBps Lese- und 3,1 GBps Schreib-Datenträgerdurchsätze mit einer Blockgröße von 2 MiB bereitstellen. Die größte H1-Instance, die h1.16xlarge, liefert einen Lese- und Schreibdurchsatz von bis zu 1,15 Gbit/s. Um die beste Datenträgerdurchsatz-Leistung unserer D2-Instances auf Linux zu gewährleisten, empfehlen wir, dass Sie die neueste Version von Amazon Linux AMI oder eine andere Linux AMI-Version mit einer Kernelversion von 3.8 oder höher verwenden, die persistente Zuweisungen zulässt – eine Erweiterung des Xen-Blockring-Protokolls, das Datenträgerdurchsatz und Skalierbarkeit signifikant verbessert.

F: Bieten Dense- und HDD-Storage-Instances Mechanismen für Failover oder Redundanz?

Die primäre Datenspeicherung bei Dense-Storage-Instances ist festplattenbasierte Instance-Speicherung. Wie alle Formen von Instance-Speichern bleiben diese Speicher-Volumes nur für die Lebensdauer einer Instance bestehen. Deshalb empfehlen wir, dass Sie einen Redundanzgrad (etwa RAID 1/5/6) oder Dateisysteme verwenden (etwa HDFS und MapR-FS), die Redundanz und Fehlertoleranz unterstützen. Für zusätzliche Datenbeständigkeit können Sie Ihre Daten auch regelmäßig auf dauerhafteren Datenspeicherlösungen sichern, wie etwa Amazon Simple Storage Service (S3) Weitere Details finden Sie in der Dokumentation zu Amazon S3.

F: Worin besteht der Unterschied zwischen Dense- und HDD-Storage-Instances und Amazon EBS?

Amazon EBS bietet einfache, elastische, zuverlässige (replizierte) und persistente Speicherung auf Blockebene für Amazon EC2, wobei von den zugrunde liegenden verwendeten Speichermedien abstrahiert wird. Der Amazon EC2-Instance-Speicher bietet direkt angehängte, nicht persistente Hochleistungs-Speicherungsblöcke, die für eine Vielzahl von Speicheranwendungen eingesetzt werden können. Dense-Storage-Instances richten sich insbesondere an Kunden, die hohen sequenziellen Lese-/Schreibzugriff auf große Datenbestände auf lokalem Speicher benötigen, etwa für verteiltes Computing mit Hadoop und Data Warehouses mit massiver Parallelverarbeitung.

F: Kann ich H1-Instances als für Amazon EBS optimierte Instances starten?

Jeder H1-Instance-Typ ist standardmäßig für EBS optimiert. H1-Instances bieten EBS Verbindungen mit 1 750 Mbit/s bis 14 000 Mbit/s zusätzlich zu dem von der Instance im Netzwerk bereitgestellten Durchsatz für allgemeine Zwecke. Da diese Funktionalität für H1-Instances generell aktiviert ist, wirkt sich das Starten einer H1-Instance mit expliziter Optimierung für EBS nicht auf das Verhalten der Instance aus.

F: Kann ich D2-Instances als für Amazon EBS optimierte Instances starten?

Jeder D2-Instance-Typ ist standardmäßig für EBS optimiert. D2-Instances bieten EBS Verbindungen mit 500 Mbit/s bis 4 000 Mbit/s zusätzlich zum von der Instance im Netzwerk bereitgestellten Durchsatz. Da diese Funktion für D2-Instances stets aktiviert ist, wirkt sich das explizite Starten einer D2-Instance als für EBS optimiert nicht auf das Verhalten der Instance aus.

F: Werden in EC2-Classic HDD-Storage-Instances angeboten?

Die aktuelle Generation der HDD-Storage-Instances (H1) kann nur in Amazon VPC ausgeführt werden. Amazon VPC bietet Ihnen eine Reihe von Funktionen, die nur auf der Amazon VPC-Plattform verfügbar sind: etwa die Aktivierung von Enhanced Networking, die Zuweisung mehrerer privater IP-Adressen für Ihre Instances oder die Änderung Ihrer Instance-Sicherheitsgruppen. Weitere Informationen zu den Vorteilen einer VPC finden Sie unter "Amazon EC2" und Amazon Virtual Private Cloud (Amazon VPC).

F: Werden Dense-Storage-Instances in EC2 -Classic angeboten?

Die aktuelle Generation der Dense-Storage-Instances (D2-Instances) kann sowohl in EC2-Classic als auch in Amazon VPC gestartet werden. Wenn Sie eine Dense-Storage-Instance jedoch in eine VPC starten, können Sie eine Reihe Funktionen nutzen, die nur auf der Amazon VPC-Plattform verfügbar sind: etwa die Aktivierung von Enhanced Networking, die Zuweisung mehrerer privater IP-Adressen für Ihre Instances oder das Ändern Ihrer Instance-Sicherheitsgruppen. Weitere Informationen über die Vorteile der Nutzung einer VPC finden Sie unter Amazon EC2 und Amazon Virtual Private Cloud (Amazon VPC). Sie können Schritte zum Migrieren Ihrer Ressourcen von EC2-Classic auf Amazon VPC einleiten. Weitere Informationen finden Sie unter Migrieren einer Linux-Instance von EC2-Classic auf VPC.

F: Was ist eine High I/O-Instance?

High I/O-Instances verwenden lokale auf NVMe basierende Instance-Speicher, um I/O-Kapazität mit sehr hoher bzw. niedriger Latenz für Anwendungen zu schaffen, und sie sind für Anwendungen optimiert, die Millionen von IOPS benötigen. Wie Cluster-Instances können High I/O-Instances über Cluster-Placement-Gruppen für Netzwerke mit niedriger Latenzzeit angeordnet werden.

F: Sind alle Funktionen von Amazon EC2 für High I/O-Instances verfügbar?

High I/O-Instances unterstützen alle Amazon EC2-Funktionen. I3-Instances bieten ausschließlich NVMe-Speicher, während Instances der letzten Generation (I2-Instances) Zugriff auf Legacy blkfront-Speicher erlauben. Aktuell können Sie High I/O-Instances nur als On-Demand-, Spot- oder Reserved Instances erwerben.

F: Gibt es eine Begrenzung für die Anzahl der High I/O-Instances, die ich nutzen kann?

Zurzeit können Sie standardmäßig zwei i3.16xlarge-Instances starten. Wenn Sie mehr als zwei On-Demand-Instances ausführen möchten, füllen Sie das Antragsformular für Amazon EC2 Instances aus.

F: Wie viele IOPS pro Sekunde bieten i3.16xlarge-Instances?

Mit HVM AMIs können High I/O-Instances bis zu 3,3 Millionen IOPS liefern. Dieser Wert wurde gemessen an 100 Prozent zufälligen Lesevorgängen bei einer Blockgröße von 4 KB und bis zu 300 000, 100-prozentigen Random Write IOPS von 4 KB Größe auf Anwendungen auf 8 x 1,9 TB NVMe-Geräten. 

F: Welchen sequenziellen Durchsatz haben I3-Instances?

Der maximale sequenzielle Durchsatz, gemessen bei einer Blockgröße von 128 KB ist 16 GB/s Lesedurchsatz und 6,4 GB/s Schreibdurchsatz.

F: AWS hat weitere Angebote für Datenbanken und Big Data. Wann oder warum sollte ich High I/O-Instances nutzen?

High I/O-Instances eignen sich ideal für Anwendungen, die Zugriff auf Millionen von IOPS pro Sekunde mit kurzer Latenz benötigen, und können Datenspeicher und Architekturen nutzen, die Datenredundanz und Verfügbarkeit verwalten. Beispielanwendungen sind:

  • NoSQL-Datenbanken wie Cassandra und MongoDB
  • In-Memory-Datenbanken (Aerospike)
  • Elasticsearch und Analyse von Inhalten
  • OLTP-Systeme

F: Bieten High I/O-Instances Failover-Mechanismen oder Redundanz?

Wie bei anderen Amazon EC2 Instance-Typen wird Instance-Speicher auf i3.16xlarge-Instances während der Nutzungsdauer der Instance persistent gespeichert. Von Kunden wird erwartet, dass sie ihre Anwendungen widerstandsfähig machen. Wir empfehlen die Verwendung von Datenbanken und Dateisystemen, die Redundanz und Fehlertoleranz unterstützen. Für verbesserte Datenbeständigkeit sollten Kunden ihre Daten in regelmäßigen Abständen auf Amazon S3 speichern.

F: Bieten High I/O-Instances Unterstützung für TRIM?

Der TRIM-Befehl ermöglicht es dem Betriebssystem, SSDs darüber zu informieren, welche Datenblöcke als nicht mehr genutzt angesehen werden und intern entfernt werden können. Wenn kein TRIM vorhanden ist, können zukünftige Schreibvorgänge der beteiligten Blöcke erheblich langsamer werden. I3-Instances unterstützen TRIM.


F: Wann sollte ich speicheroptimierte Instances nutzen?

Speicheroptimierte Instances bieten ausreichend Speicher für speicherintensive Anwendungen wie In-Memory-Anwendungen, In-Memory-Datenbanken, In-Memory-Analyselösungen, High Performance Computing (HPC) und wissenschaftliche Anforderungen.

F: Wann sollte ich X1-Instances nutzen?

X1-Instances sind ideal für die Ausführung von In-Memory-Datenbanken wie SAP HANA, großen Datenverarbeitungs-Engines wie Apache Spark oder Presto sowie High-Performance-Computing (HCP)-Anwendungen. X1-Instances sind von SAP für die Ausführung von Business Warehouse auf HANA (BW), Data Mart Solutions auf HANA, Business Suite auf HANA (SoH) sowie die Business Suite S/4HANA der nächsten Generation in AWS-Cloud-basierten Produktionsumgebungen zertifiziert.

F: Wann sollte ich X1e-Instances nutzen?

X1e-Instances sind ideal für die Ausführung von In-Memory-Datenbanken wie SAP HANA, Hochleistungsdatenbanken und andere speicheroptimierte Unternehmensanwendungen geeignet. X1e-Instances bieten die doppelte Speicherkapazität pro vCPU im Vergleich zu X1-Instances. Die x1e.32xlarge-Instance ist von SAP für die Ausführung von Business Warehouse auf HANA (BW), Data Mart Solutions auf HANA, Business Suite auf HANA (SoH) sowie die Business Suite S/4HANA der nächsten Generation in AWS-Cloud-basierten Produktionsumgebungen zertifiziert.

F: Worin unterscheiden sich X1- und X1e-Instances?

X1e-Instances bieten 32 GB Speicher pro vCPU, während X1-Instances 16 GB Speicher pro vCPU bieten. Die Größe der X1e-Instances ermöglichen sechs Instance-Konfigurationen beginnend von 4 vCPUs und 122 GiB Speicher bis hin zu 128 vCPUs und 3 904 GiB Speicher. X1-Instances ermöglichen die Konfiguration von zwei Instances, 64 vCPUs mit 976 GiB Speicher und 128 vCPUs mit 1 952 GiB Speicher.

F: Welches sind die wichtigsten Merkmale der Intel E7-Prozessoren (Codename Hell) für X1- und X1e-Instances?

Dank der hohen Anzahl Kerne der E7-Prozessoren werden Workloads unterstützt, die von einer effizienten Skalierung auf mehrere Kerne profitieren. Außerdem verfügen die Intel E7-Prozessoren über eine große Speicherbandbreite sowie L3-Caches für eine optimierte Leistung von In-Memory-Anwendungen. Weitere Merkmale von Intel E7-Prozessoren:

  • Verbesserte Verschlüsselungsleistung dank der aktuellsten Intel AES-NI-Funktion.
  • Unterstützung von Transactional Synchronization Extensions (TSX) für eine verbesserte In-Memory-Verarbeitung von Transaktionsdaten
  • Unterstützung von Advanced Vector Extensions 2 (Intel AVX2)-Befehlssätzen zur Erweiterung für die meisten ganzzahligen Operationen auf 256 Bits.

F: Unterstützen X1- und X1e-Instances eine Statusüberwachung des CPU-Power-Managements?

Ja. Sie können C-States und P-States auf x1e.32xlarge-, x1e.16xlarge-, x1e.8xlarge-, x1.32xlarge- und x1.16xlarge-Instances konfigurieren. Mit C-States werden höhere Turbofrequenzen ermöglicht (bis zu 3,1 GHz mit 1- oder 2-Kern-Turbo). Mithilfe von P-States lässt sich die Performancevarianz reduzieren. Dabei werden alle Kerne fest P1- oder höheren P-States zugewiesen, was einer Deaktivierung der Turbofunktion gleichkommt, und arbeiten konsistent entsprechend der Basis-CPU-Taktfrequenz.

F: Welche Betriebssysteme werden auf X1- und X1e-Instances unterstützt?

X1- und X1e-Instances bieten eine große Anzahl von vCPUs, was in manchen Linux-Betriebssystemen, die ein niedrigeres Limit für vCPUs haben, zu Startproblemen führen kann. Wir empfehlen daher dringend, zum Starten dieser Instances die neuesten AMIs zu verwenden. 

AMI-Unterstützung für SAP HANA-Workloads unfasst: SUSE Linux 12, SUSE Linux 12 SP1, SLES for SAP 12 SP1, SLES for SAP 12 SP2 und RHEL 7.2 for SAP HANA. 

x1e.32xlarge unterstützt auch Windows Server 2012 R2 und 2012 RTM.  x1e.xlarge, x1e.2xlarge, x1e.4xlarge, x1e.8xlarge, x1e.16xlarge und x1.32xlarge wird auch Folgendes unterstützen: Windows Server 2012 R2, 2012 RTM und 2008 R2 64-Bit (Windows Server 2008 SP2 und ältere Versionen werden nicht unterstützt). x1.16xlarge wird Folgendes unterstützen: Windows Server 2012 R2, 2012 RTM, 2008 R2 64-Bit, 2008 SP2 64-Bit sowie 2003 R2 64-Bit (32-Bit-Versionen von Windows Server werden nicht unterstützt).

F: Welche Speicheroptionen stehen meinen X1-Kunden zur Verfügung?

X1-Instances bieten SSD-basierten Instance-Speicher, der ideal für die temporäre Speicherung von Protokollen, Puffer- und Cachedaten sowie temporären Tabellen, Rechendaten und ähnlichen Inhalten geeignet ist. Die beste I/O-Leistung von X1-Instance-Speicher erzielen Sie mit einem Linux-Kern, der Persistent Grants, eine Erweiterung des Xen-Block-Ring-Protokolls, unterstützt.

X1-Instances sind standardmäßig EBS-optimiert und bieten eine dedizierte Bandbreite von 14 Gbit/s für EBS-Volumes. EBS unterstützt dank seiner breiten Palette an Volumes zahlreiche unterschiedliche Workloads. Weitere Informationen finden Sie im EC2 User Guide.

F: Welche Speicheroptionen stehen meinen X1e-Kunden zur Verfügung?

X1e-Instances bieten SSD-basierten Instance-Speicher, der ideal für die temporäre Speicherung von Protokollen, Puffer- und Cachedaten sowie temporären Tabellen, Rechendaten und ähnlichen Inhalten geeignet ist. Die beste I/O-Leistung von X1e-Instance-Speicher erzielen Sie mit einem Linux-Kern, der Persistent Grants, eine Erweiterung des Xen-Block-Ring-Protokolls, unterstützt.

X1e-Instances ermöglichen den dedizierten Durchsatz für Amazon Elastic Block Storage (EBS), beginnend bei 500 Mbit/s (x1e.xlarge) bis zu 14 GBit/s (x1e.32xlarge) und sind standardmäßig ohne weitere Kosten für EBS optimiert. Weitere Informationen finden Sie im EC2 Benutzerhandbuch.

F: Wie stelle ich auf X1- und X1e-Instances eine kostengünstige Failover-Lösung bereit?

Mithilfe von Amazon EC2 Auto Recovery, können Sie einfache, kostengünstige Failover-Lösungen auf X1-Instances erstellen, die im Falle einer Instance-Beeinträchtigung ein nahtloses Failover ermöglichen. Zudem können Sie durch Erstellung eines AWS CloudWatch-Alarms eine Auto Recovery-Funktion für X1-Instances implementieren. Wählen Sie die Metrik "EC2 Status Check Failed (System)" und wählen Sie die Aktion "Recover this instance". Instance-Wiederherstellung unterliegt gewissen Einschränkungen, wie in der Dokumentation zur Fehlerbehebung bei der Auto Recovery beschrieben. Weitere Informationen finden Sie in der Dokumentation zur Auto Recovery und unter Erstellen von Amazon CloudWatch-Alarmen.

F: Sind standardmäßige SAP HANA-Referenz-Frameworks für die X1-Instance und die AWS-Cloud verfügbar?

Verwenden Sie die im AWS Quick Start-Bereich verfügbaren HANA-Referenzimplementierungen zur schnellen Bereitstellung aller erforderlichen HANA-Elemente auf X1-Instances gemäß den SAP-Empfehlungen für hohe Leistung und Zuverlässigkeit. AWS Quick Start-Optionen sind modular und anpassbar. Sie können zusätzliche Funktionen darauf aufsetzen oder sie für Ihre eigenen Implementierungen ändern. Zusätzliche Informationen zur HANA-Bereitstellung auf AWS finden Sie im SAP HANA on AWS Cloud: Quick Start Reference Deployment Guide.

F: Sind standardmäßige SAP HANA-Referenz-Frameworks für die X1e-Instance und die AWS-Cloud verfügbar?

Verwenden Sie die im AWS Quick Start-Bereich verfügbaren HANA-Referenzimplementierungen zur schnellen Bereitstellung aller erforderlichen HANA-Elemente auf x1e.32xlarge-Instances gemäß den SAP-Empfehlungen für hohe Leistung und Zuverlässigkeit. AWS Quick Start-Optionen sind modular und anpassbar. Sie können zusätzliche Funktionen darauf aufsetzen oder sie für Ihre eigenen Implementierungen ändern. Zusätzliche Informationen zur HANA-Bereitstellung auf AWS finden Sie im SAP HANA on AWS Cloud: Quick Start Reference Deployment Guide.


F: Warum werden Instances vom Typ M1, C1, CC2 und HS1 nicht mehr auf den Preisseiten aufgeführt?

Diese Instances wurden auf die Seite Instances der vorherigen Generation verschoben.

F: Werden dieses Instances der vorherigen Generation noch unterstützt?

Ja. Instances der vorherigen Generation werden noch voll unterstützt.

F: Kann ich Instances der vorherigen Generation weiterhin verwenden und hinzufügen?

Ja. Die Instances der vorherigen Generation stehen weiterhin als On-Demand-, Reserved und Spot-Instances über unsere APIs, die Befehlszeilenschnittstelle (CLI) und die EC2 Management Console zur Verfügung.

F: Werden meine Instances der vorherigen Generation gelöscht?

Nein. Ihre Instances C1, C3, CC2, CR1, G2, HS1, M1, M2, M3, R3 und T1 sind weiterhin voll funktionstüchtig und werden infolge dieser Änderung nicht gelöscht.

F: Wird die Unterstützung für Instances der vorherigen Generation bald eingestellt?

Derzeit ist nicht geplant, die Unterstützung für Instances der vorherigen Generation einzustellen. Doch wie bei jeder sich rasch entwickelnden Technologie bietet die neueste Generation in der Regel das beste Preis-/Leistungsverhältnis und wir empfehlen unseren Kunden daher, die Vorteile der technologischen Weiterentwicklungen zu nutzen.

F: Wirkt sich diese Änderung in irgendeiner Weise auf meine Instances der vorherigen Generation aus, die ich als Reserved Instance gekauft habe?

Nein. Ihre Reserved Instances ändern sich nicht und die Instances der vorherigen Generation werden nicht abgeschafft.


F: Welche Instance-Typen bieten Instance-Speicher auf NVMe-Basis?

Derzeit bieten I3-, C5d-, M5d- und F1-Instances Instance-Speicher auf NVMe-Basis.

F: Werden Daten, die auf Amazon EC2 NVMe Instance-Speicher gespeichert werden, verschlüsselt?

Ja, alle Daten werden vor dem Schreiben auf die lokal verbundenen SSDs, die über NVMe Instance-Speicher angeboten werden, in einem AWS Nitro Hardware-Modul verschlüsselt.

F: Welcher Verschlüsselungsalgorithmus wird zur Verschlüsselung von Amazon EC2 NVMe Instance-Speicher verwendet?  

Amazon EC2 NVMe Instance-Speicher wird mit einem XTS-AES-256-Block-Cipher verschlüsselt.

F: Werden Verschlüsselungsschlüssel für NVMe Instance-Speicher auf Instance-Basis oder auf Basis eines bestimmten Geräts generiert?

Verschlüsselungsschlüssel werden sicher im Nitro Hardware-Modul generiert und sind für jedes NVMe Instance-Speichergerät, das mit einer EC2-Instance geboten wird, einzigartig.

F: Welche Lebensdauer haben Verschlüsselungsschlüssel von NVMe Instance-Speicher?

Alle Schlüssel werden bei der Freigabe von Speicher unwiderruflich vernichtet, einschließlich bei Instance-Stopp- und Instance-Beendigungsaktionen.

F: Kann ich die NVMe Instance-Speicherverschlüsselung deaktivieren?

Nein, die NVMe Instance-Speicherverschlüsselung ist stets aktiviert und kann nicht deaktiviert werden.

F: Umfassen die veröffentlichten IOPS-Leistungskennzahlen für I3 Datenverschlüsselung?

Ja, die dokumentierten IOPS-Zahlen für I3 NVMe Instance-Speicher umfassen Verschlüsselung.

F: Unterstützt der Amazon EC2 NVMe Instance-Speicher den AWS Key Management Service (KMS)?  

Nein, die Laufwerkverschlüsselung auf NVMe Instance-Speicher unterstützt die Integration mit dem AWS KMS-System nicht. Kunden können nicht ihre eigenen Schlüssel mit NVMe Instance-Speicher verwenden.


F: Was genau ist die CPU-Optimierung?

Durch die Optimierung von CPUs können Sie Ihre EC2-Instances gleich an zwei Fronten besser kontrollieren. Erstens können Sie beim Start neuer Instances eine benutzerdefinierte Anzahl an vCPUs angeben und so vCPU-basierte Lizenzkosten einsparen. Und zweitens können Sie die Intel Hyper-Threading Technology (Intel HT Technology) für Arbeitslasten deaktivieren, die mit Einzelthread-CPUs gute Ergebnisse liefern. Denkbar sind hier beispielsweise bestimmte High-Performance Computing-Anwendungen (HPC-Anwendungen).

F: Was spricht für die Verwendung der Funktion der CPU-Optimierung?

Diese Funktion empfiehlt sich in folgenden Fällen:

  • Sie führen EC2-Arbeitslasten aus, die nicht an die Rechenleistung gebunden sind, aber vCPU-basierte Lizenzkosten verursachen. Wenn Sie Instances mit einer benutzerdefinierten Anzahl an vCPUs starten, können Sie unter Umständen Ihre Lizenzausgaben optimieren.
  • Sie führen Arbeitslasten aus, die von einer Deaktivierung des Hyper-Threadings in EC2-Instances profitieren.

F: Wie werden die CPU-optimierten Instances in Rechnung gestellt?

Die CPU-optimierten Instances werden genau wie entsprechende Instances mit vollem Umfang in Rechnung gestellt.

F: Wie wirkt sich die Verwendung der CPU-Optimierung in EC2 auf meine Anwendungsleistung aus?

Die Änderung Ihrer Anwendungsleistung durch die CPU-Optimierung hängt vor allem von den Arbeitslasten ab, die Sie in EC2 ausführen. Wir empfehlen Ihnen, mit der CPU-Optimierung einen Leistungsvergleich für Ihre Anwendungsleistung anzustellen, um für Ihre Anwendung die passende Anzahl an vCPUs und das optimale Hyper-Threading-Verhalten zu finden.

F: Kann ich die CPU-Optimierung für EC2 Bare Metal-Instance-Typen (z. B. i3.metal) verwenden?

Nein. Sie können die CPU-Optimierung mit rein virtualisierten EC2-Instances verwenden.

F: Wie kann ich in die Nutzung der CPU-Optimierung für EC2-Instances einsteigen?

Sie finden die Dokumentation zur CPU-Optimierung hier. Dort können Sie sich über die ersten Schritte mit der CPU-Optimierung sowie über unterstützte Instance-Typen informieren.


F: Was ist VM Import/Export?

Mithilfe von VM Import/Export können Abbilder von virtuellen Maschinen (VM) importiert werden, um Amazon EC2-Instances zu erstellen. Zu einem früheren Zeitpunkt importierte EC2-Instances können auch exportiert werden, um VMs zu erstellen. Mit VM Import/Export können Kunden ihre bisherigen Investitionen in den Aufbau von VMs nutzen, indem sie ihre VMs in Amazon EC2 migrieren.

F: Welche Betriebssysteme werden unterstützt?

VM Import/Export unterstützt derzeit Windows- und Linux-VMs, einschließlich Windows Server 2003, Windows Server 2003 R2, Windows Server 2008, Windows Server 2012 R1, Red Hat Enterprise Linux (RHEL) 5.1-6.5 (über Cloud Access), Centos 5.1-6.5, Ubuntu 12.04, 12.10, 13.04, 13.10 und Debian 6.0.0-6.0.8, 7.0.0-7.2.0. Weitere Details zu VM Import, einschließlich unterstützter Dateiformate, Architekturen und Betriebssystemkonfigurationen, finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt "VM Import/Export".

F: Welche Dateiformate für virtuelle Maschinen werden unterstützt?

Sie können VMware ESX VMDK-, Citrix Xen VHD-, Microsoft Hyper-V VHD- und RAW-Images als Amazon EC2-Instances importieren. Sie können EC2-Instances in VMware ESX VMDK-, VMware ESX OVA-, Microsoft Hyper-V VHD- oder Citrix Xen VHD-Images exportieren. Eine vollständige Liste unterstützter Betriebssysteme finden Sie unter Welche Betriebssysteme werden unterstützt?.

F: Was ist VMDK?

Bei VMDK handelt es sich um ein Dateiformat für virtuelle Festplatten. Es wird üblicherweise in virtuellen IT-Infrastrukturen verwendet, die beispielsweise vom Unternehmen VMware, Inc. vertrieben werden.

F: Wie bereite ich eine VMDK-Datei mit dem VMware vSphere-Client für den Import vor?

Die VMDK-Datei kann vorbereitet werden, indem Sie im Menü des VMware vSphere Client auf Datei > Export > OVF-Vorlage exportieren gehen. Die resultierende VMDK-Datei wird komprimiert, um die Image-Größe zu verringern, damit die Datei für VM Import/Export kompatibel ist. Es ist keine spezielle Vorbereitung zur Verwendung der Amazon EC2 VM Import Connector vApp für VMware vCenter erforderlich.

F: Was ist VHD?

Bei VHD (Virtual Hard Disk) handelt es sich um ein Dateiformat für virtuelle Festplatten in einer einzelnen Datei. Das VHD-Image-Format wird von Virtualisierungsplattformen wie Microsoft Hyper-V und Citrix Xen verwendet.

F: Wie bereite ich eine VHD-Datei für den Import von Citrix Xen vor?

Öffnen Sie Citrix XenCenter und wählen Sie die virtuelle Maschine aus, die Sie exportieren möchten. Klicken Sie im Menü "Tools" auf "Virtual Appliance Tools" und wählen Sie "Export Appliance" aus, um den Exportvorgang zu starten. Wenn der Export abgeschlossen ist, können Sie die VHD-Image-Datei in dem im Exportdialogfeld angegebenen Zielverzeichnis finden.

F: Wie bereite ich eine VHD-Datei für den Import aus Microsoft Hyper-V vor?

Öffnen Sie Hyper-V Manager und wählen Sie die virtuelle Maschine aus, die Sie exportieren möchten. Wählen Sie im Fenster "Actions" für die virtuelle Maschine die Option "Export" aus, um die Exportaufgabe zu starten. Wenn der Export abgeschlossen ist, können Sie die VHD-Image-Datei in dem im Exportdialogfeld angegebenen Zielverzeichnis finden.

F: Welche anderen Anforderungen gelten für das Importieren einer virtuellen Maschine (VM) in Amazon EC2?

Die virtuelle Maschine muss sich in einem beendeten Zustand befinden, bevor das VMDK- oder VHD-Image generiert wird. Sie darf sich nicht im Pausenmodus befinden oder ausgesetzt sein. Wir empfehlen, dass Sie die virtuelle Maschine nur mit dem angehängten Boot-Volume exportieren. Zusätzliche Festplatten können Sie mit dem Befehl "ImportVolume" importieren und dann mit "AttachVolume" der virtuellen Maschine zuordnen. Zudem werden verschlüsselte Festplatten (z. B. Bit Locker) und verschlüsselte Image-Dateien nicht unterstützt. Sie müssen außerdem dafür sorgen, dass Sie über alle notwendigen Rechte und Lizenzen für den AWS-Import und die Software verfügen, die ggf. in ihrem VM-Image enthalten ist.

F: Muss die virtuelle Maschine für den Import in Amazon EC2 in bestimmter Weise konfiguriert werden?

Vergewissern Sie sich, dass Remote Desktop (RDP) oder Secure Shell (SSH) für den Fernzugriff aktiviert sind, und stellen Sie sicher, dass Ihre Host-Firewall (Windows- Firewall, iptables u. ä.), sofern konfiguriert, den Zugriff auf RDP oder SSH zulässt. Andernfalls haben Sie nach Abschluss des Importvorgangs keine Möglichkeit, auf Ihre Instance zuzugreifen. Stellen Sie bitte des Weiteren sicher, dass die Windows-VMs so konfiguriert sind, dass für alle Benutzer, auch den Administrator, starke Passwörter verwendet werden, und dass Linux-VMs mit einem öffentlichen Schlüssel für SSH-Zugriff konfiguriert sind.

F: Wie importiere ich eine virtuelle Maschine in eine Amazon EC2 Instance?

Sie können VM-Images auch mit den Amazon EC2 API-Tools importieren:

  • Importieren Sie die VMDK-, VHD- oder RAW-Datei über die ec2-import-instance-API. Bei der Instance-Importaufgabe werden die Parameter erfasst, die erforderlich sind, um die Amazon EC2-Instance-Eigenschaften ordnungsgemäß zu konfigurieren (Instance-Größe, Availability Zone und Sicherheitsgruppen), und das Image wird in Amazon S3 hochgeladen.
  • Wenn "ec2-import-instance" unterbrochen oder ohne abgeschlossenen Upload beendet wird, verwenden Sie "ec2-resume-import", um den Upload-Vorgang fortzusetzen. Der Importvorgang wird an der Stelle, an der er unterbrochen wurde, fortgesetzt.
  • Verwenden Sie zur Überwachung des Fortschritts des Importvorgangs den Befehl ec2-describe-conversion-tasks. Sie erhalten dadurch die sich ergebende Amazon EC2 Instance-ID.
  • Sobald der Importvorgang abgeschlossen wurde, können Sie die Amazon EC2-Instance neu starten, indem Sie für die ec2-run-instances-API die Instance-ID angeben.
  • Löschen Sie abschließend mit dem Befehlszeilenprogramm "ec2-delete-disk-image" Ihr Datenträger-Image aus Amazon S3, da es nicht mehr benötigt wird.

Alternativ können Sie Ihre virtuelle Maschine mittels einer grafischen Benutzeroberfläche des AWS Management Portal for vCenter in Amazon EC2 importieren, sofern Sie die VMware vSphere-Virtualisierungsplattform verwenden. Informationen finden Sie im Handbuch Erste Schritte im AWS Management Portal for vCenter. AWS Management Portal for vCenter bietet eine integrierte Unterstützung von VM Import. Sobald das Portal in vCenter installiert ist, können Sie mit der rechten Maustaste auf eine VM klicken und "Migrate to EC2" auswählen, um anhand der VM eine EC2-Instance zu erstellen. Das Portal übernimmt das Exportieren der VM aus vCenter, ihr Hochladen in S3 und ihre Umwandlung in eine EC2-Instance, ohne dass weitere Aufgaben ausgeführt werden müssen. Sie können den Fortschritt Ihrer VM-Migrationen auch im Portal nachverfolgen.

F: Wie kann ich eine Amazon EC2-Instance zurück in meine lokale Virtualisierungsumgebung exportieren?

Sie können Ihre Amazon EC2-Instance mithilfe der Amazon EC2-Befehlszeilenprogramme exportieren:

  • Zum Exportieren der Instance dient ec2-create-instance-export-task. Der Exportbefehl erfasst die benötigten Parameter (Instance-ID, S3-Bucket für das exportierte Image, Name des exportierten Image, VMDK-, OVA- oder VHD-Format) für einen ordnungsgemäßen Export der Instance in das gewählte Format. Die exportierte Datei wird in einem zuvor erstellten S3-Bucket gespeichert.
  • Mit ec2-describe-export-tasks können Sie den Status des Exportvorgangs überwachen.
  • Mit ec2-cancel-export-task können Sie einen Exportvorgang vor dem Abschluss abbrechen.

F: Welche anderen Anforderungen gelten für das Exportieren einer EC2-Instance mithilfe von VM Import/Export?

Sie können ausgeführte oder beendete EC2-Instances exportieren, die Sie zuvor mit VM Import/Export importiert haben. Wenn die Instance ausgeführt wird, wird sie vorübergehend beendet, um einen Snapshot des Startdatenträgers zu erstellen. EBS-Datenträger können nicht exportiert werden. EC2-Instances mit mehreren Netzwerkschnittstellen können nicht exportiert werden.

F: Kann ich Amazon EC2-Instances exportieren, denen mindestens ein EBS-Volume zugeordnet ist?

Ja, aber VM Import/Export exportiert nur das Start-Volume der EC2-Instance.

F: Was kostet der Import einer virtuellen Maschine?

Für das Hochladen und die Speicherung Ihrer VM-Image-Datei gelten die Amazon S3-Standardgebühren für die Datenübertragung und -speicherung. Nachdem Ihre VM importiert wurde, werden Ihnen die Amazon EC2 Instance-Stundensätze und die EBS-Servicegebühren berechnet. Wenn Sie Ihre VM-Image-Datei nach Abschluss des Importvorgangs nicht länger in S3 speichern möchten, verwenden Sie das Befehlszeilen-Tool ec2-delete-disk-image, um Ihr Speicherabbild in Amazon S3 zu löschen.

F: Was kostet der Export einer virtuellen Maschine?

Für das Speichern Ihrer exportierten VM-Image-Datei fallen die üblichen Amazon S3-Speichergebühren an. Ferner fallen die üblichen S3-Datenübertragungsgebühren an, wenn Sie die exportierte VM-Datei in Ihre lokale Virtualisierungsumgebung herunterladen. Schließlich fallen die üblichen EBS-Gebühren für das Speichern eines temporären Snapshots Ihrer EC2-Instance an. Löschen Sie zum Minimieren von Speichergebühren die VM-Image-Datei aus S3, nachdem Sie sie in Ihre Virtualisierungsumgebung heruntergeladen haben.

F: Wer muss die Lizenz für das Betriebssystem bereitstellen, wenn ich eine VM von Windows Server 2003 oder 2008 importiere?

Wenn Sie eine importierte VM mithilfe von Microsoft Windows Server 2003 oder 2008 starten, werden Ihnen die üblichen Instance-Stundensätze für Amazon EC2 mit der entsprechenden Windows Server-Version in Rechnung gestellt. Darunter fallen auch die Rechte für die Nutzung dieses Betriebssystems in Amazon EC2. Sie tragen dafür Sorge, dass jegliche sonstige Software korrekt lizenziert ist.

Was passiert mit meinem lokalen Microsoft Windows-Lizenzschlüssel, wenn ich eine VM von Windows Server 2003 oder 2008 importiere? Da Ihr lokaler Microsoft Windows-Lizenzschlüssel, der dieser VM zugeordnet war, nicht verwendet wird, wenn Ihre importierte VM als EC2-Instance ausgeführt wird, können Sie ihn für eine andere VM in Ihrer lokalen Umgebung wiederverwenden.

F: Kann ich nach dem Export einer EC2-Instance zurück in meine lokale Virtualisierungsumgebung weiter den von AWS bereitgestellten Microsoft Windows-Lizenzschlüssel verwenden?

Nein. Nachdem eine EC2-Instance exportiert wurde, steht der in der EC2-Instance verwendete Lizenzschlüssel nicht mehr zur Verfügung. Sie müssen für die exportierte VM, nachdem sie auf Ihrer lokalen Virtualisierungsplattform gestartet wurde, einen neuen Lizenzschlüssel aktivieren und angeben.

F: Wenn ich eine VM mit Red Hat Enterprise Linux (RHEL) importiere, wer ist dann für die Bereitstellung der Betriebssystemlizenz zuständig?

Wenn Sie Red Hat Enterprise Linux (RHEL) VM-Abbilder importieren, können Sie die Lizenz-Portabilität für Ihre RHEL-Instances verwenden. Die Lizenz-Portabilität verpflichtet Sie zum Verwalten der RHEL-Lizenzen für importierte Instances. Dies ist über Cloud Access-Abonnements für Red Hat Enterprise Linux möglich. Für weitere Informationen über Cloud Access und um Ihre Berechtigung überprüfen zu lassen, wenden Sie sich bitte an Red Hat.

F: Wie lange dauert der Import einer virtuellen Maschine?

Es hängt von der Größe des Datenträgerabbilds und der Geschwindigkeit Ihrer Netzwerkverbindung ab, wie lange der Import einer virtuellen Maschine dauert. Es dauert bei einer Übertragungsgeschwindigkeit von 10 Mbps beispielsweise ungefähr zwei Stunden, bis ein 10 GB großes VMDK-Image vom Windows Server 2008 SP2 importiert wird. Falls Sie über eine langsamere Netzwerkverbindung verfügen oder einen Upload für großen Platteninhalt vornehmen müssen, kann der Importvorgang wesentlich länger dauern.

F: In welchen Amazon EC2-Regionen kann ich VM Import/Export nutzen?

In der Regionstabelle finden Sie die in den verschiedenen Regionen verfügbaren Produktdienste.

F: Wie viele gleichzeitige Import- bzw. Exportvorgänge sind möglich?

Für jedes Konto sind pro Region bis zu fünf aktive Import- und Exportvorgänge möglich.

F: Kann ich importierte virtuelle Maschinen in der Amazon Virtual Private Cloud (VPC) ausführen?

Ja, Sie können importierte virtuelle Maschinen in Amazon VPC ausführen.

F: Kann ich die AWS-Managementkonsole mit VM Import/Export verwenden?

Nein. VM Import/Export-Befehle stehen über die EC2-Befehlszeile und -API zur Verfügung. Sie können auch das AWS Management Portal for vCenter zum Importieren von VMs in Amazon EC2 verwenden. Nach dem Import stehen die resultierenden Instanzen über die AWS-Managementkonsole zur Verfügung.


F: Kann ich meine vorhandene Windows Server-Lizenz mit EC2 verwenden?

Ja, das ist möglich. Nachdem Sie Ihre eigenen Computerabbilder für Windows Server mit dem ImportImage-Tool importiert haben, können Sie aus diesen Abbildern Instances auf EC2 Dedicated Hosts starten, Instances effektiv verwalten und Berichte über die Nutzung erstellen. Microsoft verlangt normalerweise, dass Sie die Nutzung Ihrer Lizenzen auf physischen Ressourcen wie beispielsweise Sockets und Kernen verfolgen, und Dedicated Hosts unterstützen Sie dabei. Weitere Informationen zur Verwendung Ihrer eigenen Lizenzen für Windows Server auf Amazon EC2 Dedicated Hosts finden Sie auf der Detailseite zu Dedicated Hosts.

F: Welche Softwarelizenzen kann ich in die Windows-Umgebung einbringen?

Die Bedingungen für bestimmte Softwarelizenzen sind von Anbieter zu Anbieter unterschiedlich. Daher wird empfohlen, dass Sie in den Lizenzbestimmungen Ihres Softwareanbieters nachschlagen, um zu bestimmen, ob Ihre vorhandenen Lizenzen für die Verwendung in Amazon EC2 genehmigt sind.


F: Wie wird meine Ausführung von IBM-Software in Amazon EC2 berechnet?

Sie zahlen nur für das, was Sie auch tatsächlich nutzen. Dabei fallen keine Mindestgebühren an. Die Preise richten sich nach genutzter Instance-Stunde für jeden Instance-Typ. Angefangene Instance-Stunden werden als volle Stunden in Rechnung gestellt. Die Datenübertragung für Amazon EC2 mit IBM wird getrennt von Amazon EC2 in Rechnung gestellt und eingestuft. Für die Datenübertragung zwischen zwei Amazon Web Services innerhalb derselben Region (z. B. zwischen Amazon EC2 in USA West und einem anderen AWS-Service in USA West) fallen keine Gebühren an. Datenübertragungen zwischen AWS-Diensten in verschiedenen Regionen werden auf beiden Seiten des Transfers als Internetdatenübertragungen berechnet.

Informationen zur Preisgestaltung von Amazon EC2 mit IBM finden Sie auf der Detailseite Amazon EC2 mit IBM im Abschnitt mit den Preisen.

F: Kann ich Amazon DevPay mit Amazon EC2 mit IBM verwenden?

Nein, Sie können derzeit DevPay nicht zur Bündelung von Produkten auf Amazon EC2 mit IBM verwenden.


F: Wie verwende ich diesen Service?

Der Service stellt einen NTP-Endpunkt an einer Link-Local-IP-Adresse (169.254.169.123) bereit, die aus jeder in einer VPC ausgeführten Instance zugänglich ist. Anweisungen zur Konfiguration von NTP-Clients sind für Linux und Windows verfügbar.

F: Worin bestehen die wichtigsten Vorteile dieses Service?

Für viele Anwendungen und Services ist eine konsistente und hoch genaue Referenzzeitquelle unverzichtbar. Der Amazon Time Sync-Service bietet eine Zeitreferenz, auf die ohne Änderungen an der VPC-Konfiguration aus jeder Instance sicher zugegriffen werden kann. Der Service setzt auf der bewährten Netzwerkinfrastruktur von Amazon auf und greift auf redundante Referenzzeitquellen zu, um Genauigkeit und Verfügbarkeit jederzeit sicherzustellen.

F: Welche Instance-Typen unterstützen diesen Service?

Alle Instances, die in einer VPC ausgeführt werden, können diesen Service nutzen.


F: Was garantiert mir die SLA (Service Level Agreement) von Amazon EC2?

Unsere SLA garantiert eine monatliche Betriebszeit in Prozent von mindestens 99,99 % für Amazon EC2 und Amazon EBS innerhalb einer Region.

F: Wie erfahre ich, ob ich für eine Gutschrift aus der SLA in Frage komme?

Sie sind für ein SLA-Guthaben für entweder Amazon EC2 oder Amazon EBS berechtigt (je nachdem, ob ein oder beide Services nicht verfügbar waren), wenn die Region, in der Sie aktiv sind, eine monatliche Betriebszeit in Prozent von unter 99,95 % im entsprechenden Abrechnungszeitraum aufweist. Ausführliche Informationen zu allen Bestimmungen der SLA sowie Einzelheiten zur Geltendmachung eines Anspruchs finden Sie unter http://aws.amazon.com/ec2/sla/


F: Was ändert sich?

Ab Juli 2018 erhalten alle neu erstellten EC2-Ressourcen längere Format-IDs. Das neue Format wird nur auf neu erstellte Ressourcen angewendet. Ihre bestehenden Ressourcen sind davon nicht betroffen. Instances und Volumes verwenden bereits dieses ID-Format. Kunden können sich bis Ende Juni 2018 für die Übernahme der längeren IDs entscheiden. Während dieser Zeit können Sie wählen, welches ID-Format Ressourcen zugewiesen wird, und Sie können Ihre Verwaltungstools und Skripte aktualisieren, damit diese das längere Format unterstützen. Anweisungen hierzu finden Sie in dieser Dokumentation.

F: Warum ist dies nötig?

Angesichts des schnellen Wachstums von AWS werden in 2018 die IDs für bestimmte Ressourcen knapp. Um auch langfristig störungsfrei neue Ressourcen erstellen zu können, müssen wir ein längeres ID-Format einführen. Alle Amazon EC2-Ressourcen-IDs wechseln im Juli 2018 zum längeren Format.

F: Ich habe mich bereits letztes Jahr für längere IDs angemeldet. Warum muss ich mich erneut entscheiden?

2016 wurden nur Amazon EC2-Instances, -Reservierungen, -Volumes und -Snapshots umgestellt. Mit dieser Anmeldung wird das ID-Format für alle verbleibenden EC2-Ressourcentypen geändert

F: Wie sieht das neue Format für IDs aus?

Das neue ID-Format hält sich an das Muster des aktuellen ID-Formats, ist aber länger. Dieses neue Format wird -<17 Zeichen> lang sein, z. B. „vpc-1234567890abcdef0“ für VPCs oder „subnet-1234567890abcdef0“ für Subnetze.

F: Welche IDs ändern sich?

  • bundle
  • conversion-task
  • customer-gateway
  • dhcp-options
  • elastic-ip-allocation
  • elastic-ip-association
  • export-task
  • flow-log
  • image
  • import-task
  • internet-gateway
  • network-acl
  • network-acl-association
  • network-interface
  • network-interface-attachment
  • prefix-list
  • route-table
  • route-table-association
  • security-group
  • subnet
  • subnet-cidr-block-association
  • vpc
  • vpc-cidr-block-assocation
  • vpc-endpoint
  • vpc-peering-connection
  • vpn-connection
  • vpn-gateway

F: Inwiefern wirkt sich das auf mich aus?

Es ist durchaus möglich, dass Sie keine Systemänderungen vornehmen müssen, um das neue Format verarbeiten zu können. Wenn Sie nur die Konsole verwenden, um AWS-Ressourcen zu verwalten, gibt es für Sie wahrscheinlich gar keine Auswirkungen, aber Sie sollten dennoch Ihre Einstellungen aktualisieren, um das neue ID-Format so schnell wie möglich zu übernehmen. Wenn Sie mit AWS-Ressourcen über APIs, SDKs oder die AWS-Befehlszeilenschnittstelle interagieren, kann es für Sie Auswirkungen geben, je nachdem, ob Ihre Software von Annahmen über das ID-Format ausgeht, wenn Ressourcen-IDs validiert oder dauerhaft festgelegt werden. Wenn dies der Fall ist, müssen Sie Ihre Systeme aktualisieren, damit sie das neue Format verarbeiten.

Es kann zu folgenden Fehlersituationen kommen:

  • Falls Ihre Systeme reguläre Ausdrücke verwenden, um das ID-Format zu validieren, wird möglicherweise ein Fehler gemeldet, wenn ein längeres Format erkannt wird.
  • Falls Erwartungen in Bezug auf die Länge der ID in Ihren Datenbankschemas vorhanden sind, können Sie möglicherweise eine längere ID nicht speichern.

F: Wirkt sich dies auf bestehende Ressourcen aus?

Nein. Es sind nur Ressourcen betroffen, die erstellt werden, nachdem Sie sich für das längere Format entschieden haben. Nachdem einer Ressource eine ID zugewiesen wurde (lang oder kurz), ändert sich diese ID nicht mehr. Jede ID ist einzigartig und wird nicht wiederverwendet. Eine Ressource, die mit dem alten ID-Format erstellt wurde, behält immer ihre kürzere ID und eine Ressource, die mit dem neuen Format erstellt wurde, behält ihre längere ID, selbst wenn Sie später wieder das alte Format wählen.

F: Wann wird dies durchgeführt?

Bis Ende Juni 2018 können Sie sich über APIs und die EC2-Konsole für längere IDs entscheiden. Alle Konten können nach Bedarf zu Testzwecken für längere IDs an- und abgemeldet werden. Ab dem 1. Juli 2018 kann nicht mehr gewechselt werden und neu erstellte EC2-Ressourcen erhalten längere IDs. Alle Regionen, die ab Juli 2018 gestartet werden, unterstützen nur noch längere IDs.

F: Warum gibt es eine Opt-in-Periode?

Wir möchten Ihnen so viel Zeit wie möglich geben, um Ihre Systeme mit dem neuen Format zu testen. Diese Übergangszeit ermöglicht eine maximale Flexibilität zum Testen und Aktualisieren Ihre Systeme Stufe für Stufe, sodass Unterbrechungen weitgehend vermieden werden, während Sie die Unterstützung für das neue Format entwickeln.

F: Wie entscheide ich mich für längere IDs und wie mache ich meine Entscheidung rückgängig?

Während der Übergangszeit (ab jetzt bis Ende Juni 2018) können Sie über die APIs oder die EC2-Konsole wahlweise längere oder kürzere IDs nutzen. Anweisungen dazu finden Sie in dieser Dokumentation.

F: Was passiert, wenn ich gar nichts unternehme?

Wenn Sie sich während der Übergangszeit gegen das neue Format entscheiden, erhalten Sie die IDs mit dem längeren Format automatisch nach dem 1. Juli 2018. Wir empfehlen diesen Ansatz nicht. Es ist besser, die Unterstützung für das neue Format während der Übergangsphase einzuführen, damit Sie die Möglichkeit zu kontrollierten Tests haben.

F: Was ist, wenn ich nach Ende Juni 2018 das kürzere ID-Format bevorzuge?

Dies ist unabhängig von Ihren Benutzereinstellungen nicht länger möglich.

F: Wann geschieht die endgültige Umstellung auf die längeren IDs?

Im Juli 2018 erhalten Ihre neu erstellten Ressourcen längere IDs. Das geplante Umstellungsdatum für die verschiedenen Regionen kann durch Verwendung des AWS CLI-Formats für ID-Beschreibung (describe-id-format) ermittelt werden.

F: Was geschieht mit Ressourcen, die mit längeren IDs erstellt wurden, wenn ich mich erst für längere IDs entscheide und während der Übergangsphase auf das alte Format zurückgehe?

Nachdem eine Ressource zugewiesen wurde, ändert sich die ID nicht mehr. Ressourcen, die mit längeren IDs erstellt wurden, behalten unbeschadet späterer Vorgänge ihre längeren IDs. Wenn Sie sich für ein längeres Format entscheiden und dann auf das alte zurück wechseln, arbeiten Sie danach mit einer Mischung aus längeren und kürzeren Ressourcen-IDs. Die einzige Möglichkeit, die langen IDs wieder zu entfernen, besteht darin, die entsprechenden Ressourcen zu löschen oder zu beenden. Aus diesem Grund sollten Sie vorsichtig vorgehen und vermeiden, kritische Ressourcen mit dem neuen Format zu erstellen, solange Sie Ihre Tools und die Automatisierung nicht getestet haben.

F: Was soll ich tun, wenn meine Systeme vor der geplanten Umstellung nicht wie erwartet funktionieren?

Sollten Ihre Systeme während des Umstellungszeitraums nicht wie erwartet arbeiten, können Sie längere ID-Formate vorübergehend deaktivieren und Ihre Systeme entsprechend anpassen. Ihr Konto wird nach Ende Juni 2018 jedoch automatisch auf die Verwendung längerer IDs umgestellt. Unabhängig von Ihren Kontoeinstellungen erhalten sämtliche neuen Ressourcen IDs im langen Format, Sie müssen also sämtliche Systeme vor Ende des Umstellungszeitraums auf die problemlose Funktion mit längeren IDs prüfen. Durch eine frühzeitige Aktivierung und Prüfung des neuen Formats verschaffen Sie sich also wertvolle Zeit für die notwendigen Änderungen an Ressourcen mit kurzen IDs und minimieren das Risiko einer negativen Auswirkung auf Ihre Systeme.

F: Was passiert, wenn ich während der Übergangsphase Ressourcen in mehreren Regionen starte?

Die ID-Länge der Ressourcen hängt von der Region ab, in der diese veröffentlicht werden. Wurde das ID-Format in dieser Region bereits auf lange IDs umgestellt, verfügen in dieser Region veröffentlichte Ressourcen über längere IDs, falls nicht, verfügen sie über kurze IDs. Daher sehen Sie während der Übergangsphase sowohl kurze als auch lange Ressourcen-IDs.

F: Unterstützen neue Regionen, die von AWS während der Übergangszeit hinzufügt werden, automatisch längere IDs?

Ja. Alle neuen Regionen, die nach Juli 2018 gestartet werden, geben sowohl für neue als auch für bestehende Konten standardmäßig IDs mit einem langen Format aus.

F: Welchen Standard-ID-Typ haben neue Konten?

Konten, die am 15. März 2018 oder später erstellt werden, erhalten in jeder AWS-Region mit Ausnahme von AWS GovCloud (USA) standardmäßig das längere ID-Format. Wenn Sie ein neuer Kunde sind, ist der Übergang zu längeren IDs sehr einfach. Wenn Sie möchten, dass Ihr neues Konto Ihren Ressourcen das alte ID-Format zuweist, erstellen Sie Ihr Konto einfach neu für kürzere IDs, wie oben beschrieben. Dieser Workflow ist erforderlich, bis Sie bereit sind, Ihren Konten längere IDs zuzuweisen.

F: Benötige ich ein Upgrade auf eine neue Version des AWS SDK oder der AWS-Befehlszeilen-Schnittstelle?

Die folgenden AWS CLI und SDKs sind vollständig kompatibel mit langen IDs: PHP v2.8.27+, PHP v3.15.0+, AWS CLI v1.10.2+, Boto3v1.2.1+, Botocorev1.3.24+, PHP v1, Boto v1, Boto v2, Ruby v1, Ruby v2, JavaScript, Java, .NET, AWS Tools for Windows PowerShell und Go.

F: Wie kann ich meine Systeme mit längeren IDs testen?

Zu Testzwecken wurden Amazon Machine Images (AMIs) mit IDs in einem längeren Format veröffentlicht. Sie finden Anweisungen für den Zugriff auf diese AMIs hier.