Allgemeines

Übersicht

F: Was ist Amazon Elastic Compute Cloud (Amazon EC2)?

Amazon EC2 stellt skalierbare Rechenkapazitäten in der Cloud bereit. Der Service ist darauf ausgelegt, Web-Scale-Computing für Entwickler zu vereinfachen.

F: Was kann ich mit Amazon EC2 tun?

So wie Amazon Simple Storage Service (Amazon S3) die Speicherung in der Cloud ermöglicht, ermöglicht Amazon EC2 die Datenverarbeitung in der Cloud.  Über die einfache Webservice-Schnittstelle von Amazon EC2 können Sie Kapazitäten mit minimalem Aufwand abrufen und konfigurieren. Sie ermöglicht Ihnen die vollständige Kontrolle über Ihre Rechenressourcen sowie die Ausführung in der bewährten Rechenumgebung von Amazon. Amazon EC2 verkürzt die zum Buchen und Hochfahren neuer Server-Instances benötigte Zeit auf wenige Minuten. So können Sie die Kapazität entsprechend den Änderungen Ihrer Datenverarbeitungsanforderungen schnell wie gewünscht anpassen. Indem Sie nur für die Kapazität zahlen, die Sie auch tatsächlich nutzen, verändert Amazon EC2 die wirtschaftlichen Rahmenbedingungen von Rechenoperationen.

F: Was sind die ersten Schritte mit Amazon EC2?

Um sich für Amazon EC2 anzumelden, klicken Sie auf der Amazon-EC2-Detailseite auf die Schaltfläche „Für diesen Webservice anmelden“. Sie benötigen ein AWS-Konto, um auf diesen Service zugreifen zu können. Wenn Sie noch nicht über eines verfügen, werden Sie zu Beginn des Amazon-EC2-Anmeldevorgangs aufgefordert, eines zu erstellen. Lesen Sie nach der Anmeldung die Amazon-EC2-Dokumentation, die auch den Leitfaden für die ersten Schritte enthält.

F: Weshalb muss ich bei der Registrierung für Amazon EC2 meine Telefonnummer überprüfen lassen?

Zur Registrierung für Amazon EC2 sind eine gültige Telefonnummer und eine gültige E-Mail-Adresse in der AWS-Datenbank erforderlich, falls wir Sie direkt kontaktieren müssen. Die Überprüfung der Telefonnummer dauert nur wenige Minuten. Hierfür müssen Sie während der Registrierung einen Telefonanruf entgegennehmen und eine PIN über das Tastenfeld des Telefons eingeben.

F: Welche neuen Funktionen stehen Entwicklern zur Verfügung?

Bislang verfügten kleine Entwickler nicht über das Kapital, um erhebliche Computing-Ressourcen zu erwerben und somit sicherzustellen, dass sie über die benötigte Kapazität für unerwartete Spitzenlasten verfügen. Amazon EC2 hilft Entwicklern, die Amazon-Vorteile einer massiven Skalierung ohne Vorabinvestitionen oder Leistungseinbußen zu nutzen. Entwickler können sich nun ganz auf ihre Innovationen konzentrieren und sich dabei sicher sein, dass es ganz unabhängig von ihrem Geschäftserfolg weder teuer noch kompliziert sein wird, die benötigte Rechenkapazität zur Erlangung der Geschäftsanforderungen bereitzustellen.

Die Flexibilität dieses Service ermöglicht es Entwicklern, unmittelbar durch die Skalierung auf Datenverkehrsspitzen oder hohe Anforderungen zu reagieren. Wenn sich die Rechenanforderungen unerwartet ändern (nach oben oder nach unten), kann Amazon EC2 ohne Verzögerung reagieren. Entwickler können somit kontrollieren, wie viele Ressourcen zu einem bestimmten Zeitpunkt verwendet werden. Im Gegensatz dazu verfügen herkömmliche Hosting-Services im Allgemeinen über eine feste Ressourcenanzahl für eine festgelegte Zeitspanne. Die Benutzer haben somit weniger Möglichkeiten, einfach auf sich schnell ändernde und unvorhersehbare Auslastungen zu reagieren oder sich darauf einzustellen, dass der Erfahrung nach in bestimmten Intervallen Auslastungsspitzen erreicht werden.

F: Wie führe ich Systeme in der Amazon EC2-Umgebung aus?

Nachdem Sie Ihr Konto eingerichtet und Ihre AMIs ausgewählt oder erstellt haben, haben Sie alle Vorbereitungen für das Booten Ihrer Instance getroffen. Sie können das AMI auf einer beliebigen Anzahl von On-Demand-Instances starten, indem Sie die API "RunInstances" verwenden. Sie müssen lediglich angeben, wie viele Instances Sie starten möchten. Wenn Sie mehr Instances ausführen möchten, als Ihr On-Demand-Kontingent umfasst, füllen Sie das Antragsformular für Amazon-EC2-Instances aus.

Wenn Amazon EC2 Ihrer Anforderung nachkommen kann, meldet RunInstances Erfolg. Anschließend werden Ihre Instances gestartet. Sie können den Status Ihrer Instances über den API DescribeInstances überprüfen. Sie können auch eine beliebige Anzahl von Instances mit dem API TerminateInstances programmatisch terminieren.

Wenn Sie eine Instance mit einer Amazon EBS Boot-Partition ausführen, können Sie auch die API StopInstances verwenden, um die Rechenressourcen freizugeben und dabei die Daten auf der Boot-Partition zu belassen. Sie können die API StartInstances verwenden, wenn Sie für den Neustart der verbundenen Instance mit der Amazon EBS Boot Partition bereit sind.

Darüber hinaus haben Sie die Möglichkeit, mit Spot-Instances die Datenverarbeitungskosten zu senken, wenn Sie bei der Ausführung Ihrer Anwendungen zeitlich flexibel sind. Weitere Informationen zu Spot-Instances und deren Funktionsweise finden Sie unter Spot-Instances.

Sie können diese Aktionen auch über die AWS Management Console oder die Befehlszeile und unsere Befehlszeilen-Tools ausführen, die in der Web-Service-API integriert sind.

F: Welcher Unterschied besteht zwischen der Verwendung eines lokalen Instance-Speichers und der Verwendung von Amazon Elastic Block Store (Amazon EBS) für das Root-Gerät?

Beim Start Ihrer Amazon EC2-Instances haben Sie die Möglichkeit, die Daten von Ihrem Root-Gerät auf Amazon EBS oder im lokalen Instance-Speicher zu speichern. Durch Amazon EBS bleiben die Daten auf dem Root-Gerät unabhängig von der Lebensdauer der Instance bestehen. Auf diese Weise können Sie die Instance anhalten und anschließend wieder neu starten. Das ist vergleichbar mit einem Laptop, den Sie herunterfahren und neu starten, wenn Sie ihn wieder benötigen.

Im Vergleich dazu bleibt der lokale Instance-Speicher nur während der Lebensdauer der Instance bestehen. So können Sie Instances kostengünstig starten, wenn keine Daten auf dem Root-Gerät gespeichert sind. Einige Kunden verwenden diese Option beispielsweise, um große Websites auszuführen, bei denen jede Instance ein Klon für die Handhabung des Web-Datenverkehrs ist.

F: Wie schnell können Systeme ausgeführt werden?

Es dauert normalerweise nicht länger als zehn Minuten vom RunInstances-Aufruf bis zu dem Zeitpunkt, an dem alle angeforderten Instances mit der Boot-Sequenz beginnen. Die Dauer hängt von verschiedenen Faktoren ab, zum Beispiel von der Größe des AMI, der Anzahl der gestarteten Instances und wann dieses AMI zuletzt gestartet wurde. Bei Images, die zum ersten Mal gestartet werden, kann der Boot-Vorgang etwas länger dauern.

F: Wie lade und speichere ich meine Systeme mit Amazon EC2?

Mit Amazon EC2 können Sie alle Aspekte Ihrer Instances vom Betriebssystem bis zu Ihren Anwendungen einrichten und konfigurieren. Amazon Machine Image (AMI) ist eine einfache paketierte Umgebung, die alles Erforderliche für das Einrichten und Booten Ihrer Instance beinhaltet. Ihre AMIs sind Ihre Bereitstellungseinheit. Möglicherweise haben Sie nur ein AMI oder Sie stellen Ihr System aus mehreren Bausteinblock-AMIs (z. B. Webserver, Appserver und Datenbanken) zusammen. Amazon EC2 bietet mehrere Tools, mit denen das Erstellen eines AMI ganz einfach ist. Wenn Sie ein benutzerdefiniertes AMI erstellen, müssen Sie es bündeln. Für das Bündeln eines Images mit einem Root-Gerät, das von Amazon EBS gestützt wird, können Sie einfach den Bündelbefehl in der AWS Management Console verwenden. Wenn Sie ein Image mit einer Boot-Partition auf dem Instance-Speicher bündeln, müssen Sie zum Hochladen in Amazon S3 die AMI-Tools verwenden. Amazon EC2 verwendet Amazon EBS und Amazon S3, um eine zuverlässige, skalierbare Speicherung Ihrer AMIs zu bieten, damit sie bei Bedarf gebootet werden können.

Wenn Sie möchten, müssen Sie Ihr eigenes AMI nicht von Anfang an selbst einrichten. Sie können ein AMI aus vielen verschiedenen global verfügbaren AMIs auswählen, die nützliche Instances bieten. Wenn Sie beispielsweise nur einen einfachen Linux-Server wünschen, können Sie eines der Standard-AMIs für die Linux-Verteilung auswählen.

F: Wie greife ich auf meine Systeme zu?

Der RunInstances-Aufruf, mit dem die Ausführung Ihrer Anwendungen eingeleitet wird, gibt eine Gruppe von DNS-Namen zurück, von denen jeder für ein System steht, das gerade gebootet wird. Mit diesem Namen können Sie auf das System so zugreifen, als befände es sich in Ihrem eigenen Rechenzentrum. Sie sind im Besitz dieses Rechners während Ihre Betriebssystemgruppe darauf ausgeführt wird.

F: Wird Amazon EC2 zusammen mit Amazon S3 eingesetzt?

Ja, Amazon EC2 wird gemeinsam mit Amazon S3 für Instances mit Root-Geräten verwendet, die von einem lokalem Instance-Speicher gestützt werden. Mit Amazon S3 haben Entwickler Zugriff auf dieselbe äußerst skalierbare, zuverlässige, schnelle und erschwingliche Datenspeicher-Infrastruktur, die Amazon zum Ausführen seines eigenen globalen Website-Netzwerks verwendet. Zum Ausführen von Systemen in der Amazon EC2-Umgebung verwenden Entwickler die bereitgestellten Tools, um ihre AMIs in Amazon S3 zu laden und zwischen Amazon S3 und Amazon EC2 zu verschieben. Unter Wie lade und speichere ich meine Systeme mit Amazon EC2? finden Sie weitere Informationen zu AMIs.

Es ist davon auszugehen, dass Entwickler die Kombination aus Amazon EC2 und Amazon S3 als sehr nützlich empfinden. Amazon EC2 ermöglicht günstige, skalierbare Rechenvorgänge in der Cloud, während Amazon S3 den Benutzern das zuverlässige Speichern ihrer Daten ermöglicht.

F: Wie viele Instances kann ich mit Amazon EC2 ausführen?

Sie können On-Demand-Instances bis zu Ihrem vCPU-basierten On-Demand-Instance-Limit ausführen, 20 Reserved Instances kaufen und Spot Instances entsprechend Ihrem dynamischen Spot-Limit pro Region anfordern. Für neue AWS-Konten gelten ggf. niedrigere Limits als hier beschrieben.

Falls Sie weitere Instances benötigen, füllen Sie das Antragsformular für die Limitanhebung von Amazon EC2 aus und geben Sie den Anwendungsfall an. Ihre Limitanhebung wird dann geprüft. Die Anhebung der Limits ist von der Region abhängig, für die sie angefordert wurde.

F: Gibt es Einschränkungen in Bezug auf das Senden von E-Mails über Amazon EC2-Instances?

Ja. Damit wir die Qualität der Amazon EC2-Adressen zum Senden von E-Mails aufrechterhalten, beschränken wir die Anzahl der E-Mails, die von EC2-Konten gesendet werden können. Wenn Sie größere Mengen E-Mails über EC2 senden möchten, können Sie die Aufhebung der Limits für Ihr Konto beantragen, indem Sie dieses Formular ausfüllen.

F: Wie schnell kann ich die Kapazität nach oben oder nach unten skalieren?

Amazon EC2 bietet eine absolut flexible Rechenumgebung. Amazon EC2 ermöglicht Ihnen das Erhöhen oder Verringern der Kapazität innerhalb von Minuten, nicht Stunden oder Tagen. Sie können eine, Hunderte oder sogar Tausende Server-Instances gleichzeitig in Betrieb nehmen. Wenn Sie weitere Instances benötigen, rufen Sie einfach "RunInstances" auf, und Amazon EC2 richtet Ihre neuen Instances üblicherweise in wenigen Minuten ein. Natürlich kann sich Ihre Anwendung selbständig, dank der Steuerung über die Webservice-APIs, je nach Anforderung automatisch nach oben oder nach unten skalieren.

F: Welche Betriebssystemumgebungen werden unterstützt?

Amazon EC2 unterstützt derzeit die folgenden Betriebssysteme: Amazon Linux, Ubuntu, Windows Server, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, openSUSE Leap, Fedora, Fedora CoreOS, Debian, CentOS, Gentoo Linux, Oracle Linux und FreeBSD. Aktuell wird daran gearbeitet, den Service auf weitere Plattformen zu erweitern.

F: Nutzt Amazon EC2 ECC-Speicher?

Unserer Erfahrung nach ist ECC-Speicher für die Serverinfrastruktur erforderlich und die gesamte Hardware für Amazon EC2 nutzt ECC-Speicher.

F: Wie unterscheidet sich dieser Service von einem reinen Hosting-Service?

Herkömmliche Hosting-Services bieten normalerweise eine vorkonfigurierte Ressource, die für einen festgelegten Zeitraum und zu festgelegten Kosten bereitgestellt wird. Amazon EC2 unterscheidet sich grundlegend durch seine Flexibilität, Kontrolle und erheblichen Kosteneinsparungen für die Entwickler. Sie können Amazon EC2 als eigenes persönliches Rechenzentrum betrachten und dabei die Vorteile der robusten Infrastruktur von Amazon.com nutzen.

Wenn sich die Rechenanforderungen unerwartet ändern (nach oben oder nach unten), kann Amazon EC2 ohne Verzögerung reagieren. Entwickler können somit kontrollieren, wie viele Ressourcen zu einem bestimmten Zeitpunkt verwendet werden. Im Gegensatz dazu verfügen herkömmliche Hosting-Services im Allgemeinen über eine feste Ressourcenanzahl für eine festgelegte Zeitspanne. Die Benutzer haben somit weniger Möglichkeiten, einfach auf sich schnell ändernde und unvorhersehbare Auslastungen zu reagieren oder sich darauf einzustellen, dass der Erfahrung nach in bestimmten Intervallen Auslastungsspitzen erreicht werden.

Zweitens ermöglichen viele Hosting-Services keine vollständige Kontrolle über die bereitgestellten Rechenressourcen. Mit Amazon EC2 können Entwickler nicht einfach nur entscheiden, wann Instanzen eingeleitet oder heruntergefahren werden, sondern sie können die Konfiguration ihrer Instanzen vollständig entsprechend ihren Anforderungen anpassen und diese Konfiguration zu jeder Zeit ändern. Viele Hosting-Services decken eher Benutzergruppen mit ähnlichen Systemanforderungen ab und bieten daher nur eingeschränkte Änderungsmöglichkeiten.

Des Weiteren haben Entwickler mit Amazon EC2 den Vorteil, dass sie nur für ihre tatsächliche Ressourcennutzung zahlen, und zwar zu äußerst niedrigen Tarifen. Bei den meisten Hosting-Services müssen die Nutzer eine feste, im Voraus zu zahlende Gebühr entrichten, unabhängig von der tatsächlich genutzten Rechenleistung, so dass die Benutzer Gefahr laufen, zu viele Ressourcen zu kaufen, um die Unfähigkeit zu kompensieren, die Ressourcen innerhalb eines kurzen Zeitraums hoch zu skalieren. 

On-Demand-Instance-Limits für EC2

F: Was ändert sich?

Amazon EC2 ändert sein System für On-Demand-Instance-Limits. Bisher waren die Limits anzahlbasiert; nun sind sie vCPU-basiert. Dies soll die Verwaltung der Limits für AWS-Kunden vereinfachen. Die Erreichung des vCPU-basierten Limits wird anhand der Anzahl von vCPUs (Virtual Central Processing Units) für die Amazon EC2-Instance-Typen gemessen, sodass beliebige Instance-Typ-Kombinationen für die Erfüllung Ihrer Anwendungsanforderungen genutzt werden können.

F: Was sind vCPU-basierte Limits?

Sie können eine oder mehrere On-Demand-Instances in einem AWS-Konto ausführen. Amazon EC2 misst die Erreichung der Limits basierend auf der Gesamtanzahl von vCPUs (Virtual Central Processing Units), die für die Ausführung von On-Demand-Instances in Ihrem AWS-Konto zugewiesen sind. Die folgende Tabelle zeigt die Anzahl von vCPUs für jede Instance-Größe an. Die vCPU-Zuordnung kann sich bei einigen Instance-Typen unterscheiden. Weitere Informationen dazu finden Sie unter Amazon EC2-Instance-Typen.

Instance-Größe vCPUs
nano 1
micro 1
small 1
medium 1
large 2
xlarge 4
2xlarge 8
3xlarge 12
4xlarge 16
8xlarge 32
9xlarge 36
10xlarge 40
12xlarge 48
16xlarge 64
18xlarge 72
24xlarge 96
32xlarge 128

F: Wie viele On-Demand-Instances kann ich in Amazon EC2 ausführen?

Es gibt fünf vCPU-basierte Instance-Limits. Jedes Limit legt die Kapazität fest, die Sie für eine bestimmte Instance-Familie nutzen können. Jegliche Verwendung von Instances für eine bestimmten Familie zählt unabhängig von Generation, Größe oder Konfigurationsvariante (z. B. Festplatte, Prozessortyp) zum vCPU-Limit der Familie. Die Limits finden Sie in der Tabelle unten. Für neue AWS-Konten gelten ggf. niedrigere Limits als hier beschrieben.

Name des On-Demand-Instance-Limits Standard-vCPU-Limit
Ausführen von On-Demand-Standard-Instances (A, C, D, H, I, M, R, T, Z) 1 152 vCPUs
Ausführen von On-Demand-F-Instances 128 vCPUs
Ausführen von On-Demand-G-Instances 128 vCPUs
Ausführen von On-Demand-Inf-Instances 128 vCPUs
Ausführen von On-Demand-P-Instances 128 vCPUs
Ausführen von On-Demand-X-Instances 128 vCPUs

F: Sind diese vCPU-basierten On-Demand-Instance-Limits regional?

Ja, die On-Demand-Instance-Limits für ein AWS-Konto sind nach Region festgelegt.

F: Werden sich diese Limits mit der Zeit ändern?

Ja, die Limits können sich im Laufe der Zeit ändern. Amazon EC2 überwacht Ihre Nutzung innerhalb der verschiedenen Regionen und Ihre Limits werden basierend auf Ihrer Nutzung von EC2 automatisch angehoben.

F: Wie kann ich ein Anheben meines Limits beantragen?

Obwohl EC2 Ihre Limits für On-Demand-Instances basierend auf Ihrer Nutzung automatisch anhebt, können Sie bei Bedarf auch ein Anheben Ihrer Limits beantragen. Das geht über die Limits-Seite der Amazon-EC2-Konsole, die Amazon-EC2-Serviceseite der Service-Quotas-Konsole oder die Service-Quotas-API/CLI.

F: Wie kann ich mein neues vCPU-Limit berechnen?

Sie können dies über die vCPU-Zuordnung für jeden der Typen von Amazon-EC2-Instances tun oder den vereinfachten vCPU-Rechner nutzen, um die übergreifenden vCPU-Limit-Anforderungen für Ihr AWS-Konto zu kalkulieren.

F: Gelten vCPU-Limits beim Kauf von Reserved Instances oder bei der Anforderung von Spot-Instances?

Nein, die vCPU-basierten Limits gelten nur für die Ausführung von On-Demand- und Spot-Instances.

F: Wo kann ich meine aktuellen Limits für On-Demand-Instances einsehen?

Sie finden Ihre aktuellen On-Demand-Instance-Limits auf der EC2-Service-Limits-Seite der Amazon-EC2-Konsole und in der Service-Quotas-Konsole sowie den zugehörigen APIs.

F: Betrifft diese Änderung auch bereits laufende Instances?

Nein, der Wechsel zu vCPU-basierten Limits betrifft keine laufenden Instances.

F: Kann ich weiterhin dieselbe Anzahl von Instances starten?

Ja. Die vCPU-basierten Instance-Limits erlauben Ihnen, mindestens dieselbe Anzahl von Instances zu starten wie mit anzahlbasierten Instance-Limits.

F: Kann ich die Nutzung von Instances auf die Einhaltung dieser Limits prüfen?

Mit der Metriken-Integration von Amazon CloudWatch können Sie in der Service-Quotas-Konsole die EC2-Nutzung auf die Einhaltung von Limits prüfen. Mit Service Quotas können Kunden außerdem CloudWatch für das Konfigurieren von Alarmen nutzen, um Kunden zu warnen, wenn ein Limit fast erreicht ist. Zudem können Sie Ihre Instance-Nutzung in Trusted Advisor und Limit Monitor aufzeichnen und überprüfen.

F: Kann ich weiterhin die DescribeAccountAttributes-API nutzen?

Durch die vCPU-Limits kontrollieren nicht länger die Instance-Limits die Nutzung. Daher gibt die DescribeAccountAttributes-API den Wert „max-instances“ nicht mehr zurück. Stattdessen können Sie jetzt die Service Quotas-APIs nutzen, um Informationen zu EC2-Limits abzurufen. Weitere Informationen zu den Service-Quotas-APIs finden Sie in der AWS-Dokumentation.

F: Haben die vCPU-Limits Auswirkungen auf meine monatliche Rechnung?

Nein. Die EC2-Nutzung wird weiterhin entweder stundenweise oder sekundenweise berechnet, je nachdem, welche AMI Sie nutzen und welchen Instance-Typ mit welcher Größe Sie gelauncht haben.

F: Werden vCPU-Beschränkungen in sämtlichen Regionen verfügbar sein?

vCPU-basierte Instance-Limits sind in allen kommerziellen AWS-Regionen verfügbar.

Änderungen der SMTP-Endpunktrichtlinie für EC2

F: Was ändert sich?

Am 7. Januar 2020 führte Amazon EC2 eine Änderung ein, die den E-Mail-Verkehr standardmäßig über Port 25 einschränkt, um Kunden und andere Empfänger vor Spam und E-Mail-Missbrauch zu schützen. Port 25 wird in der Regel als SMTP-Standardport zum Senden von E-Mails verwendet. AWS-Konten, bei denen Beschränkungen für Port 25 bereits auf Anforderung entfernt wurden, sind von dieser Änderung nicht betroffen.

F: Ich habe einen gültigen Anwendungsfall für das Senden von E-Mails an Port 25 von EC2. Was kann ich tun, damit diese Port-25-Beschränkungen aufgehoben werden?

Wenn Sie einen gültigen Anwendungsfall für das Senden von E-Mails an Port 25 (SMTP) von EC2 haben, senden Sie bitte eine Anfrage zum Entfernen der Einschränkungen beim E-Mail-Versand, damit diese Einschränkungen aufgehoben werden. Alternativ können Sie E-Mails über einen anderen Port senden oder einen vorhandenen authentifizierten E-Mail-Relay-Service wie Amazon Simple Email Service (Amazon SES) nutzen.

Service Level Agreement (SLA)

F: Was garantiert mir die SLA (Service Level Agreement) von Amazon EC2?

Unsere SLA garantiert eine monatliche Betriebszeit in Prozent von mindestens 99,99 % für Amazon EC2 und Amazon EBS innerhalb einer Region.

F: Wie erfahre ich, ob ich für eine Gutschrift aus dem SLA qualifiziert bin?

Sie haben Anspruch auf ein SLA-Guthaben für Amazon EC2 oder Amazon EBS (je nachdem, was nicht verfügbar war, oder für beide, wenn beide nicht verfügbar waren), wenn die Region, in der Sie tätig sind, während eines beliebigen monatlichen Abrechnungszyklus eine monatliche Betriebszeit von weniger als 99,99 % aufweist. Ausführliche Informationen zu allen Bedingungen des SLA sowie Einzelheiten zur Geltendmachung eines Anspruchs finden Sie im Amazon Compute Service Level Agreement

Instance-Arten

Beschleunigte Computing-Instances

F: Was sind Accelerated-Computing-Instances?

Die Instance-Kategorie Accelerated Computing umfasst Instancefamilien, die Hardware-Beschleuniger oder Co-Prozessoren verwenden, um einige Funktionen, wie z. B. die Berechnung von Fließkommazahlen und die Grafikverarbeitung, effizienter auszuführen, als dies in Software möglich ist, die auf CPUs läuft. Amazon EC2 bietet drei Typen von beschleunigte Computing-Instances – GPU-Computing-Instances für allgemeine Computing-Anforderungen, GPU-Graphics-Instances für grafikintensive Anwendungen und FPGA-Computing-Instances mit programmierbarer Hardware für erweiterte wissenschaftliche Workloads.

F: Für welchen Verwendungszweck bieten sich GPU Graphics- und Compute-Instances an?

GPU-Instances eignen sich am besten für Anwendungen mit massiver Parallelverarbeitung, beispielsweise für Verarbeitungslasten mit Tausenden von Threads. Die Grafikverarbeitung ist ein Beispiel mit enormen Rechenanforderungen, bei der jede der Aufgaben relativ klein ist, die Menge der erfolgten Operationen eine Pipeline bilden und der Durchsatz dieser Pipeline wichtiger als die Latenz der einzelnen Operationen ist. Zur Entwicklung von Anwendungen, die eine derart intensive Parallelverarbeitung nutzen, sind spezifische Kenntnisse über das GPU-Gerät erforderlich. Der Entwickler muss also zum Beispiel wissen, wie die Programmierung bei verschiedenen Grafik-APIs (DirectX, OpenGL) oder GPU-Computing-Programmierungsmodellen (CUDA, OpenCL) erfolgen muss.

F: Welche Anwendungen können von P4d profitieren?

Einige der Anwendungen, für die wir erwarten, dass Kunden P4d einsetzen werden, sind Machine Learning (ML)-Workloads wie das Verstehen natürlicher Sprache, das Training von Wahrnehmungsmodellen für autonome Fahrzeuge, Bildklassifizierung, Objekterkennung und Empfehlungsmaschinen. Die erhöhte GPU-Leistung kann die Trainingszeit erheblich verkürzen, und der zusätzliche GPU-Arbeitsspeicher hilft Kunden beim Trainieren größerer und komplexerer Modelle. HPC-Kunden können die verbesserte Verarbeitungsleistung und den GPU-Speicher von P4 für seismische Analysen, Wirkstoffentdeckung, DNA-Sequenzierung und die Modellierung von Versicherungsrisiken nutzen.

F: Wie lassen sich P4d-Instances mit P3-Instances vergleichen?

P4-Instances sind mit der neuesten Generation an A100-Tensor-Core-GPUs von NVIDIA ausgestattet, welche eine durchschnittlich 2,5-fache Steigerung der TFLOP-Leistung sowie das 2,5-fache des GPU-Arbeitsspeichers gegenüber der V100 der vorherigen Generation ermöglichen. P4-Instances verfügen über eine Cascade Lake Intel-CPU mit 24C pro Sockel und einen zusätzlichen Befehlssatz für Vector Neural Network Instructions. P4-Instances werden das 1,5-fache des gesamten Systemspeichers und das 4-fache des Netzwerkdurchsatzes im Vergleich zu P3dn besitzen (bzw. das 16-fache im Vergleich zu P3.16xl). Ein weiterer wesentlicher Unterschied besteht darin, dass der NVSwitch-GPU-Verbindungsdurchsatz den auf P3 möglichen Wert verdoppelt, sodass jede GPU mit jeder anderen GPU mit demselben bidirektionalen Durchsatz von 600 GB/s und einer Single-Hop-Latenz kommunizieren kann. Auf diese Weise kann die Anwendungsentwicklung mehrere GPUs und Speicher als eine einzige große GPU und einen einheitlichen Speicherpool betrachten. P4d-Instances werden außerdem in eng gekoppelten Hyperscale-Clustern (EC2 UltraClusters) bereitgestellt. Mit diesen können Sie die komplexesten ML-Trainings- und HPC-Anwendungen mit mehreren Knoten ausführen.

F: Was sind EC2-UltraClusters und wie kann ich darauf zugreifen?

P4d-Instances werden in Hyperscale-Clustern bereitgestellt, die als EC2-UltraClusters bezeichnet werden. Jeder EC2-UltraCluster besteht aus mehr als 4 000 NVIDIA A100 Tensor Core-GPUs, einem Petabit-Netzwerk und einem skalierbarem Speicher mit geringer Latenz mit FSx for Lustre. Bei jedem EC2-UltraCluster handelt es sich um einen der weltweit besten Supercomputer. Jeder kann problemlos P4d-Instances in EC2-SuperClusters hochfahren. Kontaktieren Sie uns, wenn Sie zusätzliche Hilfe benötigen.

F: Funktionieren AMIs, die ich auf P3 und P3dn verwendet habe, auf P4?

Die P4-AMIs setzen neue NVIDIA-Treiber für die A100-GPUs und eine neuere Version des installierten ENA-Treibers voraus. P4-Instances werden von Nitro System betrieben und erfordern AMIs mit installiertem NVMe- und ENA-Treiber. P4 wird auch mit den neuen Cascade-Lake-CPUs von Intel ausgeliefert, die über einen aktualisierten Befehlssatz verfügen. Wir empfehlen daher die Verwendung der neuesten Verteilungen von ML-Frameworks, die diese neuen Befehlssätze für die Vorverarbeitung von Daten nutzen.

F: Worin unterscheiden sich P3-Instances von G3-Instances?

P3-Instances der neuesten Generation mit einer Leistung von bis zu 8 NVIDIA Tesla V100-GPUs bilden die nächste Generation der universalen EC2 GPU Computing-Instances. Diese neuen Instances heben Performance und Skalierbarkeit auf ein völlig neues Niveau und fügen zahlreiche neue Funktionen wie eine Streaming Multiprocessor (SM)-Architektur für die Leistungsoptimierung von Machine Learning (ML) und Deep Learning (DL), einen Hochgeschwindigkeits-NVIDIA-NVLink-GPU-Interconnect der zweiten Generation sowie einen hochgradig optimierten HBM2-Speicher für höchste Effizienz hinzu.

G3-Instances arbeiten mit NVIDIA Tesla M60-GPUs und bieten eine leistungsstarke Plattform für Grafikanwendungen unter Verwendung von DirectX oder OpenGL. NVIDIA Tesla M60-GPUs unterstützen NVIDIA GRID Virtual Workstation-Funktionen und H.265 (HEVC)-Hardwarecodierung. Jede M60-GPU in G3-Instances unterstützt 4 Monitore mit Auflösungen von bis zu 4096x2160 und ist für die Verwendung von NVIDIA GRID Virtual Workstation für genau einen gleichzeitig verbundenen Benutzer lizenziert. Beispielanwendungen für G3-Instances sind etwa 3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Verarbeitungslasten.

F: Welche Vorteile bieten NVIDIA Volta GV100-GPUs?

Der neue NVIDIA Tesla V100-Accelerator beinhaltet die leistungsstarke neue Volta GV100-GPU. GV100 trägt nicht nur die Vorteile seines Vorgängers, der Pascal GP100-GPU weiter, sondern fügt neben einer erheblichen Verbesserung der Leistung und Skalierbarkeit auch zahlreiche neue Funktionen hinzu, die die Programmierung erleichtern. Diese Vorteile helfen Ihnen, Ihre HPC-, Rechenzentrum-, Supercomputer- und Deep-Learning-Systeme und -Anwendungen enorm zu optimieren.

F: Wer profitiert von P3-Instances?

Von P3-Instances mit ihrer hohen Rechenleistung profitieren besonders Benutzer von Anwendungen der Bereiche Artificial Intelligence (AI), Machine Learning (ML), Deep Learning (DL) und High Performance Computing (HPC). Diese Instances richten sich also insbesondere an Benutzer wie Datenwissenschaftler, Datenarchitekten, Datenanalysten, wissenschaftliche Forscher, ML-Engineers, IT-Manager und Softwareentwickler. Zu den wichtigsten Branchen gehören unter anderem Transportwesen, Energie/Öl und Gas, Finanzdienstleistungen (Banken, Versicherungen), Gesundheitswesen, Pharmazie, Wissenschaft, IT, Einzelhandel, Fertigung, Hightech, Transportwesen, Behörden und Hochschulen.

F: Was sind typische Anwendungsfälle für P3-Instances?

P3-Instances verwenden GPUs zur Beschleunigung der verschiedensten Deep-Learning-Systeme und -Anwendungen in Bereichen wie Entwicklung autonomer Fahrzeuge, Sprach-, Bild- und Texterkennung, intelligente Videoanalytik, Molekularsimulation, Arzneimittelforschung, Krankheitsdiagnose, Wetterprognose, Big Data-Analytik, Finanzmodellierung, Robotik, Fertigungsautomation, Echtzeit-Sprachübersetzung, Online-Suchoptimierungen, personalisierte Benutzerempfehlungen und dergleichen mehr.

F: Warum empfehlen sich für AI/ML und HPC GPU-gestützte Amazon P3-Instances?

GPU-basierte Compute-Instances bieten aufgrund ihres Designs einer massiv parallelen Verarbeitung durch tausende spezialisierte Kerne pro GPU einen größeren Durchsatz und mehr Leistung als CPUs, die aufgrund ihrer wenigen Kerne nur eine sequentielle Verarbeitung erlauben. Darüber hinaus haben Entwickler Hunderte von GPU-optimierten wissenschaftlichen HPC-Anwendungen entwickelt, beispielsweise für die Quantenchemie, die Molekulardynamik und die Meteorologie, sowie viele andere. Studienergebnisse lassen darauf schließen, dass 70 % der heute gängigen HPC-Anwendungen GPUs bereits intern unterstützen.

F: Unterstützen P3-Instances EC2 Classic-Networking und Amazon VPC?

P3-Instances unterstützen nur VPC.

F: Worin unterscheiden sich G3-Instances von P2-Instances?

G3-Instances arbeiten mit NVIDIA Tesla M60-GPUs und bieten eine leistungsstarke Plattform für Grafikanwendungen unter Verwendung von DirectX oder OpenGL. NVIDIA Tesla M60-GPUs unterstützen NVIDIA GRID Virtual Workstation-Funktionen und H.265 (HEVC)-Hardwarecodierung. Jede M60-GPU in G3-Instances unterstützt 4 Monitore mit Auflösungen von bis zu 4096x2160 und ist für die Verwendung von NVIDIA GRID Virtual Workstation für genau einen gleichzeitig verbundenen Benutzer lizenziert. Beispielanwendungen für G3-Instances sind etwa 3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Verarbeitungslasten.

P2-Instances nutzen NVIDIA Tesla K80 GPUs und sind auf allgemeine GPU-Berechnungen mit den Programmierungsmodellen CUDA und OpenCL ausgelegt. P2-Instances bieten hohe Datenübertragungsgeschwindigkeiten von bis zu 25 Gbit/s, leistungsstarke einfach und doppelt genaue Gleitkommaoperationen und ECC-Speicher (Error-Correcting Code, Fehlerkorrekturkode). Damit eignen sie sich ideal für vertiefte Lernerfahrungen, Hochleistungsdatenbanken, numerische Strömungsmechanik, Finanzanwendungen, seismische Analysen, molekulare Modellierung, Genomforschung, Rendering und andere serverseitige GPU-Verarbeitungs-Workloads.

F: Worin unterscheiden sich P3-Instances von P2-Instances?

P3-Instances sind die neueste Generation der universalen EC2 GPU Computing-Instances mit einer Leistung von bis zu 8 der neuesten Generation von NVIDIA Volta GV100-GPUs. Diese neuen Instances heben Performance und Skalierbarkeit auf ein völlig neues Niveau und fügen zahlreiche neue Funktionen wie eine Streaming Multiprocessor (SM)-Architektur für ein leistungsoptimiertes Machine Learning (ML) und Deep Learning (DL), einen Hochgeschwindigkeits-NVIDIA-NVLink-GPU-Interconnect der zweiten Generation sowie einen hochgradig optimierten HBM2-Speicher für höchste Effizienz hinzu.

P2-Instances nutzen NVIDIA Tesla K80 GPUs und sind auf allgemeine GPU-Berechnungen mit den Programmierungsmodellen CUDA und OpenCL ausgelegt. P2-Instances bieten Kunden eine hohe Netzwerkbandbreite von 25 Gbit/s, Fließkommafunktionen mit einfacher und doppelter Genauigkeit und Arbeitsspeicher für Fehlerkorrekturcode (ECC).

F: Welche APIs und Programmiermodelle werden von GPU Graphics- und Compute-Instances unterstützt?

P3-Instances unterstützen CUDA 9 und OpenCL, P2-Instances unterstützen CUDA 8 und OpenCL 1.2 und G3-Instances unterstützen DirectX 12, OpenGL 4.5, CUDA 8 und OpenCL 1.2.

F: Wo erhalte ich die NVIDIA-Treiber für P3- und G3-Instances?

Es gibt zwei Möglichkeiten zum Abrufen von NVIDIA-Treibern. Auf AWS Marketplace gibt es Angebote, die Amazon-Linux- und Windows-Server-AMIs mit vorinstallierten NVIDIA-Treibern enthalten. Sie können auch 64-Bit-HVM-AMIs launchen und die Treiber selbst installieren. Hierzu gehen Sie zur Website mit den NVIDIA-Treibern und suchen dort nach NVIDIA Tesla V100 (für P3-Instances), nach NVIDIA Tesla K80 (für P2-Instances) bzw. nach NVIDIA Tesla M60 (für G3-Instances).

F: Welche AMIs kann ich mit P3-, P2- und G3-Instances verwenden?

Sie können derzeit Windows Server-, SUSE Enterprise Linux-, Ubuntu- und Amazon Linux-AMIs mit P2- und G3-Instances verwenden. P3-Instances unterstützen nur HVM-AMIs. Falls Sie AMIs mit Betriebssystemen starten möchten, die hier nicht aufgeführt sind, richten Sie eine Anfrage an den AWS Kunden-Support oder konsultieren Sie die EC2-Foren.

F: Sind für die Nutzung von G2- und G3-Instances Lizenzen anderer Anbieter erforderlich?

Abgesehen von den NVIDIA-Treibern und dem GRID SDK sind bei Nutzung von G2- und G3-Instances nicht unbedingt Lizenzen anderer Anbieter erforderlich. Sie müssen allerdings feststellen, ob Ihre auf G2- und G3-Instances verwendeten Inhalte oder Technologien eine zusätzliche Lizenzierung erfordern. Wenn Sie beispielsweise Inhalte streamen, benötigen Sie ggf. Lizenzen für einen Teil der bzw. die gesamten Inhalte. Wenn Sie Drittanbieter-Technologien wie Betriebssysteme, Audio- und/oder Videocodierer und -decodierer von Microsoft, Thomson, Fraunhofer IIS, Sisvel S.p.A., MPEG-LA oder Coding Technologies nutzen, erkundigen Sie sich bei diesen Anbietern, ob eine Lizenz erforderlich ist. Wenn Sie beispielsweise den integrierten H.264-Videocodierer der NVIDIA-GRID-GPU nutzen, wenden Sie sich zwecks Unterstützung an MPEG-LA. Bei Verwenden von MP3-Technologie sollten Sie sich zwecks Unterstützung an Thomson wenden.

F: Warum erhalte ich keine NVIDIA-GRID-Funktionen auf G3-Instances, wenn ich den von der NVIDIA-Website heruntergeladenen Treiber verwende?

Die in G3-Instances verwendete NVIDIA-Tesla-M60-GPU erfordert einen speziellen NVIDIA-GRID-Treiber, um alle erweiterten Grafikfunktionen und die Unterstützung für 4 Monitore mit einer Auflösung von bis zu 4096x2160 zu aktivieren. Sie müssen ein AMI mit vorinstalliertem NVIDIA GRID-Treiber verwenden oder den NVIDIA GRID-Treiber gemäß der AWS-Dokumentation herunterladen und installieren.

F: Warum kann ich die GPU bei Verwenden von Microsoft Remotedesktop nicht sehen?

Bei Verwenden von Remotedesktop werden GPUs, die das WDDM-Treibermodell verwenden, durch einen nicht beschleunigten Anzeigetreiber für Remotedesktop ersetzt. Um auf Ihre GPU-Hardware zugreifen zu können, müssen Sie ein anderes Tool für den Fernzugriff nutzen, z. B. VNC.

F: Was ist Amazon EC2 F1?

Amazon EC2 F1 ist eine Berechnungs-Instance mit programmierbarer Hardware, die Sie zur Anwendungsbeschleunigung verwenden können. Der neue Instance-Typ F1 bietet hohe Leistung sowie einfachen Zugriff auf FPGA-Technik für die Entwicklung und Bereitstellung angepasster Hardwarebeschleuniger.

F. Was sind FPGAs und wofür werden sie benutzt?

FPGAs sind programmierbare integrierte Schaltkreise, die Sie mithilfe von Software konfigurieren können. Mit FPGAs können Sie Ihre Anwendungen im Vergleich zu Servern, die nur CPUs verwenden, bis zum 30-fachen beschleunigen. Zudem können FPGAs umprogrammiert werden, sodass Sie Ihre Hardwarebeschleunigung flexibel anpassen und optimieren können, ohne die Hardware umkonfigurieren zu müssen.

F: wie unterscheidet sich F1 von herkömmlichen FPGA-Lösungen?

F1 ist eine AWS-Instance mit programmierbarer Hardware für die Anwendungsbeschleunigung. Mit F1 erhalten Sie durch wenige einfache Klicks Zugriff auf FPGA-Hardware, wodurch der Zeit- und Kostenauswand für einen vollen FPGA-Entwicklungs- und Skalierungszyklus bis zur Bereitstellung von Monaten oder Jahren auf Tage reduziert wird. Zwar ist die FPGA-Technologie seit Jahrzehnten verfügbar, jedoch war die Anwendungsbeschleunigung weniger erfolgreich. Das gilt sowohl für die Entwicklung von Beschleunigern als auch in Bezug auf Geschäftsmodelle für den Vertrieb angepasster Hardware an traditionelle Unternehmen. Der Grund dafür war der Zeit- und Kostenaufwand für Entwicklungsinfrastruktur, Hardwaredesign und richtig skalierte Bereitstellung. Mit diesem Angebot kann der hohe Aufwand in Verbindung mit der Entwicklung von FPGAs in Rechenzentren vor Ort umgangen werden.

F: Was ist ein Amazon FPGA Image (AFI)?

Das Design, das Sie zum Programmieren des FPGA erstellen, wird als Amazon FPGA Image (AFI) bezeichnet. AWS stellt einen Service zum Registrieren, Verwalten, Kopieren, Abfragen und Löschen von AFIs bereit. Nach der Erstellung eines AFI kann es auf eine ausgeführte F1-Instance geladen werden. Sie können mehrere AFIs in die gleiche F1-Instance laden und zur Laufzeit ohne Neustart zwischen den verschiedenen AFIs wechseln. Dadurch können Sie rasch mehrere Hardwarebeschleunigungen in schneller Folge testen und ausführen. Außerdem können Sie anderen Kunden auf dem AWS Marketplace eine Kombination aus FPGA-Beschleunigung und einem AMI mit benutzerdefinierter Software oder AFI-Treibern anbieten.

F: Wie liste ich meine Hardwarebeschleunigung auf dem AWS Marketplace auf?

Sie entwickeln Ihr AFI und die Softwaretreiber/-tools zum Verwenden dieser AFI. Dann packen Sie diese Softwaretools/-treiber in einem verschlüsselten Format in ein Amazon Machine Image (AMI). AWS verwaltet alle AFIs im von Ihnen bereitgestellten verschlüsselten Format, um die Sicherheit Ihres Codes beizubehalten. Um ein Produkt auf dem AWS Marketplace zu verkaufen, müssen Sie oder Ihr Unternehmen sich als AWS Marketplace-Wiederverkäufer registrieren. Dann übermitteln Sie Ihre AMI-ID und die AFI-ID(s), die in ein einzelnes Produkt gepackt werden sollen. AWS Marketplace übernimmt das Klonen des AMI und der AFIs, um ein Produkt zu erstellen, und weist diesen Artefakten einen Produkt-Code zu, sodass jeder Endbenutzer, der diesen Produkt-Code abonniert, Zugriff auf dieses AMI und diese AFIs hat.

F: Was ist mit F1-Instances verfügbar?

Für Entwickler bietet AWS ein Hardware Development Kit (HDK) für das Beschleunigen von Entwicklungszyklen, ein FPGA Developer AMI für das Entwickeln in der Cloud, ein SDK für AMIs, die die F1-Instance ausführen, sowie eine Reihe von APIs zum Registrieren, Verwalten, Kopieren, Abfragen und Löschen von AFIs. Sowohl Entwickler als auch Kunden haben Zugang auf den AWS Marketplace, auf dem AFIs für die Verwendung in Anwendungs-Beschleunigungen angeboten und gekauft werden können.

F. Muss ich ein FPGA-Experte sein, um eine F1-Instance verwenden zu können?

AWS-Kunden, die ein F1-optimiertes AMI vom AWS Marketplace abonniert haben, brauchen überhaupt nichts über FPGAs zu wissen, um die Beschleunigungen durch die F1-Instance und den AWS Marketplace nutzen zu können. Sie abonnieren einfach ein F1-optimiertes AMI vom AWS Marketplace mit einer Beschleunigung, die zur Arbeitslast passt. Das AMI enthält sämtliche Software, die für die FPGA-Beschleunigung erforderlich ist. Kunden müssen lediglich Software für die spezifische API für diesen Beschleuniger schreiben und mit der Nutzung des Beschleunigers beginnen.

F: Ich bin ein FPGA-Entwickler. Wie kann ich mit F1-Instances beginnen?

Entwickler können mit der F1-Instance beginnen, in dem sie AWS-Konto erstellen und das AWS Hardware Development Kit (HDK) herunterladen. Das HDK umfasst Dokumentation zu F1, interne FPGA-Schnittstellen und Compiler-Skripte zum Generieren des AFI. Entwickler können ihren FPGA-Code für die dokumentierten Schnittstellen schreiben, die im HDK zum Erstellen der Beschleunigungsfunktion enthalten sind. Entwickler können AWS-Instances mit dem FPGA Developer AMI starten. Dieses AMI enthält die Entwicklung-Tools, die zum Kompilieren und Simulieren des FPGA-Codes erforderlich sind. Das Developer AMI wird am besten auf den neuesten C5-, M5- oder R4-Instances ausgeführt. Entwickler sollten Erfahrung mit den Programmiersprachen haben, die zum Erstellen des FPGA-Codes (beispielsweise Verilog oder VHDL) verwendet werden, und den Vorgang verstehen, den sie beschleunigen möchten.

F: Ich bin kein FPGA-Entwickler. Wie kann ich mit F1-Instances starten?

Kunden können mit F1-Instances beginnen, indem Sie einen Accelerator vom AWS Marketplace auswählen und eine F1-Instance mit diesem AMI launchen. Das AMI enthält sämtliche Software und alle APIs für diesen Accelerator. AWS verwaltet das Programmieren des FPGA mit dem AFI für diesen Accelerator. Kunden benötigen weder Erfahrung noch Kenntnisse zum FPGA, um diese Beschleuniger nutzen zu können. Sie können vollständig auf der Softwareebene der API für diesen Accelerator arbeiten.

F: Bietet AWS ein Entwickler-Kit an?

Ja. Das Hardware Development Kit (HDK) enthält Simulation-Tools und Simulationsmodelle, mit denen Entwickler ihren Beschleunigungskode simulieren, debuggen, erstellen und registrieren können. Das HDK enthält Code-Beispiele, Kompilierungs-Skripte, Debug-Schnittstellen und viele weitere Tools, die Sie zum Entwickeln des FPGA-Codes für Ihre F1-Instances benötigen. Sie können das HDK entweder im von AWS bereitgestellten AMI oder in Ihrer Entwicklungsumgebung vor Ort verwenden. Diese Modelle und Skripte sind in einem AWS-Konto öffentlich erhältlich.

F: Kann ich das HDK in meiner On-Premises-Entwicklungsumgebung verwenden?

Ja. Sie können das Hardware Development Kit (HDK) entweder in einem von AWS bereitgestellten AMI oder in Ihrer lokalen Entwicklungsumgebung verwenden.

F: Kann ich ein FPGA zu jedem EC2-Instance-Typ hinzufügen?

Nein. F1-Instances werden in zwei Instance-Größen f1.2xlarge, f1.4xlarge und f1.16 xlarge angeboten.

F: Wie verwende ich den Inferentia-Chip in Inf1-Instances?

Sie können Ihren Workflow starten, indem Sie Ihr Modell in einem der gängigen ML-Frameworks wie TensorFlow, PyTorch oder MXNet mit GPU-Instanzen wie P4, P3 oder P3dn erstellen und trainieren. Sobald das Modell auf die erforderliche Genauigkeit trainiert wurde, können Sie mithilfe der API des ML-Frameworks Neuron, ein Software Development Kit für Inferentia, aufrufen, um das Modell für die Ausführung auf Inferentia-Chips zu kompilieren, es in den Speicher von Inferentia zu laden und anschließend Instance-Aufrufe auszuführen. Für einen schnellen Einstieg können Sie AWS-Deep-Learning-AMIs verwenden, die mit ML-Frameworks und dem Neuron SDK vorinstalliert sind. Für eine vollständig verwaltete Erfahrung können Sie Amazon SageMaker verwenden, mit dem Sie Ihre trainierten Modelle nahtlos auf Inf1-Instances bereitstellen können.

F: Wann würde ich Inf1 gegenüber C6i oder C5 gegenüber G4-Instances für Inferenz nutzen?

Kunden, die Modelle für Machine Learning verwenden, die empfindlich auf Inferenzlatenz und Durchsatz reagieren, können Inf1-Instances für kosteneffektive Hochleistungsinferenz verwenden. Für diese ML-Modelle, die weniger empfindlich auf Inferenzlatenz und Durchsatz reagieren, können Kunden EC2-C6i- oder C5-Instances und den AVX-512/VNNI-Befehlssatz verwenden. Für ML-Modelle, die Zugriff auf die CUDA-, CuDNN- oder TensorRT-Bibliotheken von NVIDIA benötigen, empfehlen wir die Verwendung von G4-Instances.

Modellmerkmale und verwendete Bibliotheken EC2 Inf1 EC2 C6i oder G5 EC2 G4
Modelle, die von geringer Latenz und hohem Durchsatz bei geringen Kosten profitieren X    
Modelle, die nicht auf Latenz und Durchsatz ansprechen X  
Modelle, für die die Entwicklerbibliotheken von NVIDIA erforderlich sind X

F: Wann sollte ich Elastic Inference (EI) für Inferenz im Vergleich zu Amazon EC2 Inf1-Instances wählen?

Es gibt zwei Fälle, in denen Entwickler EI gegenüber Inf1-Instances wählen würden: (1) Wenn Sie andere CPU- und Speichergrößen als die von Inf1 angebotenen benötigen, können Sie EI verwenden, um der EC2-Instance eine Beschleunigung mit der richtigen Mischung aus CPU und Speicher für hinzuzufügen Ihre Anwendung (2) Wenn Ihre Leistungsanforderungen erheblich unter den von der kleinsten Inf1-Instance bereitgestellten Anforderungen liegen, ist die Verwendung von EI möglicherweise die kostengünstigere Wahl. Wenn Sie beispielsweise nur 5 TOPS benötigen, die für die Verarbeitung von bis zu 6 gleichzeitigen Videostreams ausreichen, kann die Verwendung des kleinsten EI-Abschnitts mit einer C5.large-Instance bis zu 50 % billiger sein als die Verwendung der kleinsten Größe einer Inf1-Instance.

F: Welche ML-Modelltypen und Operatoren werden von EC2 Inf1-Instances mit dem Inferentia-Chip unterstützt?

Inferentia-Chips unterstützen die gängigen Modelle für Machine Learning wie Single Shot Detector (SSD) und ResNet für die Bilderkennung/-klassifizierung sowie Transformer und BERT für die Verarbeitung und Übersetzung natürlicher Sprachen und viele andere. Eine Liste der unterstützten Anbieter finden Sie auf GitHub.

F: Wie kann ich die NeuronCore-Pipeline-Funktion von AWS Inferentia nutzen, um die Latenz zu verringern?

Inf1-Instances mit mehreren Inferentia-Chips, wie z. B. Inf1.6xlarge oder Inf1.24xlarge, unterstützen eine schnelle Chip-zu-Chip-Verbindung. Mit der Neuron Processing Pipeline-Funktion können Sie Ihr Modell aufteilen und über mehrere Chips in den lokalen Cache-Speicher laden. Der Neuron-Compiler verwendet die AOT-Kompilierungstechnik (Ahead Of Time, AOT) zum Analysieren des Eingabemodells und Kompilieren, um es auf den On-Chip-Speicher eines einzelnen oder mehrerer Inferentia-Chips zu übertragen. Auf diese Weise können die Neuronenkerne mit hoher Geschwindigkeit auf Modelle zugreifen und benötigen keinen Zugriff auf chipexternen Speicher. Dadurch wird die Latenz begrenzt und gleichzeitig der gesamte Inferenzdurchsatz erhöht.

F: Was ist der Unterschied zwischen AWS Neuron und Amazon SageMaker Neo?

AWS Neuron ist ein spezialisiertes SDK für AWS Inferentia-Chips, das die Inferenzleistung von Inferentia-Chips optimiert. Es besteht aus einem Compiler, Laufzeit- und Profilerstellungstool für AWS Inferentia und ist erforderlich, um Inferenz-Workloads auf EC2 Inf1-Instances auszuführen. Andererseits ist Amazon SageMaker Neo ein hardwareunabhängiger Dienst, der aus einem Compiler und einer Laufzeit besteht, mit denen Entwickler Modelle für Machine Learning einmal trainieren und auf vielen verschiedenen Hardwareplattformen ausführen können.  

F: Wie kann ich die Trainium-Chips in Trn1-Instances verwenden?

Der Software-Stack von Trainium, AWS Neuron SDK, integriert führende ML-Frameworks wie PyTorch und TensorFlow, so dass Sie mit minimalen Code-Änderungen loslegen können. Um schnell loszulegen, können Sie AWS Deep Learning AMIs und AWS Deep Learning Containers verwenden, die mit AWS Neuron vorkonfiguriert sind. Wenn Sie containerisierte Anwendungen verwenden, können Sie AWS Neuron mithilfe von Amazon Elastic Container Service (Amazon ECS), Amazon Elastic Kubernetes Service (Amazon EKS) oder Ihrer bevorzugten nativen Container-Engine bereitstellen. AWS Neuron unterstützt auch Amazon SageMaker, mit dem Sie Modelle für maschinelles Lernen erstellen, trainieren und bereitstellen können.

F: Wo kann ich Deep-Learning-Modelle einsetzen, die auf Trn1 trainiert wurden?

Sie können Deep-Learning-Modelle, die auf Trn1-Instances trainiert wurden, auf jeder anderen Amazon EC2-Instance bereitstellen, die Deep-Learning-Anwendungsfälle unterstützt, einschließlich Instances, die auf CPUs, GPUs oder anderen Beschleunigern basieren. Sie können Modelle, die auf Trn1-Instances trainiert wurden, auch außerhalb von AWS bereitstellen, z. B. in On-Premises-Rechenzentren oder in eingebetteten Geräten am Edge. Sie können Ihre Modelle zum Beispiel auf Trn1-Instances trainieren und sie auf Inf1-Instances, G5-Instances, G4-Instances oder Computer-Geräten am Edge einsetzen.

F: Wann würde ich Trn1-Instances gegenüber GPU-basierten Instances für das Training von ML-Modellen verwenden?

Trn1-Instances eignen sich gut für Ihre Anwendungsfälle in den Bereichen natürliche Sprachverarbeitung (NLP), große Sprachmodelle (LLM) und Computer Vision (CV)-Modelle. Trn1-Instances konzentrieren sich auf die Beschleunigung der Modellschulung, um eine hohe Leistung zu erzielen und gleichzeitig die Kosten für die Modellschulung zu senken. Wenn Sie ML-Modelle haben, die proprietäre Bibliotheken oder Sprachen von Drittanbietern benötigen, z. B. NVIDIA CUDA, CUDA Deep Neural Network (CuDNN) oder TensorRT-Bibliotheken, empfehlen wir die Verwendung der Nvidia GPU-basierten Instances (P4, P3).

Burst-fähige Instances

F: Wodurch unterscheiden sich Instances mit Spitzenlastleistung?

Amazon EC2 bietet Ihnen die Wahl zwischen Instances mit gleichbleibender Leistung (z. B. Instances der Serien C, M und R) und Instances mit Spitzenlastleistung (z. B. T2). Burstfähige Instances bieten eine CPU-Basisleistung mit der Möglichkeit, diese Leistung für den Burstverkehr zu erhöhen.

Bei T2-Instances werden die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten per CPU-Guthaben verwaltet. Jede T2-Instance erhält fortlaufend CPU-Guthaben. Die Rate hängt von der Instance-Größe ab. T2-Instances sammeln im Leerlauf CPU-Guthaben und verbrauchen CPU-Guthaben, wenn sie aktiv sind. Ein CPU-Guthaben stellt die Leistung eines gesamten CPU-Kerns für eine Minute zur Verfügung. 

Modell

vCPUs

CPU-Guthaben/Stunde

Maximaler CPU-Guthabensaldo

Basisleistung (CPU)

t2.nano 1 3 72 5 % eines Kerns

t2.micro

1

6

144

10 % eines Kerns

t2.small

1

12

288

20 % eines Kerns

t2.medium

2

24

576

40 % eines Kerns*

t2.large 2 36 864 60 % eines Kerns**

t2.xlarge

4

54

1.296

90 % eines Kerns***

t2.2xlarge

8

81

1.944

135 % eines Kerns****

* Bei t2.medium können Anwendungen mit Single-Thread-Verfahren 40 % eines Kerns nutzen. Falls erforderlich, können Anwendungen mit Multi-Thread-Verfahren je 20 % von zwei Kernen nutzen.

**Bei t2.large können Anwendungen mit Single-Thread-Verfahren 60 % eines Kerns nutzen. Falls erforderlich, können Anwendungen mit Multi-Thread-Verfahren je 30 % von zwei Kernen nutzen.

***Bei t2.xlarge können Single-Threaded-Anwendungen 90 % eines Kerns nutzen. Falls erforderlich, können Multi-Threaded-Anwendungen je 45 % von 2 Kernen oder 22,5 % von allen 4 Kernen nutzen.

**** Beim t2.2xlarge können Single-Threaded-Anwendungen einen Kern vollständig nutzen, Multi-Threaded-Anwendungen können bei Bedarf 67,5 % von jeweils 2 Kernen oder 16,875 % aller 8 Kerne nutzen.

F: Wie wähle ich für meine T2-Instances das richtige Amazon Machine Image (AMI) aus?

Sie sollten sicherstellen, dass die Mindestspeicheranforderungen Ihres Betriebssystems und Ihrer Anwendungen innerhalb der Arbeitsspeicherkapazität jeder T2-Instance liegen (z. B. 512 MiB für t2.nano). Betriebssysteme mit einer grafischen Benutzeroberfläche (GUI) verbrauchen sehr viel Speicher und CPU. Beispielsweise könnte Microsoft Windows eine t2.micro oder größere Instance-Größe für viele Anwendungsfälle benötigen. Für t2.nano-Instance-Typen geeignete AMIs finden Sie auf AWS Marketplace. Windows-Kunden, die die grafische Benutzeroberfläche nicht benötigen, können die Microsoft Windows Server 2012 R2 Core AMI verwenden.

F: Wann sollte ich eine Instance mit Spitzenlastleistung wie T2 wählen?

T2-Instances bieten eine kostengünstige Plattform für verschiedenste allgemeine Produktionsarbeitslasten. T2 Unlimited-Instances können die hohe CPU-Leistung so lange wie nötig aufrechterhalten. Wenn Ihre Workloads durchweg eine CPU-Auslastung erfordern, die weit über der Basislinie liegt, sollten Sie eine dedizierte CPU-Instance wie die M oder C in Betracht ziehen.

F: Wie kann ich das CPU-Guthaben für jede T2-Instance sehen?

Sie können den CPU-Guthabensaldo für die einzelnen T2-Instances in der EC2-Instance-Metrik in Amazon CloudWatch anzeigen. Für T2-Instances werden vier Metriken erfasst: CPUCreditUsage, CPUCreditBalance, CPUSurplusCreditBalance und CPUSurplusCreditsCharged. CPUCreditUsage gibt den Betrag des verbrauchten CPU-Guthabens an. CPUCreditBalance gibt den Saldo des CPU-Guthabens an. CPUSurplusCredit Balance gibt das bei Kernleistung verbrauchte Guthaben ohne neu gewonnenes Guthaben an. CPUSurplusCreditsCharged gibt das belastete Guthaben an, wenn die durchschnittliche Nutzung die Grundkapazität übersteigt.

F: Was passiert mit der CPU-Leistung, wenn meine T2-Instance fast kein Guthaben mehr hat (CPU-Guthabensaldo nahe null)?

Wenn der CPU-Guthabensaldo Ihrer T2-Instance auf null sinkt, bleibt die Leistung auf der CPU-Basisleistung. t2.micro bietet beispielsweise eine CPU-Basisleistung von 10 % eines physischen CPU-Kerns. Wenn der CPU-Gutschriftssaldo Ihrer Instance gegen null geht, wird die CPU-Leistung über einen Intervall von 15 Minuten auf die Basisleistung gesenkt.

F: Bleibt der Guthabensaldo meiner T2-Instance bei einem Stopp und Start bestehen?

Nein, eine angehaltene Instance behält ihren bisherigen Guthabensaldo nicht.

F: Können T2-Instances als Reserved Instances oder Spot-Instances gekauft werden?

T2-Instances können als On-Demand-Instances, als Reserved Instances oder als Spot Instances gekauft werden.

F: Was sind Amazon EC2 T4g-Instances?

Amazon EC2 T4g-Instances sind die nächste Generation von spitzenleistungsfähigen Instances für allgemeine Zwecke, die auf ARM-basierten AWS Graviton2-Prozessoren basieren. T4g-Instances bieten ein um bis zu 40 % besseres Preis-Leistungs-Verhältnis als T3-Instances. Sie basieren auf dem AWS-Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Was sind Beispiele für ideale Anwendungsfälle für T4g-Instances?

T4g-Instances bieten für zahlreiche spitzenlastfähige Workloads für allgemeine Zwecke ein um bis zu 40 % besseres Preis-Leistungs-Verhältnis als T3-Instances. Dazu gehören Mikrodienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Coderepositorys und geschäftskritische Anwendungen. Für Kunden, die auf Open-Source-Software basierende Anwendungen auf T-Instances einsetzen, sind die T4g-Instances eine attraktive Option, um die beste Preisleistung zu erzielen. Arm-Entwickler können ihre Anwendungen auch direkt auf nativer Arm-Hardware erstellen, anstatt sie zu kompilieren oder zu emulieren.

F: Wie erhalten Kunden Zugriff auf das kostenlose T4g-Testprogramm?

Bis zum 31. Dezember 2023 werden alle AWS-Kunden automatisch für das kostenlose T4g-Testprogramm registriert, wie im kostenlosen AWS-Kontingent dargelegt. Während der kostenlosen Testphase werden Kunden, die eine t4g.small-Instance betreiben, automatisch 750 Gratisstunden pro Monat von ihrer Rechnung abgezogen. Die 750 Stunden werden für alle Regionen, in denen die t4g.small-Instances genutzt werden, zusammen berechnet. Kunden müssen für zusätzliches CPU-Guthaben bezahlen, wenn sie das den Instances zugewiesenen Guthaben während der 750 kostenlosen Stunden des T4g-Testprogramms überschreiten. Weitere Informationen über die Funktionsweise von CPU-Guthaben finden Sie unter Schlüsselkonzepte und Definitionen für Spitzenleistungs-Instances im Amazon-EC2-Handbuch für Linux-Instances.

F: Wer kann das kostenlose T4g-Testprogramm in Anspruch nehmen?

Alle bestehenden und neuen Kunden mit einem AWS-Konto können das kostenlose T4g-Testprogramm nutzen. Das kostenlose T4g-Testprogramm ist für einen begrenzten Zeitraum bis zum 31. Dezember 2023 verfügbar. Für den Start- und Endzeitpunkt des kostenlosen Testprogramms gilt die Coordinated Universal Time (UTC, koordinierte Weltzeit). Das kostenlose T4g-Testprogramm steht zusätzlich zu dem bestehenden kostenlosen AWS-Kontingent auf t2.micro/t3.micro zur Verfügung. Kunden, die ihr kostenloses Kontingent auf t2.micro (oder t3.micro, je nach Region) ausgeschöpft haben, können trotzdem das kostenlose T4g-Testprogramm nutzen.

F: In welchen Regionen ist das kostenlose T4g-Testprogramm verfügbar?

Das kostenlose Testprogramm von T4g ist derzeit in den folgenden AWS-Regionen verfügbar: USA Ost (Ohio), USA Ost (Nord-Virginia), USA West (Nordkalifornien), USA West (Oregon), Südamerika (Sao Paulo), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Seoul), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Tokio), Kanada (Zentral), Europa (Frankfurt), Europa (Irland), Europa (London), und Europa (Stockholm). Es ist derzeit nicht in den Regionen China (Peking) und China (Ningxia) verfügbar.

Im Rahmen des kostenlosen Testprogramms können Kunden bis zum 31. Dezember 2023 kostenlos t4g.small-Instances in einer oder mehreren Regionen aus einem einzigen Gesamt-Bucket von 750 Freistunden pro Monat nutzen. Ein Kunde kann zum Beispiel ein t4g.small in Oregon 300 Stunden im Monat laufen lassen und ein anderes t4g.small in Tokio 450 Stunden lang im selben Monat laufen lassen. Dies entspricht dem Limit von 750 Stunden/Monat des kostenlosen Testprogramms.

F: Gibt es eine zusätzliche Gebühr für die Ausführung bestimmter AMIs im Rahmen des kostenlosen T4g-Programms?

Beim kostenlosen Testprogramm von t4g.small fallen für Amazon Machine Image (AMI) für Amazon Linux 2, RHEL und SUSE Linux AMIs, die über den Schnellstart der EC2-Konsole verfügbar sind, für die ersten 750 kostenlosen Stunden pro Monat keine Kosten an. Nach 750 Freistunden/Monat gelten die regulären On-Demand-Preise einschließlich AMI-Gebühr (falls zutreffend). Die geltenden Softwaregebühren für AWS-Marketplace-Angebote mit AMI-Erfüllungsoptionen werden vom kostenlosen Testprogramm nicht abgedeckt. Nur die Kosten für die t4g.small-Infrastruktur werden vom kostenlosen Testprogramm abgedeckt.

F: Wie wird das kostenlose t4g.small-Testprogramm auf meiner AWS-Rechnung ausgewiesen?

Für das kostenlose T4g-Testprogramm gilt ein monatlicher Abrechnungszeitraum, der jeweils am ersten Tag des Monats beginnt und am letzten Tag des Monats endet. Im Rahmen des Fakturierungsplans für das kostenlose t4g.small-Testprogramm sehen Kunden, die t4g.small nutzen, im Abschnitt On-Demand-Preise für die ersten 750 aggregierten Nutzungsstunden für jeden Monat während des Zeitraums des kostenlosen Testprogramms einen Einzelposten mit 0 USD auf ihrer Rechnung. Kunden können jederzeit während der kostenlosen Testphase beginnen und erhalten 750 Freistunden für den verbleibenden Teil des Monats. Nicht genutzte Stunden aus dem Vormonat werden nicht übertragen. Kunden können mit dem kostenlosen Testprogramm mehrere t4g.small-Instances starten. Kunden werden automatisch per E-Mail über AWS Budgets benachrichtigt, wenn ihre monatliche aggregierte Nutzung 85 % von 750 Freistunden erreicht. Wenn die Nutzung der aggregierten Instances 750 Stunden für den monatlichen Abrechnungszeitraum überschreitet, werden den Kunden für die in diesem Monat überschrittenen Stunden die regulären On-Demand-Preise in Rechnung gestellt. Für Kunden mit einem Datenverarbeitungs-Savings Plan oder einem T4g Instance Savings Plan wird der Savings Plan (SV)-Rabatt für Stunden, die über die 750 Stunden des kostenlosen Testprogramms hinausgehen, auf die On-Demand-Preise angerechnet. Wenn Kunden den T4g Reserved Instance (RI)-Plan gekauft haben, gilt der RI-Plan zuerst für jede Nutzung auf Stundenbasis. Für jegliche nach der Anwendung des RI-Plans verbleibende Nutzung tretet der Fakturierungsplan für das kostenlose Testprogramm in Kraft.

F: Wenn sich Kunden für konsolidierte Fakturierung anmelden (d. h. ein einziges Zahlerkonto), können sie dann das kostenlose T4g-Testprogramm für jedes mit dem Zahlerkonto verknüpfte Konto erhalten?

Nein, Kunden, die die konsolidierte Fakturierung zur Erstellung einer Sammelrechnung für mehrere Konten verwenden, haben Zugriff auf ein kostenloses Kontingent pro Unternehmen. Jedes Zahlerkonto erhält eine Gesamtsumme von 750 Freistunden/Monat. Weitere Einzelheiten zur konsolidierten Fakturierung finden Sie unter Konsolidierte Fakturierung für AWS-Organisationen im Leitfaden zu AWS-Fakturierung und -Kostenmanagement.

F: Werden Kunden als Teil des kostenlosen T4g-Testprogramms zusätzliche CPU-Guthaben in Rechnung gestellt?

Kunden müssen für zusätzliches CPU-Guthaben bezahlen, wenn sie das den Instances zugewiesenen Guthaben während der 750 kostenlosen Stunden des T4g-Testprogramms überschreiten. Weitere Informationen über die Funktionsweise von CPU-Guthaben finden Sie unter Schlüsselkonzepte und Definitionen für Spitzenleistungs-Instances im Amazon-EC2-Handbuch für Linux-Instances.

F: Wie werden den Kunden nach Ablauf des kostenlosen Testprogramms die t4g.small-Instances in Rechnung gestellt?

Ab dem 1. Januar 2024 werden Kunden, die t4g.small-Instances nutzen, automatisch von dem kostenlosen Testplan auf ein On-Demand-Preismodell (oder Reserved Instance (RI)/Savings Plan (SV)-Plan, falls gekauft) umgestellt und die akkumulierten Guthaben auf null gesetzt. Die angesammelten Guthaben werden auf Null gesetzt. Die Kunden erhalten sieben Tage vor Ablauf des kostenlosen Testprogramms eine E-Mail-Benachrichtigung mit dem Hinweis, dass das kostenlose Testprogramm in sieben Tagen endet. Ab dem 1. Januar 2024 gelten die RI-Pläne, sofern der RI-Plan gekauft wird. Andernfalls werden Kunden die regulären On-Demand-Preise für t4g.small-Instances in Rechnung gestellt. Für Kunden, die den T4g Instance Savings Plan oder einen Datenverarbeitungs-Savings Plan haben, wird bei der Fakturierung von t4g.small-Instances der Savings-Plan-Rabatt auf ihre On-Demand-Preise angerechnet.

Für Datenverarbeitung optimierte Instances

F: Wann sollte ich für Datenverarbeitung optimierte Instances nutzen?

Für Datenverarbeitung optimierte Instances eignen sich besonders für Anwendungen, die eine hohe Rechenleistung benötigen. Dazu gehören rechenintensive Anwendungen, wie z. B. Hochleistungs-Webserver, High Performance Computing (HPC), wissenschaftliche Modellierung, verteilte Analysen und Machine-Learning-Inferenz.

F: Was sind C7g-Instances von Amazon EC2?

Die C7g-Instances von Amazon EC2, die von AWS-Graviton3-Prozessoren der neuesten Generation angetrieben werden, bieten die beste Preisleistung in Amazon EC2 für rechenintensive Workloads. C7g-Instances sind ideal für das High Performance Computing (HPC), die Batch-Verarbeitung, die Electronic Design Automation (EDA), Spiele, die Videocodierung, die wissenschaftliche Modellierung, verteilte Analysen, die CPU-basierte Machine Learning (ML)-Inferenz und das Ad-Serving. Sie bieten eine bis zu 25 % bessere Leistung als die AWS-Graviton2-basierten C6g-Instances der sechsten Generation.

F: Was sind C6g-Instances von Amazon EC2?

Amazon EC2 C6g-Instances sind die nächste Generation von rechenoptimierten Instances, die auf Arm-basierten AWS Graviton2-Prozessoren basieren. C6g-Instanzen bieten eine bis zu 40 % bessere Preisleistung als C5-Instanzen. Sie basieren auf dem AWS-Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Was sind Beispiele für ideale Anwendungsfälle für C6g-Instances?

C6g-Instances bieten erhebliche Preis-Leistungsvorteile für rechenintensive Workloads wie High Performance Computing (HPC), Stapelverarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analysen und CPU-basierte Inferenz für Machine Learning. Für Kunden, die auf Open-Source-Software basierende Anwendungen über die C-Instancefamilie bereitstellen, sind die C6g-Instances eine attraktive Option, um die beste Preisleistung zu erzielen. Arm-Entwickler können ihre Anwendungen auch direkt auf nativer Arm-Hardware erstellen, anstatt sie zu kompilieren oder zu emulieren.

F: Welche verschiedenen Speicheroptionen sind auf C6g-Instances verfügbar?

C6g-Instances sind standardmäßig EBS-optimiert und bieten bis zu 19 000 Mbit/s dedizierte EBS-Speicherbandbreite für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. C6g-Instances unterstützen nur das Non-Volatile-Memory-Express-(NVMe-)Interface zum Zugriff auf EBS-Speichervolumes. Darüber hinaus sind Optionen mit lokalem NVMe-Instance-Speicher auch über die C6gd-Instance-Typen verfügbar.

F: Welche Netzwerkschnittstelle wird auf C6g-Instances unterstützt?

C6g-Instances unterstützen ENA-basiertes Enhanced Networking. Mit ENA können C6g-Instances innerhalb einer Placement-Gruppe bis zu 25 Gbit/s an Netzwerkbandbreite zwischen den Instances bereitstellen.

F: Müssen Kunden ihre Anwendungen und Workloads anpassen, um eine Ausführung auf C6g-Instances zu ermöglichen?

Die erforderlichen Änderungen hängen von der Anwendung ab. Kunden, die Anwendungen ausführen, die auf Open Source-Software basieren, werden feststellen, dass das Arm-Ökosystem gut entwickelt ist und wahrscheinlich bereits ihre Anwendungen unterstützt. Die meisten Linux-Distributionen sowie Container (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) unterstützen die Arm-Architektur. Kunden finden Arm-Versionen häufig verwendeter Softwarepakete, die für die Installation über dieselben Mechanismen zur Verfügung stehen, die sie derzeit verwenden. Anwendungen, die auf interpretierten Sprachen basieren (wie Java, Node, Python, Go), die nicht auf native CPU-Befehlssätze angewiesen sind, sollten mit minimalen bis keinen Änderungen ausgeführt werden. Anwendungen, die mit kompilierten Sprachen (C, C++, GoLang) entwickelt wurden, müssen neu kompiliert werden, um Arm-Binärdateien zu generieren. Die Arm-Architektur wird in diesen beliebten Programmiersprachen gut unterstützt und moderner Code erfordert in der Regel einen einfachen „Make“-Befehl. Weitere Details finden Sie im Handbuch zu den ersten Schritten auf Github.

F: Werden für die C6-Instance-Familien mehr Datenverarbeitungsoptionen angeboten?

Ja, wir planen, in Zukunft Intel- und AMD CPU-gestützte Instances als Teil der C6-Instance-Familien anzubieten.

F: Kann ich C4-Instances als für Amazon EBS optimierte Instances starten?

Jeder C4-Instance-Typ ist standardmäßig für EBS optimiert. C4-Instances bieten EBS Verbindungen mit 500 Mbit/s bis 4 000 Mbit/s zusätzlich zum der Instance im Netzwerk bereitgestellten Durchsatz. Da diese Funktion für C4-Instances stets aktiviert ist, wirkt sich das explizite Starten einer C4- Instance als für EBS optimiert nicht auf das Verhalten der Instance aus.

F: Wie kann ich die für c4.8xlarge-Instances verfügbare Funktion zum Steuern des Prozessstatus nutzen?

Der Instance-Typ c4.8xlarge bietet einem Betriebssystem die Möglichkeit, die Prozessstatus C und P zu steuern. Diese Funktion ist derzeit nur für Linux-Instances verfügbar. Sie können die Einstellungen für die Status C oder P ändern, um die Einheitlichkeit der Prozessorleistung zu erhöhen, die Latenz zu verkürzen oder Ihre Instance für eine bestimmte Verarbeitungslast zu optimieren. Amazon Linux bietet standardmäßig die Konfiguration mit der höchsten Leistung, die für die meisten Verarbeitungslasten von Kunden optimal ist. Wenn Ihre Anwendung allerdings von einer kürzeren Latenz auf Kosten höherer Einzel- oder Doppelkern-Prozessorfrequenzen oder von einer stetigen Leistung bei niedriger Frequenz im Gegensatz zu Turbo-Frequenzen profitieren würde, sollten Sie das Experimentieren mit den Konfigurationsoptionen für die Status C oder P erwägen, die für diese Instances zur Verfügung stehen. Weitere Informationen zu dieser Funktion finden Sie im Amazon-EC2-Benutzerhandbuch im Abschnitt Processor State Control.

F: Welche Instances sind innerhalb der Kategorie der für Datenverarbeitung optimierte Instances verfügbar?

C6g-Instances: Amazon-EC2-C6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei C5-Instances ein bis zu 40 % besseres Preisleistungsverhältnis und sind ideal für fortgeschrittene rechenintensive Workloads. Dazu zählen Workloads wie High Performance Computing (HPC), Batch-Verarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analytik und CPU-basierte Machine-Learning-Inferenz. 

C6a-Instances: C6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation mit einer All-Core-Turbofrequenz von 3,6 GHz angetrieben, bieten eine bis zu 15 % bessere Preisleistung als C5a-Instances für eine Vielzahl von Workloads und unterstützen die Always-on-Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME). C6a-Instances bieten neue Instance-Größen mit bis zu 192 vCPUs und 384 GiB Speicher, doppelt so viel wie die größte C5a-Instance. Außerdem bieten C6a-Instances bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, mehr als das Doppelte von C5a-Instances.

C6i-Instances: C6i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation mit einer All-Core-Turbofrequenz von 3,5 GHz angetrieben, bieten eine bis zu 15 % bessere Preisleistung als C5-Instances für eine Vielzahl von Workloads und eine ständig aktive Speicherverschlüsselung mit Intel Total Memory Encryption (TME). C6i-Instances bieten eine neue Instance-Größe (c6i.32xlarge) mit 128 vCPUs und 256 GiB Arbeitsspeicher, 33 % mehr als die größte C5-Instance. Sie bieten außerdem eine bis zu 9 % höhere Speicherbandbreite pro vCPU im Vergleich zu C5-Instances. C6i bietet Kunden bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, doppelt so viel wie C5-Instances. C6i sind auch mit lokalem NVMe-basiertem SSD-Block-Level-Speicher (C6id-Instances) für Anwendungen, die lokalen Hochgeschwindigkeits-Speicher mit geringer Latenz benötigen, erhältlich. Im Vergleich zu C5d-Instances der vorherigen Generation bieten C6id-Instances bis zu 138 % mehr TB Speicher pro vCPU und 56 % niedrigere Kosten pro TB.

C5-Instances: C5-Instances basieren auf Intel-Xeon-Platinum-Prozessoren, die Teil der Intel-Xeon-Scalable-Prozessorfamilie (Codename Skylake-SP oder Cascade Lake) sind. Sie sind in 9 Größen verfügbar und bieten bis zu 96 vCPUs und 192 GiB Arbeitsspeicher. C5-Instances bieten gegenüber C4-Instances ein um 25 % besseres Preis-Leistungs-Verhältnis. Die C5d-Instances umfassen lokalen NVMe-Speicher für Workloads, die eine äußerst geringe Latenz und Speicherzugriff mit hoher IOPS-Leistung in Bezug auf ungeordnete Lese- und Schreibvorgänge erfordern.

C5a-Instances: C5a-Instances bieten bei einer breiten Palette von rechenintensiven x86-Workloads ein hervorragendes Preis-Leistungs-Verhältnis. Dazu gehören Stapelverarbeitungsaufgaben, verteilte Analysen, Datenumwandlung, Protokollanalysen und Web-Anwendungen. C5a-Instances sind mit AMD EPYC-Prozessoren der zweiten Generation mit 3,3 GHz, bis zu 96 vCPUs und 192 GiB Arbeitsspeicher ausgestattet. Die C5ad-Instances umfassen lokalen NVMe-Speicher für Workloads, die eine äußerst geringe Latenz und Speicherzugriff mit hoher IOPS-Leistung in Bezug auf ungeordnete Lese- und Schreibvorgänge erfordern.

C5n-Instances: C5n-Instances sind für Anwendungen optimiert, die eine hohe Netzwerkbandbreite und Paketübertragungsrate erfordern. C5n-Instances eignen sich hervorragend für Anwendungen wie HPC, Data Lakes, Netzwerk-Appliances und Anwendungen, für die eine knotenübergreifende Kommunikation und die Message Passing Interface (MPI) benötigt wird. Für C5n-Instances sind verschiedene Intel Xeon Platinum-Prozessoren mit 3,0 GHz, bis zu 72 vCPUs und 192 GiB Arbeitsspeicher erhältlich.

C4-Instances: C4-Instances basieren auf den Intel Xeon E5-2666 v3-Prozessoren (Codename Haswell). C4-Instances sind in 5 Größen verfügbar und bieten bis zu 36 vCPUs und 60 GiB Speicher.

F: Weshalb sollte ich mich als Kunde für C6i-Instances anstatt C5-Instances entscheiden?

C6i-Instances bieten eine bis zu 15 % bessere Preisleistung als C5-Instances und eine permanente Speicherverschlüsselung mit Intel Total Memory Encryption (TME). C6i-Instances bieten eine neue Instance-Größe (c6i.32xlarge) mit 128 vCPUs und 256 GiB Arbeitsspeicher, 33 % mehr als die größte C5-Instance. Sie bieten außerdem eine bis zu 9 % höhere Speicherbandbreite pro vCPU im Vergleich zu C5-Instances. C6i bietet Kunden bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, das Doppelte von C5-Instances.

F: Weshalb sollte ich mich als Kunde für C5-Instances anstatt C4-Instances entscheiden?

Dank der verbesserten CPU-Leistung und des niedrigeren Preises der C5-Instances, die zusammen ein um 25 % besseres Preis-Leistungs-Verhältnis im Vergleich zu C4-Instances ergeben, profitiert ein breites Spektrum von Workloads, die derzeit auf C3- oder C4-Instances laufen. Für Fließkomma-intensive Anwendungen ermöglicht Intel AVX-512 durch die effektive Extraktion der Parallelität der Datenebene signifikante Verbesserungen hinsichtlich der bereitgestellten TFLOPS. Kunden, die zum Rendern von Grafiken und HPC-Verarbeitungslasten, die mit GPUs oder FPGAs beschleunigt werden können, absolute Leistung benötigen, sollten sich auch die anderen Instance-Familien im Amazon-EC2-Portfolio anschauen, die diese Ressourcen enthalten, um so die ideale Instance für ihre Verarbeitungslasten zu finden.

F: Welche Speicherschnittstelle wird auf C5-Instances unterstützt?

C5-Instances unterstützen nur NVMe EBS-Gerätemodelle. An C5-Instances angehängte EBS-Volumes werden als NVMe-Geräte angezeigt. NVMe ist eine moderne Speicherschnittstelle, die die Latenz reduziert und einen höheren E/A-Wert der Festplatte und mehr Durchsatz ermöglicht.

F: Wieso stimmt der von Linux kommunizierte Gesamtspeicher nicht genau mit dem für die Instance-Typen beworbenen Gesamtspeicher überein?

Teile des EC2-Instance-Speichers sind für die virtuelle BIOS für Video-RAM, DMI und ACPI reserviert. Zusätzlich wird für Instances, die mit dem AWS Nitro Hypervisor betrieben werden, ein kleiner Prozentsatz des Instance-Speichers vom Amazon-EC2-Nitro-Hypervisor zur Verwaltung der Virtualisierung reserviert.

Optimierte Instances für High Performance Computing

F: Welche Instances sind innerhalb der Kategorie High Performance Computing (HPC) verfügbar?

Hpc7g-Instances: Hpc7g-Instances bieten das beste Preis-Leistungs-Verhältnis für HPC-Workloads in AWS. Sie bieten im Vergleich zu AWS-Graviton-basierten Instances der vorherigen Generation eine um bis zu 70 % bessere Leistung und ein fast dreimal besseres Preis-Leistungs-Verhältnis für rechenintensive HPC-Workloads. Hpc7g-Instances werden von AWS-Graviton-3E-Prozessoren betrieben und bieten im Vergleich zu vorhandenen AWS-Graviton3-Instances eine bis zu 35 % höhere Vektorbefehlsleistung. Diese Instances bieten eine bis zu zweimal bessere Gleitkomma-Leistung im Vergleich zu Instances, die mit Graviton2-Prozessoren betrieben werden. Hpc7g-Instances basieren auf dem AWS Nitro System und stellen eine Netzwerkbandbreite von 200 Gbit/s für Interknoten-Kommunikation mit niedriger Latenz für eng gekoppelte Workloads bereit, die hochgradig parallelisierte, geclusterte Rechenressourcen erfordern.

F: Wie unterscheiden sich Hpc7g-Instances von anderen EC2-Instances?

Hpc7g-Instances sind für die Bereitstellung von Funktionen optimiert, die für rechenintensive HPC-Workloads geeignet sind. Hpc7g Instances basieren auf Arm-basierten Graviton3E-Prozessoren, die im Vergleich zu vorhandenen Instances, die auf Graviton3-Prozessoren basieren, eine bis zu 35 % höhere Vektorbefehlsleistung bereitstellen. Diese Instances bieten 64 physische Kerne, 128 GiB Arbeitsspeicher und eine Netzwerkbandbreite von 200 Gbit/s, die für den Datenverkehr zwischen Instances in derselben VPC optimiert ist, und unterstützen EFA für eine höhere Netzwerkleistung. Hpc7g-Instances sind in einzelnen Availability-Zones-Bereitstellungen verfügbar und ermöglichen Workloads die Netzwerkleistung mit geringer Latenz, die für eine eng gekoppelte Knoten-zu-Knoten-Kommunikation für HPC-Anwendungen erforderlich ist.

F: Welche Preismodelle werden von Hpc7g-Instances unterstützt?

Hpc7g-Instances können über die 1- und 3-jährigen Amazon EC2 Instance Savings Plans, Compute Savings Plans, EC2-On-Demand-Instances und EC2 Reserved Instances erworben werden.

F: Welche AMIs werden in Hpc7g-Instances unterstützt?

Hpc7g-Instances unterstützen nur von Amazon EBS gesicherte AMIs.

Hpc6id-Instances: Hpc6id-Instances sind mit Intel-Xeon-Scalable-Prozessoren der 3. Generation ausgestattet, die mit 64 Kernen mit einer Frequenz von bis zu 3,5 GHz arbeiten und so die Effizienz steigern. Diese Instances wurden entwickelt, um die Leistung für arbeitsspeichergebundene Workloads zu verbessern, indem sie eine Speicherbandbreite von 5 GB/s pro vCPU bieten. Hpc6id-Instances bieten ein EFA-Netzwerk von 200 Gbit/s für die Kommunikation mit hohem Durchsatz zwischen den Knoten, damit Sie Ihre HPC-Workloads in großem Umfang ausführen können.

F: Welche Preismodelle werden von Hpc6id-Instances unterstützt?

Hpc6id-Instances können über die 1- und 3-jährigen Amazon EC2 Instance Savings PlansCompute Savings PlansEC2-On-Demand-Instances und EC2 Reserved Instances erworben werden.

F: Wie unterscheiden sich Hpc6id-Instances von anderen EC2-Instances?

Hpc6id-Instances werden optimiert, um Funktionen bereitzustellen, die sich für arbeitsspeichergebundene, datenintensive Workloads von HPC eignen. Hyperthreading ist deaktiviert, um einen Pro-vCPU-CPU-Durchsatz und bis zu einer Speicher-Bandbreite von 5 GB/s pro vCPU zu erhöhen. Diese Instances bietet eine Netwerkbandbreite von 200 GB/s, die für den Datenverkehr zwischen Instances in der gleichen Virtual Private Cloud (VPC) optimiert wird und sie unterstützen EFA für eine bessere Netzwerkleistung. Um die Vernetzung von Hpc6id-Instances für eng gekoppelte Workloads zu optimieren, können Sie auf EC2-Hpc6id-Instances in einer einzigen Availability Zone in jeder Region zugreifen.

F: Welche AMIs werden auf Hpc6id-Instances unterstützt?

Hpc6id-Instances unterstützen Amazon Linux 2, Amazon Linux, Ubuntu 18.04 oder höher, Red Hat Enterprise Linux 7.4 oder höher, SUSE Linux Enterprise Server 12 SP2 oder höher, CentOS 7 oder höher, Windows Server 2008 R2 oder niedriger, und FreeBSD 11.1 oder höher.

Hpc6a-Istances: Hpc6a-Instances werden von 96 Kernen von AMD-EPYC-Prozessoren der 3. Generation mit einer All-Core-Turbofrequenz von 3,6 GHz und 384 GiB RAM angetrieben. Hpc6a-Instances bieten ein EFA-Netzwerk von 100 Gbit/s, das für die Kommunikation zwischen Knoten mit hohem Durchsatz aktiviert ist, damit Sie Ihre HPC-Workloads in großem Umfang ausführen können.

F: Welche AMIs werden in Hpc6a-Instances unterstützt?

Hpc6a-Instances unterstützen Amazon Linux 2, Amazon Linux, Ubuntu 18.04 oder höher, Red Hat Enterprise Linux 7.4 oder höher, SUSE Linux Enterprise Server 12 SP2 oder höher, CentOS 7 oder höher und FreeBSD 11.1 oder höher. Diese Instances unterstützen auch Windows-Server 2012, 2012 R2, 2016 und 2019.

F: Welche Preismodelle werden von Hpc6a-Instances unterstützt?

Hpc6a-Instances können über die 1- und 3-jährigen Standard Reserved Instances, Convertible Reserved Instances, Savings Plans und On-Demand-Instances erworben werden.

Allzweck-Instances

F: Was sind Amazon EC2 M6g-Instances?

Amazon EC2 M6g-Instances sind die nächste Generation von Instances für allgemeine Zwecke, die auf ARM-basierten AWS Graviton2-Prozessoren basieren. M6g-Instances bieten ein um bis zu 40 % besseres Preis-Leistungs-Verhältnis als M5-Instances. Sie basieren auf dem AWS-Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Welche Spezifikationen weisen die neuen AWS Graviton2-Prozessoren auf?

Die AWS Graviton2-Prozessoren bieten bis zu 7-fache Leistung, 4-fache Anzahl von Rechenkernen, 2-fache Anzahl größerer Caches, 5-fache Speicherkapazität und 50 % schnellere Verschlüsselungsleistung pro Kern als die AWS Graviton-Prozessoren der ersten Generation. Jeder Kern des AWS Graviton2-Prozessors ist eine Single-Threaded-vCPU. Diese Prozessoren bieten außerdem vollständig verschlüsselten DRAM-Speicher, Hardwarebeschleunigung für Komprimierungs-Workloads, dedizierte Engines pro vCPU, die die Gleitkommaleistung für Workloads wie Videocodierung verdoppeln, und Anweisungen für die Machine Learning-Inferenzbeschleunigung auf der Basis von INT8/FP16-CPU. Die CPUs bestehen aus 64-Bit-ARM-Neoverse-Kernen und benutzerdefiniertem Silizium, das von AWS auf der Grundlage der fortschrittlichen 7-nm-Fertigungstechnologie entwickelt wurde.

F: Wird die Speicherverschlüsselung von AWS Graviton2-Prozessoren unterstützt?

AWS Graviton2-Prozessoren unterstützen die permanente 256-Bit-Speicherverschlüsselung, um die Sicherheit weiter zu verbessern. Verschlüsselungsschlüssel werden sicher im Hostsystem generiert, verlassen das Hostsystem nicht und werden beim Neustart oder Herunterfahren des Hosts unwiederbringlich zerstört. Die Speicherverschlüsselung unterstützt keine Integration mit dem AWS Key Management Service (AWS KMS) und die Kunden können nicht ihre eigenen Schlüssel mitbringen.

F: Was sind Beispiele für ideale Anwendungsfälle für M6g-Instances?

M6g-Instances bieten erhebliche Leistungs- und Preisvorteile für ein breites Spektrum von Allzweck-Workloads wie Anwendungsserver, Spieleserver, Mikroservices, mittelgroße Datenbanken und Caching-Flotten. Für Kunden, die auf Open-Source-Software basierende Anwendungen auf den M-Instances einsetzen, sind die M6g-Instances eine attraktive Option, um die beste Preisleistung zu erzielen. Arm-Entwickler können ihre Anwendungen auch direkt auf nativer Arm-Hardware erstellen, anstatt sie zu kompilieren oder zu emulieren.

F: Welche Speicheroptionen gibt es für M6g-Instances?

M6g-Instances sind standardmäßig EBS-optimiert und bieten bis zu 19 000 Mbit/s dedizierte EBS-Speicherbandbreite für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. M6g-Instances unterstützen nur das Non-Volatile-Memory-Express-(NVMe-)Interface zum Zugriff auf EBS-Speichervolumes. Darüber hinaus sind Optionen mit lokalem NVMe-Instance-Speicher auch über die M6gd-Instance-Typen verfügbar.

F: Welche Netzwerkschnittstelle wird auf M6g-Instances unterstützt?

M6g-Instances unterstützen ENA-basiertes Enhanced Networking. Mit ENA können M6g-Instances innerhalb einer Placement-Gruppe bis zu 25 Gbit/s an Netzwerkbandbreite zwischen den Instances bereitstellen.

F: Müssen Kunden ihre Anwendungen und Workloads anpassen, um eine Ausführung auf M6g-Instances zu ermöglichen?

Die erforderlichen Änderungen hängen von der Anwendung ab. Kunden, die Anwendungen ausführen, die auf Open Source-Software basieren, werden feststellen, dass das Arm-Ökosystem gut entwickelt ist und wahrscheinlich bereits ihre Anwendungen unterstützt. Die meisten Linux-Distributionen sowie Container (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) unterstützen die Arm-Architektur. Kunden finden Arm-Versionen häufig verwendeter Softwarepakete, die für die Installation über dieselben Mechanismen zur Verfügung stehen, die sie derzeit verwenden. Anwendungen, die auf interpretierten Sprachen basieren (wie Java, Node, Python, Go), die nicht auf native CPU-Befehlssätze angewiesen sind, sollten mit minimalen bis keinen Änderungen ausgeführt werden. Anwendungen, die mit kompilierten Sprachen (C, C++, GoLang) entwickelt wurden, müssen neu kompiliert werden, um Arm-Binärdateien zu generieren. Die Arm-Architektur wird in diesen beliebten Programmiersprachen gut unterstützt und moderner Code erfordert in der Regel einen einfachen „Make“-Befehl. Weitere Details finden Sie im Handbuch zu den ersten Schritten auf Github.

F: Was sind Amazon-EC2-A1-Instances?

Amazon EC2 A1-Instances sind neue Universal-Instances, die von AWS Graviton-Prozessoren der ersten Generation angetrieben werden, welche eigens von AWS entwickelt wurden.

F: Welche Spezifikationen weisen die AWS Graviton-Prozessoren der ersten Generation auf?

AWS Graviton-Prozessoren werden von AWS auf der Grundlage des umfassenden Know-hows von Amazon bei der Erstellung von Plattformlösungen für Cloud-Anwendungen, die in großem Maßstab ausgeführt werden, kundenspezifisch entwickelt. Diese Prozessoren basieren auf dem 64-Bit-ARM-Befehlssatz und enthalten ARM-Neoverse-Cores sowie von AWS eigens entwickeltes Silizium. Die Cores werden mit einer Taktfrequenz von 2,3 GHz betrieben.

F: Wann sollte ich A1-Instances nutzen?

A1-Instances bieten erhebliche Kosteneinsparungen für skalierbare Workloads, die in den verfügbaren Speicherbedarf passen. A1-Instances sind ideal für hochskalierte Anwendungen wie Webserver, containerisierte Microservices und Daten-/Protokollverarbeitung. Diese Instances werden auch Entwickler, Hobby-Programmierer und Trainer aus der Gemeinde der ARM-Entwickler begeistern.

F: Müssen Kunden ihre Anwendungen und Workloads anpassen, um eine Ausführung auf A1-Instances zu ermöglichen?

Die erforderlichen Änderungen hängen von der Anwendung ab. Anwendungen, die auf interpretierten oder zur Laufzeit kompilierten Sprachen basieren (z. B. Python, Java, PHP, Node.js), sollten ohne Änderungen laufen. Andere Anwendungen müssen möglicherweise neu kompiliert werden und Anwendungen, die nicht auf x86-Befehlen basieren, lassen sich in der Regel mit wenigen bis keinen Änderungen kompilieren.

F. Welche Betriebssysteme/AMIs werden auf A1-Instanzen unterstützt?

Die folgenden AMIs werden auf A1-Instances unterstützt: Amazon Linux 2, Ubuntu 16.04.4 oder höher, Red Hat Enterprise Linux (RHEL) 7.6 oder höher, SUSE Linux Enterprise Server 15 oder höher. Zusätzliche AMI-Unterstützung für Fedora, Debian, NGINX Plus ist ebenfalls durch Community-AMIs und im AWS Marketplace verfügbar. EBS-gestützte HVM AMIs, die auf A1-Instances ausgeführt werden sollen, erfordern beim Instance-Start die Installation von NVMe- und ENA-Treibern.

F: Gibt es bestimmte AMI-Anforderungen zur Ausführung auf M6g- und A1-Instances?

Sie müssen die AMIs "arm64" mit den M6g- und A1-Instances verwenden. x86-AMIs sind nicht mit M6g- und A1-Instances kompatibel.

F: Wann sollten Kunden A1-Instances im Vergleich zu den neuen M6g-Instances verwenden?

A1-Instances bieten weiterhin erhebliche Kostenvorteile für skalierbare Workloads, die auf mehreren kleineren Kernen ausgeführt werden können und in den verfügbaren Speicherbedarf passen. Die neuen M6g-Instances eignen sich gut für ein breites Spektrum von Anwendungen, die mehr Rechenleistung, Arbeitsspeicher und Netzwerkressourcen erfordern und/oder von einer plattformübergreifenden Skalierung profitieren können. M6g-Instances bieten für diese Anwendungen das beste Preis-Leistungs-Verhältnis innerhalb der Instance-Familie. M6g unterstützt bis zu 16xlarge Instance Size (A1 unterstützt bis zu 4xlarge), 4 GB Arbeitsspeicher pro vCPU (A1 unterstützt 2 GB Arbeitsspeicher pro vCPU) und bis zu 25 Gbit/s Netzwerkbandbreite (A1 unterstützt bis zu 10 Gbit/s).

F: Welche Speicheroptionen gibt es für A1-Kunden?

A1-Instances sind standardmäßig EBS-optimiert und bieten bis zu 3.500 Mbit/s dedizierte EBS-Speicherbandbreite für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. A1-Instances unterstützen nur das Non-Volatile Memory Express (NVMe)-Interface zum Zugriff auf EBS-Speichervolumes. A1-Instances unterstützen das blkfront-Interface nicht.

F: Welche Netzwerkschnittstelle wird auf A1-Instanzen unterstützt?

A1-Instances unterstützen ENA-basiertes Enhanced Networking. Mit ENA können A1-Instanzen beim Start innerhalb einer Platzierungsgruppe bis zu 10 Gbit/s Netzwerkbandbreite zwischen den Instanzen liefern.

F: Unterstützen A1-Instances das AWS Nitro System?

Ja, A1-Instances werden vom AWS Nitro System angetrieben, das eine Kombination aus dedizierter Hardware und Nitro-Hypervisor ist.

F: Weshalb sollte ich mich als Kunde für EC2-M5-Instances (anstatt EC2-M4-Instances) entscheiden?

Gegenüber EC2 M4-Instances bieten die neuen EC2 M5-Instances mehr Rechen- und Speicherleistung, größere Kapazitäten zu geringeren Kosten und mehr Konsistenz und Sicherheit. Der größte Vorteil der EC2 M5-Instances besteht jedoch in der Verwendung der neuesten Generation von Intel Xeon Scalable-Prozessoren (Skylake-SP oder Cascade Lake), die im Vergleich zu M4-Instances für ein um bis zu 20 % besseres Preis-Leistungs-Verhältnis sorgen. Weiterhin liefert die Unterstützung von AVX-512 bei M5-Instances im Vergleich zu dem älteren AVX2-Befehlssatz bei M4-Instances die doppelte Leistung in Bezug auf Workloads mit Gleitkommaoperationen. M5-Instances bieten bis zu 25 Gbit/s Netzwerkbandbreite und bis zu 10 Gbit/s Bandbreite, die speziell für Amazon EBS reserviert ist. M5-Instances bieten bei kleineren Instances mit EBS-Bursting-Funktionalität auch eine wesentlich bessere Netzwerk- und Amazon EBS-Leistung.

F: Weshalb sollte ich mich als Kunde für M6i-Instances anstatt M5-Instances entscheiden?

Amazon-M6i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) mit einer All-Core-Turbofrequenz von 3,5 GHz betrieben, bieten eine bis zu 15 % bessere Computingleistung gegenüber M5-Instances und eine ständig aktive Speicherverschlüsselung mit Intel Total Memory Encryption (TME). Amazon-EC2-M6i-Instances sind die ersten, die mit einem kleinen „i“ im Namen versehen sind, um anzudeuten, dass sie Intel-betriebene Instances sind. M6i-Instances bieten eine neue Instance-Größe (m6i.32xlarge) mit 128 vCPUs und 512 GiB Arbeitsspeicher, 33 % mehr als die größte M5-Instance. Sie bieten auch bis zu 20 % mehr Speicherbandbreite pro vCPU im Vergleich zu M5-Instances, was es den Kunden erlaubt, Echtzeitanalysen für datenintensive KI-/ML-, Spiel- und High-Performance-Computing-Anwendungen (HPC) effizient durchzuführen. M6i bietet Kunden bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, das Doppelte von M5-Instances. Mit M6i können Kunden den Elastic Fabric Adapter in der 32-fachen Größe verwenden, was eine geringe Latenz und eine hoch skalierbare Kommunikation zwischen Knoten ermöglicht. Für eine optimale Netzwerkleistung auf diesen neuen Instances ist möglicherweise ein Elastic-Network-Adapter (ENA)-Treiberupdate erforderlich. Weitere Informationen zum optimalen ENA-Treiber für M6i finden Sie in diesem Artikel.

F: Welche Vorteile hat die Unterstützung von Intel AVX-512 für Kunden, die die EC2-M5-Familie oder die M6i-Familie verwenden?

Intel Advanced Vector Extensions 512 (AVX-512) ist eine Reihe neuer CPU-Befehle, die auf den neuesten Intel Xeon Scalable-Prozessoren verfügbar sind und die Leistung für Workloads und Anwendungen wie wissenschaftliche Simulationen, Finanzanalysen, künstliche Intelligenz, Machine Learning/Deep Learning, 3D-Modellierung und -Analyse, Bild- und Videoverarbeitung, Kryptografie und Datenkomprimierung u. a. beschleunigen können. Intel AVX-512 bietet eine außergewöhnlich leistungsstarke Verarbeitung von Verschlüsselungsalgorithmen, wodurch sich die Leistungsgrenzen der Kryptografie bedeutend verschieben. Kunden, die die EC2-M5-Familie oder M6i-Familie nutzen, können daher wesentlich mehr sichere Daten und Dienstleistungen in verteilte Umgebungen ohne Leistungseinbußen bereitstellen.

F: Was sind M5zn-Instances?

M5zn-Instances sind eine Variante der M5-Allzweck-Instances, die vom schnellsten Intel Xeon Scalable-Prozessor in der Cloud mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz sowie 100-Gbit/s-Netzwerken und Unterstützung für Amazon EFA angetrieben werden. M5zn-Instances eignen sich ideal für Workloads wie Spiele, Finanzanwendungen, Simulationsmodellierungsanwendungen, wie sie in der Automobil-, Luft- und Raumfahrt-, Energie- und Telekommunikationsbranche sowie für andere Hochleistungsrechneranwendungen verwendet werden.

F: Wie unterscheiden sich M5zn-Instances von z1d-Instances?

z1d-Instances sind speicheroptimierte Instances und verfügen über eine Hochfrequenzversion der skalierbaren Intel Xeon-Prozessoren (bis zu 4,0 GHz) sowie über lokalen NVMe-Speicher. M5zn-Instances sind Allzweck-Instances und bieten eine Hochfrequenzversion der Intel Xeon Scalable-Prozessoren der 2. Generation (bis zu 4,5 GHz) sowie eine Netzwerkleistung von bis zu 100 Gbit/s und Support für EFA. M5zn-Instances bieten im Vergleich zu z1d eine verbesserte Preisleistung.

High-Memory-Instances

F: Wobei handelt es sich bei EC2-High-Memory-Instances?

High-Memory-Instances von Amazon EC2 bieten 3, 6, 9, 12, 18 oder 24 TiB Speicher in einer einzigen Instance. Diese Instances wurden entwickelt, um große In-Memory-Datenbanken, einschließlich Produktionsinstallationen von SAP HANA, in der Cloud auszuführen.

High-Memory-Instances von EC2 mit 3, 6, 9 und 12 TiB Speicher werden von einer Plattform mit 8 Sockets und Intel® Xeon® Platinum 8176M (Skylake)-Prozessoren unterstützt. High-Memory-Instances von EC2 mit 18 und 24 TiB Speicher sind die ersten Amazon-EC2-Instances, die auf einer 8-Sockel-Plattform mit Intel® Xeon® Scalable (Cascade Lake)-Prozessoren der zweiten Generation basieren, welche für unternehmenskritische Unternehmen-Workloads optimiert sind. EC2-High-Memory-Instances bieten einen hohen Netzwerkdurchsatz und geringe Latenzzeiten mit 100 Gbit/s der gesamten Netzwerkbandbreite mithilfe von ENA (Amazon Elastic Network Adapter)-basiertem Enhanced Networking. EC2-High-Memory-Instances sind standardmäßig EBS-optimiert und unterstützen verschlüsselte und unverschlüsselte EBS-Volumes.

F: Werden High-Memory-Instances von SAP für die Ausführung von SAP-HANA-Workloads zertifiziert?

High Memory-Instances sind von SAP für die Ausführung der Business Suite auf HANA, der Business Suite S/4HANA der nächsten Generation, Data Mart Solutions auf HANA und SAP BW/4HANA in Produktionsumgebungen zertifiziert. Einzelheiten finden Sie im Verzeichnis über SAP-zertifizierte und unterstützte SAP-HANA-Hardware.

F: Welche Instance-Typen sind für High-Memory-Instances verfügbar?

High-Memory-Instances sind sowohl als Bare-Metal- als auch als virtualisierte Instances verfügbar. Kunden haben damit die Wahl, direkten Zugriff auf die zugrunde liegenden Hardware-Ressourcen zu erhalten oder von der zusätzlichen Flexibilität zu profitieren, die virtualisierte Instances bieten, einschließlich On-Demand- und 1-Jahres- und 3-Jahres-Savings-Plan-Kaufoptionen. Bitte sehen Sie sich die verfügbaren Optionen für High-Memory-Instances im Abschnitt Speicheroptimierung auf der Seite mit den EC2-Instance-Typen an.

F: Was sind einige der Vorteile der Verwendung virtualisierter High-Memory-Instances gegenüber Bare-Metal-Instances mit hohem Speicher?

Zu den Vorteilen virtueller High-Memory-Instances gegenüber High-Memory-Metal-Instances gehören: deutlich bessere Start-/Neustartzeiten, flexible Kaufoptionen (On-Demand, Savings Plan, Reserved Instances, Dedicated Hosts), Wahl des Tenancy-Typs, Self-Service-Optionen und Unterstützung für eine höhere Anzahl von EBS-Volumes (27 gegenüber 19).

F: Wann sollte eine „Metal“-High-Memory-Instance verwendet werden und wann sollte eine „virtualisierte“ High-Memory-Instance verwendet werden?

Obwohl die Verwendung virtualisierter High-Memory-Instances generell empfohlen wird, gibt es bestimmte Situationen, in denen nur High-Memory-Metal-Instances funktionieren können. Zu diesen Situationen gehören – wenn Betriebssystemversionen verwendet werden, die auf virtuellen High-Memory-Instances nicht unterstützt werden ODER wenn Anwendungen verwendet werden, die im nicht virtualisierten Modus ausgeführt werden müssen, um die Lizenzierungs- und Supportanforderungen zu erfüllen ODER wenn Anwendungen verwendet werden, die Zugriff auf Hardware-Funktionen benötigen (wie Intel VT-x) ODER wenn ein benutzerdefinierter Hypervisor verwendet wird (z. B. ESXi).

F: Wie migriere ich von High-Memory-Metal-Instances zu virtualisierten High-Memory-Instances?

Sie können Ihre High-Memory-Metal-Instance in nur wenigen Schritten zu einer virtualisierten Instance migrieren. 1/ Beenden Sie Ihre Instance, 2/ Ändern Sie die Instance und den Tenancy-Typ über die EC2-API und 3/ Starten Sie das Backup Ihrer Instance. Wenn Sie Red Hat Enterprise Linux für SAP oder SUSE Linux Enterprise Server für SAP verwenden, müssen Sie sicherstellen, dass Ihr Betriebssystem und Ihre Kernelversionen mit virtualisierten High-Memory-Instances kompatibel sind. Weitere Informationen finden Sie in der Dokumentation zu Migration von SAP HANA in AWS zu einer EC2-High-Memory-Instance.

F: Welche Speicheroptionen sind für High-Memory-Instances verfügbar?

High Memory Instances unterstützen Amazon EBS-Volumes für den Speicher. High-Memory-Instances sind standardmäßig EBS-optimiert und bieten eine dedizierte Bandbreite von 38 Gbit/s.

F: Welche Speicherschnittstelle wird auf High-Memory-Instances unterstützt?

High-Memory-Instances greifen über NVM Express (NVMe)-Schnittstellen mit PCI auf EBS-Volumes zu. An High Memory Instances angehängte EBS-Volumes werden als NVMe-Geräte angezeigt. NVMe ist eine effiziente und skalierbare Speicherschnittstelle, die häufig für Flash-basierte SSDs verwendet wird und für eine Verringerung der Latenzzeit sorgt und zu einem erhöhten Platten-I / O und -Durchsatz führt. Die EBS-Volumes werden per PCI-Hotplug angeschlossen und getrennt.

F: Welche Netzwerkleistung wird in High-Memory-Instances unterstützt?

High-Memory-Instances verwenden den Elastic Network Adapter (ENA) für das Netzwerk und ermöglichen standardmäßig Enhanced Networking. Mit ENA sind bis zu 100 Gbit/s an Netzwerkbandbreite für High Memory Instances möglich.

F: Kann ich High-Memory-Instances in meiner vorhandenen Amazon Virtual Private Cloud (Amazon VPC) ausführen?

Sie können High Memory Instances in Ihren vorhandenen und neuen Amazon VPCs ausführen.

Welcher zugrunde liegende Hypervisor wird bei High-Memory-Instances verwendet?

High Memory-Instances verwenden den sehr kompakten Nitro-Hypervisor, der auf Kern-KVM-Technologie basiert ist.

F: Unterstützen High-Memory-Instances eine Statusüberwachung des CPU-Power-Managements?

Ja. Sie können auf High Memory Instances C- und P-States zuweisen. Mit C-States werden höhere Turbofrequenzen ermöglicht (bis zu 4,0 GHz). Mithilfe von P-States lässt sich die Performancevarianz reduzieren. Dabei werden alle Kerne fest P1- oder höheren P-States zugewiesen, was einer Deaktivierung der Turbofunktion gleichkommt, und arbeiten konsistent entsprechend der Basis-CPU-Taktfrequenz.

F: Welche Kaufoptionen sind für High-Memory-Instances verfügbar?

Virtualisierte EC2-High-Memory-Instances (z. B. u-6tb1.112xlarge) können On-Demand, mit einem 1-Jahres- bzw. 3-Jahres-Savings-Plan sowie als Reserved Instance für 1 Jahr bzw. 3 Jahre erworben werden. EC2-High-Memory-Metal-Instances (z. B. u-6tb1.metal) sind nur als EC2 Dedicated Hosts in 1- und 3-jährigen Reservierungen erhältlich.

F: Wie sieht der Lebenszyklus eines Dedicated Hosts aus?

Sobald ein Dedicated Host in Ihrem Konto zugewiesen wurde, steht er Ihnen zur Verfügung. Sie können dann eine Instanz mit dem Mandanten "host" mithilfe der RunInstances-API starten und die Instanz über die API auch stoppen / starten / beenden. Sie können mit der AWS-Managementkonsole den Dedicated Host und die Instance verwalten. 

Kann ich High-Memory-Instances mithilfe von AWS CLI/SDK starten, stoppen/starten und beenden?

Sie können Instances mithilfe von AWS CLI/SDK starten, stoppen/starten und beenden.

F: Welche AMIs werden von High-Memory-Instances unterstützt?

EBS-unterstützte HVM AMIs mit Unterstützung für ENA-Netzwerke können mit High Memory Instances verwendet werden. Die neuesten Amazon Linux-, Red Hat Enterprise Linux-, SUSE Enterprise Linux Server- und Windows Server AMIs werden unterstützt. Unterstützte Betriebssysteme für SAP HANA-Workloads auf High Memory Instances sind: SUSE Linux Enterprise Server 12 SP3 für SAP, Red Hat Enterprise Linux 7.4 für SAP, Red Hat Enterprise Linux 7.5 für SAP, SUSE Linux Enterprise Server 12 SP4 für SAP, SUSE Linux Enterprise Server 15 für SAP, Red Had Enterprise Linux 7.6 für SAP. Weitere Details zu unterstützten Betriebssystemen finden Sie im Verzeichnis über SAP-zertifizierte und unterstützte SAP-HANA-Hardware.

F: Gibt es Standard-SAP-HANA-Referenzimplementierungs-Frameworks für die High-Memory-Instance und die AWS Cloud?

Verwenden Sie die in Referenzimplementierungen von AWS Quick Start SAP HANA zur schnellen Bereitstellung aller erforderlichen SAP-HANA-Elemente auf High-Memory-Instances gemäß den SAP-Empfehlungen für hohe Leistung und Zuverlässigkeit. AWS Quick Start-Optionen sind modular und anpassbar. Sie können zusätzliche Funktionen darauf aufsetzen oder sie für Ihre eigenen Implementierungen ändern.

Arbeitsspeicheroptimierte Instances

F: Wann sollte ich speicheroptimierte Instances nutzen?

Speicheroptimierte Instances bieten eine große Speichergröße für speicherintensive Anwendungen wie In-Memory-Anwendungen, In-Memory-Datenbanken, In-Memory-Analyselösungen, HPC, wissenschaftliche Berechnungen und andere speicherintensive Anwendungen. 

F: Was sind Amazon-EC2-R6g-Instances?

Amazon EC2 R6g-Instances sind die nächste Generation von speicheroptimierten Instances, die auf Arm-basierten AWS Graviton2-Prozessoren basieren. R6g-Instances bieten ein um bis zu 40 % besseres Preis-Leistungs-Verhältnis als R5-Instances. Sie basieren auf dem AWS-Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Was sind Beispiele für ideale Anwendungsfälle für R6g-Instances?

R6g-Instances bieten erhebliche Preis- und Leistungsvorteile für speicherintensive Workloads wie Instances und sind ideal für die Ausführung speicherintensiver Workloads wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analysen in Echtzeit. Für Kunden, die auf Open-Source-Software basierende Anwendungen auf R-Instances einsetzen, sind die R6g-Instances eine attraktive Option, um die beste Preisleistung innerhalb der Instancefamilie zu erzielen. Arm-Entwickler können ihre Anwendungen auch direkt auf nativer Arm-Hardware erstellen, anstatt sie zu kompilieren oder zu emulieren.

F: Welche Speicheroptionen gibt es für R6g-Instances?

R6g-Instances sind standardmäßig EBS-optimiert und bieten bis zu 19 000 Mbit/s dedizierte EBS-Speicherbandbreite für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. R6g-Instances unterstützen nur das Non-Volatile-Memory-Express-(NVMe-)Interface zum Zugriff auf EBS-Speichervolumes. Darüber hinaus sind Optionen mit lokalem NVMe-Instance-Speicher auch über die R6gd-Instance-Typen verfügbar.

F: Welche Netzwerkschnittstelle wird auf R6g-Instances unterstützt?

R6g-Instances unterstützen ENA-basiertes Enhanced Networking. Mit ENA können R6g-Instances innerhalb einer Placement-Gruppe bis zu 25 Gbit/s an Netzwerkbandbreite zwischen den Instances bereitstellen.

F: Müssen Kunden ihre Anwendungen und Workloads anpassen, um eine Ausführung auf R6g-Instances zu ermöglichen?

Die erforderlichen Änderungen hängen von der Anwendung ab. Kunden, die Anwendungen ausführen, die auf Open Source-Software basieren, werden feststellen, dass das Arm-Ökosystem gut entwickelt ist und wahrscheinlich bereits ihre Anwendungen unterstützt. Die meisten Linux-Distributionen sowie Container (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) unterstützen die Arm-Architektur. Kunden finden Arm-Versionen häufig verwendeter Softwarepakete, die für die Installation über dieselben Mechanismen zur Verfügung stehen, die sie derzeit verwenden. Anwendungen, die auf interpretierten Sprachen basieren (wie Java, Node, Python, Go), die nicht auf native CPU-Befehlssätze angewiesen sind, sollten mit minimalen bis keinen Änderungen ausgeführt werden. Anwendungen, die mit kompilierten Sprachen (C, C++, GoLang) entwickelt wurden, müssen neu kompiliert werden, um Arm-Binärdateien zu generieren. Die Arm-Architektur wird in diesen beliebten Programmiersprachen gut unterstützt und moderner Code erfordert in der Regel einen einfachen „Make“-Befehl. Weitere Details finden Sie im Handbuch zu den ersten Schritten auf Github.

F: Weshalb sollten Sie sich für R6i-Instances anstatt R5-Instances entscheiden?

Amazon-R6i-Instances werden betrieben von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Ice Lake) mit einer All-Core-Turbofrequenz von 3,5 GHz, sie bieten bis zu 15 % bessere Computing-Preisleistung gegenüber R5-Instances und eine ständig aktive Speicherverschlüsselung mit Intel Total Memory Encryption (TME). Amazon-EC2-R6i-Instances sind einem kleinen „i“ im Namen versehen, um anzudeuten, dass sie Intel-betriebene Instances sind. R6i-Instances bieten eine neue Instance-Größe (r6i.32xlarge) mit 128 vCPUs und 1.024 GiB Arbeitsspeicher, 33 % mehr als die größte R5-Instance. Sie bieten auch bis zu 20 % mehr Speicherbandbreite pro vCPU im Vergleich zu R5-Instances, was es Ihnen erlaubt, Echtzeitanalysen für datenintensive KI-/ML-, Spiel- und High-Performance-Computing-Anwendungen (HPC) effizient durchzuführen. R6i-Instances bietet Ihnen bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, das Doppelte von R5-Instances. Mit R6i-Instances können Sie den Elastic Fabric Adapter (EFA) in der 32xlarge- und Metal-Größe verwenden, was eine geringe Latenz und eine hoch skalierbare Kommunikation zwischen Knoten ermöglicht. Für eine optimale Netzwerkleistung auf diesen neuen Instances ist möglicherweise ein Elastic Network Adapter (ENA)-Treiberupdate erforderlich. Weitere Informationen über einen optimalen ENA-Treiber für R6i finden Sie unter „Was muss ich tun, bevor ich meine EC2-Instance auf eine Instanz der sechsten Generation migriere?“ im Knowledge Center.

F: Was sind Amazon-EC2-R5b-Instances?

R5b-Instances sind EBS-optimierte Varianten speicheroptimierter R5-Instances, die im Vergleich zu R5-Instances gleicher Größe eine bis zu dreimal bessere EBS-Leistung bieten. R5b-Instances bieten eine Bandbreite von bis zu 60 Gbit/s und eine EBS-Leistung von 260K IOPS – die höchste Blockspeicherleistung in EC2. Sie basieren auf dem AWS Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Was sind Beispiele für ideale Anwendungsfälle für R5b-Instances?

R5b-Instances sind ideal für große relationale Datenbank-Workloads, einschließlich Microsoft SQL Server, SAP HANA, IBM DB2 und Oracle, auf denen leistungsintensive Anwendungen wie Handelsplattformen, ERP-Systeme und Health Record-Systeme ausgeführt werden. Kunden, die große lokale Workloads mit hohen Anforderungen an die Speicherleistung auf AWS migrieren möchten, werden feststellen, dass R5b-Instances gut geeignet sind.

F: Welche verschiedenen Speicheroptionen gibt es für R5b-Instances?

R5b-Instances sind standardmäßig EBS-optimiert und bieten bis zu 60.000 Mbit/s dedizierte EBS-Bandbreite und 260 K IOPS für verschlüsselte und unverschlüsselte EBS-Volumes. R5b-Instances unterstützen nur das Non-Volatile-Memory-Express-(NVMe-)Interface zum Zugriff auf EBS-Speichervolumes. R5b wird von allen Volume-Typen mit Ausnahme von io2-Volumes unterstützt.

F: Wann sollte ich R5b-Instances nutzen?

Kunden, die Workloads wie große relationale Datenbanken und Datenanalytik ausführen und die gesteigerte Leistung des EBS-Speichernetzwerks nutzen möchten, können R5b-Instances verwenden, um eine höhere Leistung und Bandbreite bereitzustellen. Kunden können auch den Preis senken, indem sie ihre Workloads auf kleinere R5b-Instances migrieren oder Workloads auf weniger R5b-Instances konsolidieren.

F: Welche Speicheroptionen gibt es für High-Memory-Instances?

High Memory Instances unterstützen Amazon EBS-Volumes für den Speicher. High Memory Instances sind standardmäßig EBS-optimiert und bieten bis zu 38 Gbps Speicherbandbreite für verschlüsselte und unverschlüsselte EBS-Volumes.

F: Was sind Amazon EC2 X2gd-Instances?

Amazon EC2 X2gd-Instances sind die nächste Generation von speicheroptimierten Instances, die von powered by AWS Arm-basierten AWS Graviton2-Prozessoren angetrieben werden. X2gd-Instances liefern eine bis zu 55 % bessere Preisleistung im Vergleich zu x86-basierten X1-Instances und bieten die niedrigsten Kosten pro GiB Speicher in Amazon EC2. Sie sind die ersten der X-Instances, die auf dem AWS Nitro-System aufgebaut sind, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Welche Workloads sind für X2gd-Instances geeignet?

X2gd ist ideal für Kunden mit Arm-kompatiblen speichergebundenen Scale-Out-Workloads wie Redis- und Memcached-In-Memory-Datenbanken, die einen Speicherzugriff mit geringer Latenz benötigen und von mehr Speicher pro vCPU profitieren. X2gd ist auch gut für relationale Datenbanken wie PostgreSQL, MariaDB, MySQL und RDS Aurora geeignet. Kunden, die speicherintensive Workloads wie Apache Hadoop, Echtzeit-Analysen und Echtzeit-Caching-Server betreiben, profitieren vom 1:16 vCPU/Speicher-Verhältnis des X2gd. Single-Thread-Workloads wie EDA-Backend-Verifikationsaufgaben profitieren von den physischen Kernen und dem größeren Arbeitsspeicher der X2gd-Instances, sodass sie mehr Workloads auf einer einzigen Instance konsolidieren können. Die X2gd-Instance verfügt außerdem über einen lokalen NVMe-SSD-Blockspeicher, der als Caching-Schicht die Antwortzeiten verbessert.

F: Wann sollte ich X2gd-Instances im Vergleich zur X1-, X2i- oder R-Familie von Instances verwenden?

X2gd-Instances eignen sich für Arm-kompatible speichergebundene Scale-Out-Workloads wie In-Memory-Datenbanken, Memory-Analytik-Anwendungen, Open-Source-Workloads für relationale Datenbanken, EDA-Workloads und große Caching-Server. X2gd-Instances bieten Kunden die niedrigsten Kosten pro Gigabyte Speicher innerhalb von EC2, mit Größen bis zu 1 TiB. X2iezn-, X2idn-, X2iedn-, X1 und X1e-Instances nutzen x86-Prozessoren und sind für speicherintensive Scale-Up-Workloads der Enterprise-Klasse geeignet, wie etwa Windows-Workloads, In-Memory-Datenbänke (z. B. SAP HANA) und relationale Datenbänke (z. B. OracleDB). Kunden können die x86-basierte X-Instancefamilie für größere Speichergrößen bis zu 4 TiB nutzen. R6g- und R6gd-Instances eignen sich für Workloads wie Web-Anwendungen, Datenbanken und Suchindexierungsabfragen, die in Zeiten starker Datenverarbeitung mehr vCPUs benötigen. Kunden, die speichergebundene Workloads ausführen, die weniger als 1 TiB Speicher benötigen und vom x86-Befehlssatz abhängig sind, wie z. B. Windows-Anwendungen und Anwendungen wie Oracle oder SAP, können R5-und R6-Instances nutzen.

F: Wann sollte ich X2idn- und X2iedn-Instances nutzen?

X2idn- und X2iedn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation mit einer Turbofrequenz von bis zu 3,5 GHz angetrieben und bieten ein bis zu 50 % verbessertes Computing-Preisleistungverhältnis im Vergleich zu X1-Instances. X2idn- und X2iedn-Instances umfassen bis zu 3,8 TB lokalen NVMe-SSD-Speicher und bis zu 100 Gbit/s Netzwerkbandbreite, während X2idn bis zu 2 TiB Speicher und X2iedn bis zu 4 TiB Speicher bietet. X2idn- und X2iedn-Instances sind SAP-zertifiziert und eignen sich ideal für Workloads wie etwa kleine bis große traditionelle und In-Memory-Datenbanken und Analytik.

F: Wann sollte ich X2iezn-Instances nutzen?

X2iezn-Instances verfügen über den schnellsten skalierbaren Intel-Xeon-Prozessor in der Cloud und eignen sich bestens für Workloads, die eine hohe Single-Threaded-Leistung kombiniert mit einem hohen Speicher-zu-vCPU-Verhältnis und Hochgeschwindigkeits-Netzwerk benötigen. X2iezn-Instances haben eine All-Core-Turbofrequenz von bis zu 4,5 GHz, ein 32:1 Verhältnis von Speicher zu vCPU und liefern eine bis zu 55 % höhere Computing-Preisleistung im Vergleich zu X1e-Instances. X2iezn-Instances eignen sich bestens für Electronic Design Automation (EDA)-Workloads wie physische Verifizierung, statische Timing-Analyse, Power-Signoff und Simulationen auf Full-Chip-Gate-Ebene.

F: Welche Betriebssysteme/AMIs werden auf X2gd-Instances unterstützt?

Die folgenden AMIs werden unterstützt: Amazon Linux 2, Ubuntu 18.04 (oder neuer), Red Hat Enterprise Linux 8.2 (oder neuer) und SUSE Enterprise Server 15 (oder neuer). Kunden finden weitere AMIs wie Fedora, Debian, NetBSD und CentOS, die über Community-AMIs und den AWS Marketplace verfügbar sind. Für containerisierte Anwendungen sind auch für Amazon ECS und EKS optimierte AMIs verfügbar.

F: Wann sollte ich X1-Instances nutzen?

X1-Instances sind ideal für die Ausführung von In-Memory-Datenbanken wie SAP HANA, großen Datenverarbeitungs-Engines wie Apache Spark oder Presto sowie High Performance Computing (HPC)-Anwendungen. X1-Instances sind von SAP für die Ausführung von Business Warehouse auf HANA (BW), Data Mart Solutions auf HANA, Business Suite auf HANA (SoH) sowie die Business Suite S/4HANA der nächsten Generation in AWS-Cloud-basierten Produktionsumgebungen zertifiziert.

F: Unterstützen X1- und X1e-Instances eine Statusüberwachung des CPU-Power-Managements?

Ja. Sie können C-States und P-States auf x1e.32xlarge-, x1e.16xlarge-, x1e.8xlarge-, x1.32xlarge- und x1.16xlarge-Instances konfigurieren. Mit C-States werden höhere Turbofrequenzen ermöglicht (bis zu 3,1 GHz mit 1- oder 2-Kern-Turbo). Mithilfe von P-States lässt sich die Performancevarianz reduzieren. Dabei werden alle Kerne fest P1- oder höheren P-States zugewiesen, was einer Deaktivierung der Turbofunktion gleichkommt, und arbeiten konsistent entsprechend der Basis-CPU-Taktfrequenz.

x1e.32xlarge wird auch Windows Server 2012 R2 and 2012 RTM unterstützen. x1e.xlarge, x1e.2xlarge, x1e.4xlarge, x1e.8xlarge, x1e.16xlarge und x1.32xlarge wird auch Folgendes unterstützen: Windows Server 2012 R2, 2012 RTM und 2008 R2 64-Bit (Windows Server 2008 SP2 und ältere Versionen werden nicht unterstützt). x1.16xlarge wird Folgendes unterstützen: Windows Server 2012 R2, 2012 RTM, 2008 R2 64-Bit, 2008 SP2 64-Bit sowie 2003 R2 64-Bit (32-Bit-Versionen von Windows Server werden nicht unterstützt).

F: Gibt es Standard-SAP-HANA-Referenzimplementierungs-Frameworks für die High-Memory-Instance und AWS?

Sie können die Bereitstellungen AWS Launch Wizard for SAP oder AWS Quick Start Reference SAP HANA verwenden, um alle notwendigen SAP-HANA-Bausteine schnell auf Instances mit hoher Speicherkapazität bereitzustellen und dabei den Empfehlungen von AWS und SAP für hohe Leistung und Zuverlässigkeit zu folgen.

Instances der vorherigen Generation

F: Warum werden Instances vom Typ M1, C1, CC2 und HS1 nicht mehr auf den Preisseiten aufgeführt?

Diese Instances wurden auf die Seite Instances der vorherigen Generation verschoben.

F: Werden dieses Instances der vorherigen Generation noch unterstützt?

Ja. Instances der vorherigen Generation werden noch voll unterstützt.

F: Kann ich Instances der vorherigen Generation weiterhin verwenden und hinzufügen?

Ja. Die Instances der vorherigen Generation stehen weiterhin als On-Demand-, Reserved und Spot-Instances über unsere APIs, die Befehlszeilenschnittstelle (CLI) und die EC2 Management Console zur Verfügung.

F: Werden meine Instances der vorherigen Generation gelöscht?

Nein. Ihre Instances vom Typ C1, C3, CC2, CR1, G2, HS1, M1, M2, M3, R3 und T1 sind weiterhin voll funktionstüchtig und werden infolge dieser Änderung nicht gelöscht.

F: Wird die Unterstützung für Instances der vorherigen Generation bald eingestellt?

Derzeit ist nicht geplant, die Unterstützung für Instances der vorherigen Generation einzustellen. Doch wie bei jeder sich rasch entwickelnden Technologie bietet die neueste Generation in der Regel das beste Preis-/Leistungsverhältnis und wir empfehlen unseren Kunden daher, die Vorteile der technologischen Weiterentwicklungen zu nutzen.

F: Wirkt sich diese Änderung in irgendeiner Weise auf meine Instances der vorherigen Generation aus, die ich als Reserved Instance gekauft habe?

Nein. Ihre Reserved Instances ändern sich nicht und die Instances der vorherigen Generation werden nicht abgeschafft.

Speicheroptimierte Instances

F: Was ist eine Dense-Storage-Instance?

Dense-Storage-Instances sind für Workloads konzipiert, die hohe sequenzielle Lese- und Schreibvorgänge in sehr großen Datenbeständen erfordern, etwa verteiltes Computing mit Hadoop, Data Warehouses mit massiver Parallelverarbeitung und Protokollverarbeitungsanwendungen. Die Dense-Storage-Instances bieten den besten Preis/Speicher-GB und Preis/Datenträgerdurchsatz gegenüber anderen EC2-Instances.

F: Wie lassen sich Dense-Storage-Instances mit High-I/O-Instances vergleichen?

High-I/O-Instances (Im4gn, Is4gen, I4i, I3, I3en) sind für Workloads vorgesehen, die niedrige Latenz und hohe Random-I/O-Leistung zusätzlich zu moderater Speicherdichte benötigen. Sie liefern den besten Preis/IOPS im Vergleich zu anderen EC2-Instance-Typen. Dense-Storage-Instances (D3, D3en, D2) und HDD-Storage-Instances (H1) sind für Anwendungen optimiert, die hohen sequenziellen Lese-/Schreibzugriff und kostengünstige Speicherung für sehr große Datenbestände erfordern und bieten den besten Preis pro Speicher-GB und Preis/Datenträgerdurchsatz im Vergleich zu anderen EC2-Instances.

F: Wie viel Datenträgerdurchsatz können Dense- und HDD-Storage-Instances bereitstellen?

Die derzeit größte Generation der Dense HDD-Storage-Instances, d3en.12xlarge, kann bis zu 6,2 GiB/s Lese- und 6,2 GiB/s Schreib-Datenträgerdurchsätze mit einer Blockgröße von 128 bereitstellen. Weitere Informationen zur Leistung finden Sie auf der Produktdetailseite. Um die beste Datenträgerdurchsatz-Leistung Ihrer D2-, D3- und D3en-Instances auf Linux zu gewährleisten, empfehlen wir die Verwendung der neueste Version der Amazon-Linux-AMI oder eine andere Linux-AMI-Version mit einer Kernelversion von 3.8 oder höher, die persistente Zuweisungen zulässt – eine Erweiterung des Xen-Blockring-Protokolls, das Datenträgerdurchsatz und Skalierbarkeit erheblich verbessert.

F: Bieten Dense- und HDD-Speicher-Instances Mechanismen für Failover oder Redundanz?

D2- und H1-Instances bieten Benachrichtigungen für Hardwarefehler. Wie alle Instance-Speicher bleiben Dense HDD-Storage-Volumes nur für die Lebensdauer einer Instance bestehen. Deshalb empfehlen wir, dass Sie einen Redundanzgrad (etwa RAID 1/5/6) oder Dateisysteme verwenden (etwa HDFS und MapR-FS), die Redundanz und Fehlertoleranz unterstützen. Sie können Daten auch regelmäßig auf weiteren Datenspeicherlösungen wie Amazon EBS oder Amazon S3 sichern.

F: Wie unterscheiden sich Dense-HDD-Storage-Instances von Amazon EBS?

Amazon EBS bietet einfache, elastische, zuverlässige (replizierte) und persistente Speicherung auf Blockebene für Amazon EC2, wobei von den zugrunde liegenden verwendeten Speichermedien abstrahiert wird. Amazon EC2-Instance-Instances mit lokalem HDD- oder NVMe-Speicher bieten direkt angeschlossene Hochleistungsspeicherbausteine, die für eine Vielzahl von Speicheranwendungen verwendet werden können. Dense-Storage-Instances richten sich insbesondere an Kunden, die hohen sequenziellen Lese-/Schreibzugriff auf große Datenbestände auf lokalem Speicher benötigen, etwa für verteiltes Computing mit Hadoop und Data Warehouses mit massiver Parallelverarbeitung.

F: Kann ich Dense-HDD-Speicher-Instances als Amazon-EBS-optimierte Instances starten?

Jeder HDD-Speicher-Instance-Typ (H1, D2, D3 und D3en) ist standardmäßig EBS-optimiert. Da diese Funktion immer aktiviert ist, hat das explizite Starten einer dieser Instances im EBS-optimierten Zustand keine Auswirkungen auf das Verhalten der Instace. Weitere Informationen finden Sie unter Amazon-EBS-optimierte Instances.

F: Kann ich D2-Instances als für Amazon-EBS-optimierte Instances starten?

Jeder D2-Instance-Typ ist standardmäßig EBS-optimiert. D2-Instances bieten EBS Verbindungen mit 500 Mbit/s bis 4 000 Mbit/s zusätzlich zum von der Instance im Netzwerk bereitgestellten Durchsatz. Da diese Funktion für D2-Instances stets aktiviert ist, wirkt sich das explizite Starten einer D2-Instance als EBS-optimiert nicht auf das Verhalten der Instance aus.

F: Werden Dense-Storage-Instances in EC2 -Classic angeboten?

Die aktuelle Generation der Dense-Storage-Instances (D2-Instances) kann sowohl in EC2-Classic als auch in Amazon VPC gestartet werden. Wenn Sie eine Dense-Storage-Instance jedoch in eine VPC starten, können Sie eine Reihe Funktionen nutzen, die nur auf der Amazon VPC-Plattform verfügbar sind: etwa die Aktivierung von Enhanced Networking, die Zuweisung mehrerer privater IP-Adressen für Ihre Instances oder das Ändern Ihrer Instance-Sicherheitsgruppen. Weitere Informationen zu den Vorteilen einer VPC finden Sie unter „Amazon EC2“ und Amazon Virtual Private Cloud (Amazon VPC). Sie können Schritte zum Migrieren Ihrer Ressourcen von EC2-Classic auf Amazon VPC einleiten. Weitere Informationen finden Sie unter Migrieren einer Linux-Instance von EC2-Classic auf VPC.

F: Was ist eine High-I/O-Instance?

High-I/O-Instances verwenden lokale auf NVMe basierende Instance-Speicher, um I/O-Kapazität mit sehr hoher bzw. niedriger Latenz für Anwendungen zu schaffen, und sie sind für Anwendungen optimiert, die Millionen von IOPS benötigen. Wie Cluster-Instances können High-I/O-Instances über Cluster-Placement-Gruppen für Netzwerke mit niedriger Latenzzeit angeordnet werden.

F: Sind alle Funktionen von Amazon EC2 für High-I/O-Instances verfügbar?

High-I/O-Instances unterstützen alle Amazon-EC2-Funktionen. Im4gn-, Is4gen-, I4i-, I3- und I3en-Instances bieten nur NVMe-Speicher, während frühere I2-Instances der Generation I2 den Legacy-Blkfront-Speicherzugriff ermöglichen.

F: AWS hat weitere Angebote für Datenbanken und Big Data. Wann oder warum sollte ich High I/O Instances nutzen?

High I/O-Instances eignen sich ideal für Anwendungen, die Zugriff auf Millionen von IOPS pro Sekunde mit kurzer Latenz benötigen, und können Datenspeicher und Architekturen nutzen, die Datenredundanz und Verfügbarkeit verwalten. Beispielanwendungen sind:

  • NoSQL-Datenbanken wie Cassandra und MongoDB
  • In-Memory-Datenbanken (Aerospike)
  • Elasticsearch und Analyse von Inhalten
  • OLTP-Systeme

F: Bieten High-I/O-Instances Failover-Mechanismen oder Redundanz?

Wie bei anderen Amazon-EC2-Instance-Typen wird Instance-Speicher auf Im4gn-, Is4gen-, I4i-, I3- und I3en-Instances während der Nutzungsdauer der Instance persistent gespeichert. Von Kunden wird erwartet, dass sie ihre Anwendungen widerstandsfähig machen. Wir empfehlen die Verwendung von Datenbanken und Dateisystemen, die Redundanz und Fehlertoleranz unterstützen. Für verbesserte Datenbeständigkeit sollten Kunden ihre Daten in regelmäßigen Abständen auf Amazon S3 speichern.

F: Bieten High-I/O-Instances Unterstützung für TRIM?

Der TRIM-Befehl ermöglicht es dem Betriebssystem, SSDs darüber zu informieren, welche Datenblöcke als nicht mehr genutzt angesehen werden und intern entfernt werden können. Wenn kein TRIM vorhanden ist, können zukünftige Schreibvorgänge der beteiligten Blöcke erheblich langsamer werden. Im4gn-, Is4gen-, I4i-, I3- und I3en-Instances unterstützen TRIM.

F: Wie sehen D3- und D3en-Instances im Vergleich zu D2-Instances aus?

D3- und D3en-Instances bieten gegenüber D2 verbesserte Spezifikationen für die folgenden Rechen-, Speicher- und Netzwerkattribute:

  • D3- und D3en-Instances bieten bis zu 30 % höhere Rechenleistungen als entsprechende D2-Instances. Der genaue Leistungsvorteil hängt von der spezifischen Workload ab.
  • D3- und D3en-Instances bieten einen um bis zu 45 % bzw. 100 % höheren Festplattendurchsatz als D2-Instances.
  • D3-Instances sind zu einem Preis erhältlich, der 5 % unter dem von D2-Instances liegt. D3en-Instances senken die Kosten pro TB Speicher um bis zu 80 % im Vergleich zu D2-Instances.
  • D3- und D3en-Instances bieten Intel Advanced Vector-Erweiterungen (AVX 512), die im Vergleich zu AVX 2 auf D2 bis zu 2X FLOPS pro Zyklus bieten.
  • D3en-Instances bieten eine neue Instance-Größe (12xl) mit 48 vCPUs und 7 TB Speicher pro vCPU für 336 TB Gesamtspeicher, haben jedoch die Hälfte des Speichers pro vCPU im Vergleich zu D2 und 48 TB Gesamtspeicher.
  • D3- und D3en-Instances bieten bei ihrer größten Größe eine Netzwerkbandbreite von bis zu 25 Gbit/s bzw. 75 Gbit/s, um die Kundenanforderungen an die Netzwerkleistung für die Ausführung von Big-Data-Workloads und Dateisystem-Clustern zu erfüllen.

F: Verschlüssen D3- und D3en-Instances Speichervolumen und Netzwerk-Datenverkehr?

Ja; auf die Speichervolumes geschriebene Daten werden im Ruhezustand mit AES-256-XTS verschlüsselt. Der Netzwerkverkehr zwischen D3- und D3en-Instances in derselben VPC oder einer VPC mit Peer-Funktion wird standardmäßig mit einem 256-Bit-Schlüssel verschlüsselt.

Speicherung

Amazon Elastic Block Store (Amazon EBS)

F: Was geschieht mit meinen Daten, wenn ein System außer Betrieb genommen wird?

Die in einem lokalen Instance-Speicher gespeicherten Daten bestehen nur so lange, wie die Instance aktiv ist. Daten, die auf einem Amazon EBS-Volume gespeichert sind, bleiben jedoch unabhängig von der Nutzungsdauer der Instance dauerhaft erhalten. Daher wird empfohlen, den lokalen Instance-Speicher für temporäre Daten zu verwenden. Für eine höhere Datenbeständigkeit wird empfohlen, Amazon EBS-Volumes zu verwenden oder die Daten auf Amazon S3 zu sichern. Wenn Sie ein Amazon EBS-Volume als Stammpartition verwenden, müssen Sie das Kennzeichen "Delete on Terminate" (Beim Beenden löschen) auf "N" setzen, wenn Ihr Amazon EBS-Volume außerhalb der Lebensdauer der Instance bestehen soll.

F: Welche Leistung kann ich von Amazon EBS-Volumes erwarten?

Amazon EBS stellt vier Volume-Typen der aktuellen Generation bereit, die in zwei Hauptkategorien unterteilt sind: SSD-Speicher für Transaktions-Workloads und HDD-Speicher für durchsatzintensive Workloads. Diese Volume-Typen unterscheiden sich bei den Leistungsmerkmalen und im Preis, sodass Sie die Speicherleistung und -kosten an die Anforderungen Ihrer Anwendungen anpassen können. Weitere Informationen finden Sie in der Amazon-EBS-Übersicht. Weitere Informationen zur Leistung finden Sie im Abschnitt „EBS-Leistung“ im Amazon-EC2-Benutzerhandbuch.

F: Was sind durchsatzoptimierte HDD (ST1)- und selten genutzte HDD (SC1)-Volume-Typen?

ST1-Volumes basieren auf Festplatten (HDDs) und eignen sich optimal für häufig genutzte, durchsatzintensive Arbeitslasten mit hohen Datensätzen und umfangreichen E/A-Größen wie bei MapReduce, Kafka, der Protokollverarbeitung, Data Warehouse- und ETL-Arbeitslasten. Die Leistung der Volumes wird anhand des Durchsatzes in MB/s gemessen. Sie können Spitzenleistungen bis 250 MB/s pro TB erreichen. Der Basisdurchsatz liegt bei 40 MB/s pro TB und der maximale Durchsatz bei 500 MB/s pro Volume. ST1 liefert die erwartete Durchsatzleistung 99 % der Zeit. Das E/A-Guthaben reicht aus, um zu Spitzenlastzeiten einen vollständigen Volume-Scan durchzuführen.

SC1-Volumes werden von HDDs gesichert und bieten die niedrigsten Kosten pro GB aller EBS-Volume-Typen. Die Volumes eignen sich optimal für seltener genutzte Workloads mit großen, selten genutzte Datensätzen. Ähnlich wie st1 bietet auch sc1 ein Spitzenleistungsmodell: Diese Volumes können Spitzenleistungen bis 80 MB/s pro TB erreichen. Der Basisdurchsatz liegt bei 12 MB/s pro TB und der maximale Durchsatz bei 250 MB/s pro Volume. Für selten aufgerufene Daten bietet sc1 einen extrem kostengünstigen Speicher. SC1 liefert die erwartete Durchsatzleistung 99 % der Zeit. Das E/A-Guthaben reicht aus, um zu Spitzenlastzeiten einen vollständigen Volume-Scan durchzuführen.

Um die Leistung von ST1 und SC1 zu maximieren, wird die Verwendung von EBS-optimierten EC2-Instances empfohlen.

F: Welchen Volume-Typ sollte ich wählen?

Amazon EBS umfasst zwei Hauptspeicherkategorien: SSD-basierten Speicher für transaktionsintensive Arbeitslasten (Leistung primär von IOPS-Leistung abhängig) und HDD-basiertem Speicher für durchsatzintensive Arbeitslasten (Leistung primär vom Durchsatzleistung in MB/s abhängig). SSD-basierte Volumes eignen sich für transaktions- und IOPS-intensive Datenbankarbeitslasten, Start-Volumes und Arbeitslasten, die einen hohen IOPS-Wert erfordern. SSD-basierte Volumes beinhalten eine bereitgestellte IOPS-SSD (io1 und io2) und eine Standard-SSD (gp2 und gp3). HDD-basierte Volumes eignen sich für durchsatzintensive und Big Data-Arbeitslasten, umfangreiche E/A-Größen und sequenzielle E/A-Muster. HDD-basierte Volumes umfassen eine durchsatzoptimierte HDD (st1) und eine selten genutzte HDD (sc1). Weitere Informationen finden Sie in der Amazon-EBS-Übersicht.

F: Wird der Zugriff von mehreren Instances auf ein einziges Volume unterstützt?

Ja, Sie können Multi-Attach auf einem von EBS bereitgestellten IOPS io1-Volume aktivieren, damit ein Volume gleichzeitig an bis zu 16 Nitro-basierte EC2-Instances innerhalb derselben Availability Zone angeschlossen werden kann. Weitere Informationen zu Amazon EBS Multi-Attach finden Sie auf der EBS-Produktseite.

F: Kann ich mit den normalen Amazon S3-APIs auf meine EBS-Snapshots zugreifen?

Nein, EBS-Snapshots sind nur über die Amazon EC2-APIs verfügbar.

F: Muss die Bereitstellung von Volumes aufgehoben werden, um einen Snapshot erstellen zu können? Muss die Erstellung des Snapshots abgeschlossen sein, bevor das Volume wieder verwendet werden kann?

Nein, Snapshots können in Echtzeit erstellt werden, während das Volume bereitgestellt ist und verwendet wird. Snapshots erfassen jedoch nur Daten, die auf Ihren Amazon EBS-Datenträger geschrieben wurden. Darin sind möglicherweise nicht die Daten enthalten, die lokal von Ihrer Anwendung oder dem Betriebssystem in den Zwischenspeicher geschrieben wurden. Um die einheitliche Erstellung von Snapshots auf Datenträgern sicherzustellen, die einer Instance zugeordnet sind, wird empfohlen, die Zuordnung des Datenträgers sauber zu trennen, den Snapshot-Befehl auszuführen und anschließend den Datenträger erneut zuzuordnen. Bei Amazon EBS-Datenträgern, die als Root-Geräte dienen, wird empfohlen, den Rechner herunterzufahren, um einen sauberen Snapshot zu erstellen.

F: Gibt es verschiedene Versionen von Snapshots? Kann ich einen älteren Snapshot einlesen, um eine zeitpunktbezogene Wiederherstellung durchzuführen?

Jeder Snapshot verfügt über eine eindeutige Kennzeichnung. Volumes können auf Grundlage eines beliebigen vorhandenen Snapshots erstellt werden.

F: Welche Gebühren werden für die Verwendung von freigegebenen Amazon EBS-Snapshots erhoben?

Wenn Sie einen Snapshot freigeben, werden Ihnen keine Gebühren berechnet, wenn andere Benutzer eine Kopie Ihres Snapshots erstellen. Wenn Sie eine Kopie eines freigegebenen Datenträgers eines anderen Benutzers anfertigen, werden Ihnen die normalen EBS-Tarife berechnet.

F: Können Benutzer meiner freigegebenen Amazon EBS-Snapshots meine Daten ändern?

Benutzer mit der Berechtigung zum Erstellen von Datenträgern basierend auf Ihren freigegebenen Snapshots erstellen zunächst eine Kopie des Snapshots in ihrem Konto. Benutzer können eigene Kopien der Daten ändern, aber die Daten in Ihrem ursprünglichen Snapshot sowie alle anderen Datenträger, die von anderen Benutzern aus Ihrem ursprünglichen Snapshot erstellt wurden, bleiben unverändert.

F: Wie finde ich Amazon EBS-Snapshots, die für mich freigegeben wurden?

Sie finden Snapshots, die für Sie freigegeben wurden, indem Sie über die AWS-Managementkonsole im Abschnitt Snapshots aus dem Anzeigeauswahlfeld die Option „Private Snapshots“ auswählen. In diesem Abschnitt werden sowohl Ihre eigenen Snapshots als auch die Snapshots angezeigt, die für Sie freigegeben wurden.

F: Wie finde ich heraus, welche Amazon EBS-Snapshots global freigegeben sind?

Sie können Snapshots finden, die global freigegeben wurden, indem Sie über die AWS Management Console im Abschnitt "Snapshots" im Anzeigeauswahlfeld "Public Snapshots" auswählen.

F: Wird die Verschlüsselung von Amazon EBS-Volumes oder -Snapshots angeboten?

Ja. EBS bietet eine reibungslose Verschlüsselung von Daten-Volumes und -Snapshots. Die EBS-Verschlüsselung erleichtert das Erfüllen von Compliance-Anforderungen an Sicherheit und Verschlüsselung.

F: Wie finde ich eine Liste der öffentlichen Datensätze bei Amazon?

Alle Informationen zu öffentlichen Datensätzen sind in unserem Ressourcenzentrum für öffentliche Datensätze verfügbar. Sie können außerdem eine Liste aller öffentlichen Datensätze über die AWS Management Console erhalten, indem Sie im Abschnitt "Snapshots" im Anzeigeauswahlfeld "Amazon Snapshots" auswählen.

F: Wo kann ich mehr über EBS erfahren?

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Amazon EBS.

Amazon Elastic File System (Amazon EFS)

F: Wie kann ich von einer Amazon-EC2-Instance aus auf ein Dateisystem zugreifen?

Für den Zugriff auf Ihr Dateisystem mounten Sie das Dateisystem auf einer Amazon-EC2-Linux-basierten Instance mithilfe des Linux-Standard-Mount-Befehls und des DNS-Namens des Dateisystems. Danach können Sie mit den Dateien und Verzeichnissen in Ihrem Dateisystem wie in einem lokalen Dateisystem arbeiten.

Amazon EFS verwendet das NFSv4.1-Protokoll. Ein schrittweises Beispiel für den Zugriff auf ein Dateisystem von einer Amazon-EC2-Instance aus finden Sie im Amazon EFS-Handbuch Erste Schritte.

F: Welche Amazon-EC2-Instance-Typen und AMIs funktionieren mit Amazon EFS?

Amazon EFS ist mit allen Amazon-EC2-Instance-Typen kompatibel. Der Zugriff ist von Linux-basierten AMIs aus möglich. Sie können die Instance-Typen, die mit einem einzelnen Dateisystem verbunden sind, mischen und aufeinander abstimmen. Ein schrittweises Beispiel für den Zugriff auf ein Dateisystem von einer Amazon-EC2-Instance aus finden Sie im Amazon EFS-Handbuch Erste Schritte.

F: Wie kann ich Daten in ein Dateisystem laden?

In ein Amazon EFS-Dateisystem können Sie Daten aus Ihren Amazon-EC2-Instances oder von den On-Premises-Servern in Ihrem Rechenzentrum laden.

Amazon EFS-Dateisysteme werden auf einer Amazon EC2-Instance bereitgestellt, sodass alle Daten, auf die eine Amazon EC2-Instance zugreifen kann, auch in Amazon EFS gelesen und geschrieben werden können. Zum Laden von Daten, die aktuell nicht in der Amazon-Cloud gespeichert sind, können Sie die gleichen Methoden verwenden, die Sie heute zum Übertragen von Dateien zu Amazon EC2 verwenden, zum Beispiel Secure Copy (SCP).

Amazon EFS-Dateisysteme können auch auf lokalen Servern bereitgestellt werden, sodass alle Daten, auf die der lokale Server zugreifen kann, mittels Linux-Standardtools in Amazon EFS gelesen und geschrieben werden können. Weitere Informationen zum Zugriff auf ein Dateisystem von einem lokalen Server finden Sie auf der Seite mit häufig gestellten Fragen zu Amazon EFS im Abschnitt Lokaler Zugriff.

Weitere Informationen zum Verschieben von Daten in die Amazon-Cloud finden Sie auf der Seite Datenmigration in die Cloud.

F: Wie greife ich von außerhalb meiner VPC auf mein Dateisystem zu?

Amazon-EC2-Instances innerhalb Ihrer VPC können direkt auf Ihr Dateisystem zugreifen, und Amazon-EC2-Classic-Instances außerhalb Ihrer VPC können ein Dateisystem über ClassicLink bereitstellen. On-Premises-Server können Ihre Dateisysteme über eine AWS Direct Connect-Verbindung für Ihren VPC bereitstellen.

F: Wie viele Amazon-EC2-Instances können mit einem Dateisystem verbunden werden?

Amazon EFS unterstützt eine bis Tausende von Amazon-EC2-Instances, die gleichzeitig eine Verbindung zu einem Dateisystem herstellen.

F: Wo kann ich mehr über EFS erfahren?

Sie können die Amazon EFS-Seite mit den häufig gestellten Fragen besuchen.

NVMe-Instance-Speicher

F: Werden Daten, die auf Amazon-EC2-NVMe-Instance-Speicher gespeichert werden, verschlüsselt?

Ja, alle Daten werden vor dem Schreiben auf die lokal verbundenen SSDs, die über NVMe Instance-Speicher angeboten werden, in einem AWS Nitro Hardware-Modul verschlüsselt.

F: Welcher Verschlüsselungsalgorithmus wird zur Verschlüsselung von Amazon EC2 NVMe Instance-Speicher verwendet?

Amazon EC2 NVMe Instance-Speicher wird mit einem XTS-AES-256-Block-Cipher verschlüsselt.

F: Werden Verschlüsselungsschlüssel für NVMe Instance-Speicher auf Instance-Basis oder auf Basis eines bestimmten Geräts generiert?

Verschlüsselungsschlüssel werden sicher im Nitro-Hardware-Modul generiert und sind für jedes NVMe-Instance-Speichergerät, das mit einer EC2-Instance geboten wird, einzigartig.

F: Welche Lebensdauer haben Verschlüsselungsschlüssel von NVMe Instance-Speicher?

Alle Schlüssel werden bei der Freigabe von Speicher unwiderruflich vernichtet, einschließlich bei Instance-Stopp- und Instance-Beendigungsaktionen.

F: Kann ich die NVMe Instance-Speicherverschlüsselung deaktivieren?

Nein, die NVMe Instance-Speicherverschlüsselung ist stets aktiviert und kann nicht deaktiviert werden.

F: Umfassen die veröffentlichten IOPS-Leistungskennzahlen für I3- und I3en-Datenverschlüsselung?

Ja, die dokumentierten IOPS-Zahlen für Im4gn-, Is4gen-, I4i-, I3- und I3en-NVMe-Instance-Speicher umfassen Verschlüsselung.

F: Unterstützt der Amazon-EC2-NVMe-Instance-Speicher den AWS Key Management Service (KMS)?

Nein, die Laufwerkverschlüsselung auf NVMe Instance-Speicher unterstützt die Integration mit dem AWS KMS-System nicht. Kunden können nicht ihre eigenen Schlüssel mit NVMe Instance-Speicher verwenden. 

Netzwerk und Sicherheit

Elastic Network Adapter (ENA) Express

F: Was ist ENA Express?

ENA Express ist eine Verbesserung des Elastic Network Adapters, die das Protokoll von Scalable Reliable Datagram (SRD)in die herkömmlichen TCP- und UDP-Netzwerke bringt. Transparent zur Anwendung verbessert ENA Express Bandbreiten von einzelnen Datenströmen und verringert Latenzspitzen bei durchsatzintensiven Workloads.

F: Wie funktioniert ENA Express?

Wenn ENA Express konfiguriert wurde, arbeitet es zwischen zwei beliebigen unterstützten Instances in einer Availability Zone (AZ). ENA Express erkennt Kompatibilität zwischen Ihren EC2-Instances und stellt eine SRD-Verbindung her, wenn beide kommunizierenden Instances ENA Express aktiviert haben. Nachdem eine Verbindung hergestellt wurde, kann Ihr Datenverkehr SRD und dessen Leistungsvorteile nutzen.

F: Wann sollte ich ENA Express verwenden?

ENA Express funktioniert am besten für Anwendungen, bei denen ein hoher Durchsatz mit einem einzigen Datenstrom erforderlich ist, wie verteilte Speichersystem und Live-Medienverschlüsselung. Diese Workloads erfordern eine hohe Bandbreite mit einem einzigen Datenstrom und niedriger Latenzspitze.

F: Wie aktiviere ich ENAS Express?

ENA Express kann auf einer Pro-ENI-Basis aktiviert werden. ENA kann beim Beifügen an einer Netzwerkkarte zu einer Instance oder bei der Ausführung eines Ändern-Befehls aktiviert werden. ENA Express muss bei beiden kommunizierenden ENIs aktiviert sein, um damit eine Kommunikation von Punkt-zu-Punkt festzulegen. Sie müssen außerdem bei Nutzung von Jumbo Frames Ihre maximale MTU auf 8 900 umstellen, um ENA Express verwenden zu können.

F: Welche Protokolle werden von ENA Express unterstützt?

ENA Express unterstützt standardmäßig TCP. UDP kann wahlweise durch ein API-Argument oder innerhalb der Managementkonsole verwendet werden.

F: Welche Instances werden unterstützt?

ENA Express wird in C6gn.16xl unterstützt. Die Unterstützung weiterer Instance-Typen und -Größen folgt in den kommenden Monaten.
 
F: Was ist der Unterschied zwischen Elastic Fabric Adapter (EFA) und ENA Express?

EFA ist eine Netzwerkschnittstelle, die für HPC- und ML-Anwendungen entwickelt wurde, und nutzt auch das SRD-Protokoll. EFA erfordert ein anderes Modell zur Netzwerkprogrammierung. Dieses Modell nutzt die Lib-Fabric-Schnittstelle zur Gewährleistung der Kommunikation mit der ENI. Im Gegensatz zu EFA hilft Ihnen ENA Express bei der transparenten Ausführung Ihrer Anwendung auf TCP und UDP. Zudem ermöglicht ENA Express die Kommunikation zwischen Availability Zones (AZ). Gleichzeitig wird EFA auf die Kommunikation innerhalb des gleichen Subnetzes begrenzt.

F: Was passiert, wenn ich ENA Express auf einer Instance ausführe, und mit einer anderen Instance kommuniziert, die ENA Express nicht unterstützt oder ENA Express nicht auf der ENI aktiviert hat?

ENA Express erkennt die Aktivierung von ENA Express auf einer anderen Instance. Wenn diese Instance ENA Express nicht unterstützt oder nicht aktiviert hat, greift Ihre Instance auf den normalen ENA-Betrieb zurück. Sie erzielen in diesem Fall keine Vorteile bei der SRD-Leistung. Jedoch gibt es auch keine negativen Auswirkungen.

F: Welche Betriebssysteme werden unterstützt?

Die Funktionalität wird auf allen Betriebssystemen unterstützt. Bitte beachten Sie jedoch, die Überwachsungsmetriken von ENA Express nur auf dem EthTool in der neuesten Amazon-Linux-AMI oder durch Installation des ENA-Treibers, Version 2.8.0 oder höher verfügbar sein werden. Alle Betriebssysteme unterstützen zukünftig die Metriken.

F: Welche Überwachungstools sind für die Nachverfolgung verfügbar?

ENA Express bietet EthTool-Zähler zur Nachverfolgung von Paketen, die für die SRD-Übertragung in Frage kommen, neben denjenigen, die tatsächlich mit SRD geschickt und empfangen wurden. Außerdem unterstützt EthTool eine SRD-Ressourcennutzungsmetrik auf Prozentbasis. Dadurch werden Erkenntnisse dafür gewonnen, wann Sie die Aufskalierung Ihrer Architektur in Betracht ziehen sollten. Schließlich bietet ein Boolescher Wert einen Ein-/Aus-Status für einen ENA Express und für das UDO-Protokoll.

F: Wo kann man ENA Express erwerben?

ENA Express ist in allen kommerziellen Regionen verfügbar. ENA Express kann zum Festlegen einer Kommunikation zwischen zwei aktivierten Instances innerhalb der gleichen Availability Zone (AZ) verwendet werden.

F: Sind zusätzliche Kosten mit der Ausführung von ENA Express verbunden?

Nein. ENA Express ist kostenlos nutzbar.

Elastic Fabric Adapter (EFA)

F: Weshalb sollte ich EFA verwenden?

EFA bietet die Skalierbarkeit, Flexibilität und Elastizität der Cloud für eng gekoppelte HPC-Anwendungen. Mit EFA haben eng gekoppelte HPC-Anwendungen Zugang zu niedrigerer und konsistenterer Latenz und zu höherem Durchsatz als bei traditionellen TCP-Kanälen, was eine bessere Skalierung ermöglicht. EFA-Unterstützung kann dynamisch und bei Bedarf auf jeder unterstützten EC2-Instance ohne vorherige Reservierung aktiviert werden, sodass Sie flexibel auf sich ändernde Geschäfts-/Workload-Prioritäten reagieren können.

F: Welche Arten von Anwendungen profitieren von EFA?

HPC-Anwendungen verteilen Computer-Workloads auf einen Cluster von Instances zur Parallelverarbeitung. Beispiele für HPC-Anwendungen sind computergestützte Strömungssimulationen, Unfallsimulationen und Wettersimulationen. Allgemein werden HPC-Anwendungen mithilfe des Message Passing Interface (MPI) geschrieben und setzen strenge Vorgaben für die Inter-Instance-Kommunikation, was sowohl Latenz als auch Bandbreite betrifft. Anwendungen, die MPI und andere HPC-Middleware nutzen, die den libfabric-Kommunikationsstack unterstützt, können von EFA profitieren.

F: Wie funktioniert die EFA-Kommunikation?

EFA-Geräte bieten sämtliche Funktionen der ENA-Geräte sowie eine neue OS-Bypass-Hardware-Schnittstelle, die es Anwendungen im Anwenderbereich ermöglicht, direkt mit der von der Hardware bereitgestellten zuverlässigen Transportfunktion zu kommunizieren. Die meisten Anwendungen nutzen vorhandene Middleware, wie z. B. MPI, als Schnittstelle zu EFA. AWS hat mit einer Reihe von Middleware-Anbietern zusammengearbeitet, um die Unterstützung für die EFA-Funktion der Betriebssystemumgehung zu gewährleisten. Beachten Sie, dass die Kommunikation über die Funktion zur Betriebssystemumgehung auf Instances innerhalb eines einzelnen Subnetzes einer Virtual Private Cloud (VPC) beschränkt ist.

F: Welche Instance-Typen unterstützen EFA?

EFA ist derzeit für folgende Instance-Größen verfügbar: Die Instance-Größen m7g.metal, m7gd.16xlarge, m6a.48xlarge, m6i.32xlarge, m6i.metal, m6id.32xlarge, m6id.metal, m6idn.32xlarge, m6idn.metal, m6in.32xlarge, m6in.metal, m5n.24xlarge, m5dn.24xlarge, m5n.metal, m5dn.metal, r7g.16xlarge, r7g.metal, r7gd.16xlarge, r6idn.32xlarge, r6idn.metal, r6in.32xlarge, r6in.metal, r6a.48xlarge, r6a.metal, r6i.32xlarge, r6i.metal, r6id.32xlarge, r6id.metal, r5n.24xlarge, r5dn.24xlarge, r5n.metal, r5dn.metal, x2idn.32xlarge, x2iedn.32xlarge, c7g.16xlarge, c7g.metal, c7gd.16xlarge, c7gn.16xlarge, c6a.48xlarge, c6i.32xlarge, c6i.metal, c6id.32xlarge, c6id.metal, c6in.32xlarge, c6in.metal, c5n.18xlarge, c5n.metal, p3dn.24xlarge, i3en.24xlarge, i3en.metal, hpc6a.48xlarge, hpc6i.32xlarge, hpc7g.4xlarge, hpc7g.8xlarge hpc7g.16xlarge.

F: Welche Unterschiede gibt es zwischen einem EFA-ENI und einem ENA-ENI?

Ein ENA ENI bietet traditionelle IP-Netzwerkmerkmale, die zur Unterstützung der VPC-Netzwerkkommunikation nötig sind. Ein EFA ENI bietet alle Funktionen eines ENA ENI sowie Hardwareunterstützung für Anwendungen, um mithilfe einer erweiterten Programmierschnittstelle direkt mit dem EFA ENI zu kommunizieren, ohne den Instance-Kernel zu beteiligen (Kommunikation mit Betriebssystemumgehung). Aufgrund der fortschrittlichen Fähigkeiten des EFA ENI können EFA ENIs nur beim Start oder bei gestoppten Instances angefügt werden.

F: Welche Voraussetzungen müssen erfüllt werden, um EFA für eine Instance zu aktivieren?

Die EFA-Unterstützung kann entweder beim Start der Instance aktiviert oder zu einer gestoppten Instance hinzugefügt werden. EFA-Geräte können nicht an eine laufende Instance angefügt werden.

Enhanced Networking

F: Welche Netzwerkfunktionen sind in dieser Lösung enthalten?

Wir unterstützen derzeit optimierte Netzwerkfunktionen mithilfe von SR-IOV (Single Root I/O Virtualization). SR-IOV ist eine Methode der Gerätevirtualisierung, die im Vergleich zu herkömmlichen Implementierungen eine höhere E/A-Leistung und niedrigere CPU-Auslastung bietet. Für unterstützte Amazon EC2-Instances bietet diese Funktion eine höhere PPS-Leistung (Pakete pro Sekunde), kürzere Latenzen zwischen Instances und sehr niedrigen Netzwerk-Jitter.

F: Weshalb sollte ich Enhanced Networking verwenden?

Wenn Ihre Anwendungen von einer hohen PPS-Leistung und/oder einem Netzwerkbetrieb mit kurzer Latenz profitieren, bietet Enhanced Networking eine wesentlich verbesserte einheitliche Leistung und Skalierbarkeit.

F: Wie kann ich Enhanced Networking für unterstützte Instances aktivieren?

Zum Aktivieren dieser Funktion müssen Sie ein HVM AMI mit dem entsprechenden Treiber starten. Die Instances, die als aktuelle Generation aufgeführt werden, verwenden ENA für erweitertes Networking. Das Amazon Linux-AMI beinhaltet diese beiden Treiber standardmäßig. Für AMIs, die diese Treiber nicht beinhalten, müssen Sie die entsprechenden Treiber basierend auf den zu verwendenden Instance-Typen herunterladen und installieren. Sie können nach Linux- oder Windows-Anweisungen vorgehen, um Enhanced Networking in AMIs zu aktivieren, die den SR-IOV-Treiber nicht standardmäßig enthalten. Enhanced Networking wird nur in Amazon VPC unterstützt.

F: Fällt für die Nutzung von Enhanced Networking eine zusätzliche Gebühr an?

Nein, für Enhanced Networking fällt keine Zusatzgebühr an. Um in den Genuss von Enhanced Networking zu kommen, müssen Sie das entsprechende AMI für einen unterstützten Instance-Typ in einer VPC starten.

F: Warum wird Enhanced Networking nur in Amazon VPC unterstützt?

Amazon VPC ermöglicht uns, Ihnen viele erweiterte Netzwerkfunktionen bereitzustellen, die in EC2-Classic nicht möglich sind. Enhanced Networking ist ein weiteres Beispiel einer von Amazon VPC ermöglichten Funktionalität.

F: Welche Instance-Typen unterstützen Enhanced Networking?

Je nach dem vorliegenden Instance-Typ können Sie Enhanced Networking mithilfe der folgenden Mechanismen aktivieren:

Die Intel 82599 Virtual Function (VF) – Die Intel 82599 Virtual Function-Schnittstelle unterstützt Netzwerkgeschwindigkeiten von bis zu 10 Gbit/s für unterstützte Instance-Typen. C3-, C4-, D2-, I2-, M4- (mit Ausnahme von m4.16xlarge) und R3-Instances nutzen die Intel-82599-VF-Schnittstelle für eine verbesserte Vernetzung.

Elastic Network Adapter (ENA) – Der Elastic Network Adapter (ENA) unterstützt Netzwerkgeschwindigkeiten von bis zu 200 Gbit/s für unterstützte Instance-Typen. Die Instances, die als aktuelle Generation aufgeführt sind, verwenden ENA für ein erweitertes Netzwerk, mit Ausnahme der Instances C4, D2 und M4, die kleiner als m4.16xlarge sind.

F: Was bedeutet es, über mehrere Netzwerkkarten für eine EC2-Instances zu verfügen? Warum werden sie benötigt?

EC2-Instances der neueren Generation verwenden Nitro-Netzwerkkarten für die Auslagerung auf VPC-Ebene. Um eine höhere Netzwerkbandbreite und eine verbesserte Paketratenleistung bereitzustellen, können Sie bestimmte EC2-Instances so konfigurieren, dass sie mehrere Netzwerkkarten für die Paketverarbeitung verwenden, was letztendlich die Gesamtleistung des Systems erhöht.

F: Welche Instance-Typen unterstützen mehrere Netzwerkkarten?

Mehrere Netzwerkkarten werden bei beschleunigten Instances unterstützt, wie p4d.24xlarge und netzwerkoptimierte Instances wie c6in.32xlarge. Eine vollständige Liste von Instances, die mehrere Netzwerkkarten unterstützen, entnehmen Sie den Elastic-Network-Schnittstellen.

F: Was ist die Standard-Anzahl von Netzwerkschnittstellen, mit der eine Instance mit mehreren Karten eingeführt werden kann?

Das hängt vom Instance-Typ ab. Beschleunigte Instances wie p4 skalieren bis zu 15 Netzwerkschnittstellen pro Netzwerkkarte auf. Hohe Netzwerk-Instances wie die kürzlich eingeführte c6in-Instance unterstützen insgesamt 14 Netzwerkschnittstellen, die über die beiden Netzwerkkarten gleichmäßig verteilt sind (7 und 7). Informationen über die Skalierung der Netzwerkschnittstelle pro Netzwerkkarte finden Sie unter Netzwerkkarten.

Elastische Lastenverteilung

F: Welche Load Balancing-Optionen bietet der Elastic Load Balancing-Service?

Elastic Load Balancing bietet Ihnen zwei Typen von Load Balancern, die beide hohe Verfügbarkeit, automatische Skalierung und robuste Sicherheit gewährleisten. Diese umfassen den Classic Load Balancer, der Netzwerkverkehr auf Basis von Informationen auf Anwendungs- oder Netzwerkebene routet, und den Application Load Balancer, der Netzwerkverkehr auf Basis von erweiterten Informationen auf Anwendungsebene (inkl. dem Inhalt der Anforderung) routet.

F: Wann sollte ich den Classic Load Balancer und wann den Application Load Balancer verwenden?

Der Classic Load Balancer eignet sich ideal für die einfache Lastverteilung über mehrere EC2-Instances, während der Application Load Balancer perfekt für Anwendungen, die erweiterte Routing-Funktionen benötigen, Micro-Services und Container-basierte Architekturen ist. Weitere Informationen erhalten Sie unter Elastic Load Balancing.

Elastische IP

F: Weshalb gibt es eine Beschränkung auf fünf Elastic IP-Adressen pro Region?

Öffentliche (IPv4) Internetadressen sind ein knappes Gut. Öffentlicher IP-Raum steht nur begrenzt zur Verfügung und Amazon EC2 ist bestrebt, bei der effizienten Nutzung dieses Raums behilflich zu sein.

Standardmäßig sind alle Konten auf fünf Elastic IP Addresses pro Region beschränkt. Wenn Sie mehr als fünf elastische IP-Adressen benötigen, beantragen Sie bitte eine Anhebung des Limits. Denken Sie dabei noch einmal über Ihren Anwendungsfall nach und helfen Sie uns zu verstehen, weshalb Sie weitere Adressen benötigen. Sie können hier weitere elastische IP-Adressen beantragen. Die Erhöhung gilt nur für die Region, für die sie beantragt wurde.

F: Weshalb werden Gebühren erhoben, wenn meine elastische IP-Adresse nicht einer laufenden Instance zugeordnet ist?

Um unseren Kunden dabei zu helfen, die elastischen IP-Adressen effizient einzusetzen, erheben wir für jede Adresse, die nicht einer laufenden Instance zugeordnet ist, eine geringe Gebühr pro Stunde.

F: Benötige ich für jede laufende Instance eine elastische IP-Adresse?

Nein. Sie benötigen nicht für alle Ihre Instances eine Elastic IP-Adresse. Standardmäßig ist jede Instance mit einer privaten IP-Adresse und einer im Internet routbaren öffentlichen IP-Adresse ausgestattet. Die private IP-Adresse bleibt mit der Netzwerkschittstelle verbunden, wenn die Instance gestoppt und neu gestartet wird, und wird erst wieder freigegeben, nachdem die Instance beendet wurde. Die öffentliche Adresse wird ausschließlich dieser Instance zugeordnet, bis sie gestoppt, beendet oder durch eine Elastic IP-Adresse ersetzt wird. Diese IP-Adressen sollten für viele Anwendungen angemessen sein, bei denen kein langlebiger im Internet routbarer Endpunkt benötigt wird. Rechen-Cluster, Web-Crawling und Back-End-Services sind Beispiele für Anwendungen, bei denen üblicherweise keine Elastic IP-Adressen erforderlich sind.

F: Wie lange dauert die Neuzuordnung einer Elastic IP-Adresse?

Die Neuzuordnung dauert derzeit ab Ihrer Anweisung an uns, die Elastic IP-Adresse neu zuzuordnen, bis zu ihrer vollständigen Verbreitung in unserem System, einige Minuten.

F: Kann ich den Reverse-DNS-Eintrag für meine Elastic IP-Adresse konfigurieren?

Alle Elastic IP-Adressen werden mit Reverse DNS in einer Standardvorlage im Format "ec2-1-2-3-4.region.compute.amazonaws.com" bereitgestellt. Für Kunden, die individuelle Reverse-DNS-Einstellungen für mit dem Internet verbundene Anwendungen benötigen, die eine IP-basierte, gegenseitige Authentifizierung verwenden (z. B. das Senden von E-Mails über EC2-Instances), können Sie den Reverse-DNS-Datensatz Ihrer Elastic IP-Adresse konfigurieren, indem sie dieses Formular ausfüllen. Wenden Sie sich alternativ an den AWS-Kundendienst, wenn AWS die Verwaltung der Reverse-DNS für Ihre Elastic IPs an Ihre autoritativen DNS Name Server (z. B. Amazon Route 53) delegieren soll, sodass Sie Ihre eigenen Reverse-DNS-PTR-Datensätze zur Unterstützung dieser Anwendungsfälle verwalten können. Beachten Sie, dass ein entsprechender Forward-DNS-Eintrag vorhanden sein muss, der sich auf diese Elastic IP-Adresse bezieht, bevor wir den Reverse-DNS-Eintrag erstellen können.

Sicherheit

F: Wie verhindere ich, dass andere meine Systeme einsehen?

Sie verfügen über die vollständige Kontrolle über die Sichtbarkeit Ihrer Systeme. Die Sicherheitssysteme von Amazon EC2 ermöglichen Ihnen das Platzieren Ihrer laufenden Instances in beliebige Gruppen Ihrer Wahl. Über die Web-Service-Schnittstelle können Sie dann angeben, welche Gruppen mit welchen anderen Gruppen kommunizieren dürfen sowie welche IP-Subnetze im Internet welche Gruppen ansprechen dürfen. Auf diese Weise können Sie den Zugriff auf Ihre Instances in unserer hochdynamischen Umgebung kontrollieren. Selbstverständlich sollten Sie Ihre Instances ebenso sichern wie andere Server auch.

F: Kann ich zum Zweck der Sicherheitsanalyse und Behebung von Betriebsproblemen einen Verlauf aller EC2-API-Aufrufe abrufen, die für mein Konto erfolgt sind?

Ja. Zum Abrufen eines Verlaufs aller EC2-API-Aufrufe (einschließlich VPC und EBS), die für Ihr Konto erfolgt sind, müssen Sie einfach CloudTrail in der AWS Management Console aktivieren. Weitere Informationen finden Sie auf der Startseite von CloudTrail.

F: Wo erhalte ich weitere Informationen zur Sicherheit von AWS?

Weitere Informationen zur Sicherheit von AWS finden Sie im Whitepaper Amazon Web Services: Sicherheitsprozesse im Überblick sowie im Sicherheitshandbuch Amazon EC2 running Windows

Verwaltung

Amazon CloudWatch

F: Welches ist das kleinste Zeitintervall für die Daten, die von Amazon CloudWatch empfangen und angesammelt werden?

Metriken werden in Intervallen von einer Minute empfangen und angesammelt.

F: Welche Betriebssysteme werden von Amazon CloudWatch unterstützt?

Amazon CloudWatch empfängt Metriken und stellt diese allen Amazon EC2-Instances bereit. Es ist davon auszugehen, dass Amazon CloudWatch derzeit ebenfalls alle Betriebssysteme unterstützt, die auch vom Amazon EC2-Service unterstützt werden.

F: Gehen die Metrikdaten verloren, wenn die Überwachung für eine Amazon EC2-Instance deaktiviert wird?

Sie können die Daten für jede Amazon EC2-Instance bis zu zwei Wochen lang ab Beginn der Überwachung abrufen. Nach zwei Wochen sind die Metrikdaten für eine Amazon EC2-Instance nicht mehr verfügbar, wenn die Überwachung dieser Amazon EC2-Instance deaktiviert wurde. Wenn Sie die Metrikdaten über zwei Wochen hinaus archivieren möchten, geben Sie in die Befehlszeile den Befehl "mon-get-stat" ein und speichern Sie die Ergebnisse in Amazon S3 oder Amazon SimpleDB.

F: Kann ich auf die Metrikdaten einer beendeten Amazon EC2-Instance oder eines gelöschten Elastic Load Balancers zugreifen?

Ja. Amazon CloudWatch speichert die Metrikdaten für beendete Amazon EC2-Instances oder gelöschte Elastic Load Balancers zwei Wochen lang.

F: Ist die Überwachungsgebühr von Amazon CloudWatch abhängig von dem Typ der Amazon EC2-Instance, die überwacht wird?

Nein, die Überwachungsgebühr von Amazon CloudWatch ist nicht abhängig vom Amazon EC2-Instance-Typ.

F: Warum sieht die Abbildung desselben Zeitfensters für fünfminütige Zeitspannen anders aus als für einminütige Zeitspannen?

Wenn Sie dasselbe Zeitfenster für eine fünfminütige bzw. eine einminütige Zeitspanne ansehen, fällt Ihnen möglicherweise auf, dass die Datenpunkte an verschiedenen Stellen des Grafen angezeigt werden. Amazon CloudWatch sucht alle verfügbaren Datenpunkte und kalkuliert für die Zeitspanne, die Sie auf Ihrem Grafen festgelegt haben, einen einzigen Gesamtpunkt, um die gesamte Zeitspanne darzustellen. Im Fall einer fünfminütigen Zeitspanne wird der einzelne Datenpunkt an den Anfang des fünfminütigen Zeitfensters gesetzt. Im Fall einer einminütigen Zeitspanne wird der einzelne Datenpunkt an die Markierung für eine Minute gesetzt. Die einminütige Zeitspanne empfiehlt sich zur Fehlerbehebung und für andere Aktivitäten, bei denen es auf eine äußerst genaue grafische Darstellung der Zeitspannen ankommt.

Amazon EC2 Auto Scaling

F: Kann ich Amazon EC2 Auto Scaling-Gruppen automatisch skalieren?

Ja. Amazon EC2 Auto Scaling ist ein vollständig verwalteter Service zum automatischen Starten oder Beenden von Amazon EC2-Instances, damit Ihnen die richtige Anzahl an Amazon EC2-Instances zur Verfügung steht, um die Last Ihrer Anwendung zu verarbeiten. Mit EC2 Auto Scaling halten Sie die Anwendungsverfügbarkeit durch ein Flottenmanagement für EC2-Instances aufrecht, bei dem fehlerhafte Instances erkannt und ersetzt werden und Ihre Amazon EC2-Kapazität automatisch entsprechend den von Ihnen definierten Bedingungen erhöht oder reduziert wird. Sie können mit EC2 Auto Scaling während der Anforderungsspitzen auch automatisch die Anzahl der Amazon-EC2-Instances erhöhen, um die Leistung beizubehalten, und während der Anforderungstiefs reduzieren, um den Preis zu senken.

Zuweisungsstrategien in EC2 Auto Scaling bestimmen, wie Spot-Instances in Ihrer Flotte aus Spot-Instance-Pools erfüllt werden. Die kapazitätsoptimierte Zuweisungsstrategie versucht, Kapazitätsmetriken zu analysieren und so Spot Instances aus den zugänglichsten Spot-Instance-Pools bereitzustellen. Diese Strategie ist eine gute Wahl für Workloads, bei denen die Kosten für Unterbrechungen hoch sind, wie etwa Big Data und Analysen, Bild- und Medien-Wiedergabe, Machine Learning und High Performance Computing. Die Zuweisungsstrategie mit den geringsten Kosten startet Spot-Instances basierend auf der Diversifizierung von „N“ zum jeweiligen Zeitpunkt günstigsten Pools.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Amazon EC2 Auto Scaling.

Hibernate

F: Warum sollte ich eine Instance in den Ruhezustand versetzen?

Sie können eine Instance in den Ruhezustand versetzen, um Ihre Instance und Ihre Anwendungen schnell zum Laufen zu bringen, wenn sie lange für den Bootstrap brauchen (z. B. um Speicher-Caches zu laden). Sie können Instances starten, sie in einen gewünschten Zustand und dann in den Ruhestand versetzen. Diese „vorgewärmten“ Instances können dann „fortgesetzt“ werden, um die erneute Inbetriebnahme zu beschleunigen. Der Ruhezustand behält den Speicherzustand über Start-Stopp-Zyklen hinweg bei.

F: Was geschieht, wenn ich meine Instance in den Ruhezustand versetze?

Wenn Sie eine Instance in den Ruhezustand versetzen, werden Daten von Ihrem EBS-Root-Volume und jegliche angehängten EBS-Datenvolumes beibehalten. Darüber hinaus werden Inhalte aus dem Speicher (RAM) der Instances im EBS-Root-Volume gespeichert. Wenn die Instance neu gestartet wird, kehrt sie zum vorherigen Zustand zurück und lädt die RAM-Inhalte erneut.

F: Was ist der Unterschied zwischen „Ruhezustand“ und „Stopp“?

Wenn eine Instance in den Ruhezustand versetzt wird, bleiben die Daten im RAM bestehen. Beim Anhalten hingegen wird die Instance heruntergefahren und der RAM wird gelöscht.

In beiden Fällen jedoch bleiben die Daten aus Ihrem EBS-Root-Volume und allen angehängten EBS-Datenvolumes erhalten. Auch Ihre private und Ihre Elastic IP-Adresse (sofern zutreffend) ändert sich nicht. Das Verhalten auf Netzwerkebene entspricht dem des EC2-Workflows „Stop-Start“. Die Optionen "Stopp" und "Ruhezustand" sind nur für Amazon EBS-gestützte Instances verfügbar. Der lokale Instance-Speicher bleibt nicht erhalten.

F: Wie viel kostet es, eine Instance in den Ruhezustand zu versetzen?

Das Versetzen von Instances in den Ruhezustand wird mit den standardmäßigen EBS-Tarifen für Speicher abgerechnet. Wie bei einer gestoppten Instance verursachen Sie keine Instance-Verbrauchsgebühren, während sich eine Instance im Ruhezustand befindet.

F: Wie kann ich eine Instance in den Ruhezustand versetzen?

Der Ruhezustand muss beim Start der Instance aktiviert werden. Nach der Aktivierung können Sie die StopInstances-API mit einem zusätzlichen „Hibernate“-Parameter verwenden, um den Ruhezustand auszulösen. Auch können Sie dies über die Konsole tun, indem Sie Ihre Instance auswählen und dann auf Actions> Instance State > Stop - Hibernate klicken. Weitere Informationen zum Ruhezustand erhalten Sie im Benutzerhandbuch.

F: Wie kann ich eine Instance im Ruhezustand wieder fortsetzen?

Dafür können Sie die StartInstances-API aufrufen, genau so, wie Sie es auch bei einer angehaltenen Instance tun würden. Auch können Sie dies über die Konsole tun, indem Sie Ihre Instance auswählen und dann auf Actions > Instance State > Start klicken.

F: Kann ich den Ruhezustand für eine bestehende Instance aktivieren?

Nein, der Ruhezustand kann für eine bestehende Instance (laufend oder gestoppt) nicht aktiviert werden. Dieses Merkmal muss beim Instance-Start aktiviert werden.

F: Woher weiß ich, ob sich eine Instance im Ruhezustand befindet?

Das sehen Sie am Zustandsgrund. Dieser sollte ‘Client.UserInitiatedHibernate’ lauten. Er ist in der Konsole unter „Instances – Details“ sichtbar oder wird als Feld „reason“ in der DescribeInstances-API-Antwort zurückgegeben.

F: Welchen Zustand hat eine Instance im Ruhezustand?

Instances im Ruhezustand sind „gestoppt“.

F: Welche Daten werden gespeichert, wenn ich eine Instance in den Ruhezustand versetze?

EBS-Volume-Speicher (Boot-Volume und angehängte Daten-Volumes) sowie der Arbeitsspeicher (RAM) werden gespeichert. Auch Ihre private und Ihre Elastic IP-Adresse (sofern zutreffend) ändert sich nicht (für VPC). Das Verhalten auf Netzwerkebene entspricht dem des EC2-Workflows „Stop-Start“.

F: Wo werden meine Daten gespeichert, wenn ich eine Instance in den Ruhezustand versetze?

Wie bei der „Stopp“-Funktion werden Root-Gerät- und angehängte Gerätedaten auf den zugehörigen EBS-Volumes gespeichert. Inhalte des Arbeitsspeichers (RAM) werden auf dem EBS-Root-Volume gespeichert.

F: Werden meine Arbeitsspeicherdaten (RAM) verschlüsselt, wenn sie auf EBS verschoben werden?

Ja, RAM-Daten werden stets verschlüsselt, wenn sie auf das EBS-Root-Volume verschoben werden. Die Verschlüsselung des EBS-Root-Volume wird zum Startzeitpunkt der Instance erzwungen. Damit wird der Schutz für jegliche empfindlichen Inhalte sichergestellt, die sich zum Zeitpunkt des aktivierten Ruhezustands im Speicher befinden.

F: Wie lange kann eine Instance im Ruhezustand verbleiben?

Wir unterstützen den Ruhezustand für Instances nur bis zu 60 Tagen. Sie müssen die Instance fortsetzen und den Stopp-Start-Zyklus (ohne Ruhezustand) durchlaufen, wenn die Instances noch länger erhalten bleiben soll. Wir arbeiten ständig daran, unsere Plattform mit Upgrades und Sicherheitspatches auf dem neuesten Stand zu halten, von denen einige im Konflikt zu alten Instances im Ruhezustand stehen könnten. Wir benachrichtigen Sie bei kritischen Updates, die ein Fortsetzen der Instance im Ruhezustand erfodern, um sie herunterzufahren oder neu zu starten.

F: Welche Voraussetzungen bestehen, um eine Instance in den Ruhezustand zu versetzen?

Um den Ruhezustand zu nutzen, muss das Root-Volume ein verschlüsseltes EBS-Volume sein. Die Instance muss darauf konfiguriert sein, das ACPID-Signal für den Ruhezustand zu empfangen (oder die von Amazon veröffentlichten AMIs verwenden, die für den Ruhezustand konfiguriert sind). Darüber hinaus sollte der in Ihrem EBS-Stammvolume verfügbare Speicher groß genug zum Speichern der Daten aus dem Arbeitsspeicher sein.

F: Welche Instances und Betriebssysteme unterstützen Hibernation?

Für Instances mit Amazon Linux, Amazon Linux 2, Ubuntu und Windows wird Ruhezustand in den Instances C3, C4, C5, C5d, I3, M3, M4, M5, M5a, M5ad, M5d, R3, R4, R5, R5a, R5ad, R5d, T2, T3 und T3a unterstützt. 

Für Instances mit CentOS, Fedora und Red Hat Enterprise Linux wird Hibernation von den Instances C5, C5d, M5, M5a, M5ad, M5d, R5, R5a, R5ad, R5d, T3 und T3a unterstützt.

Unter Windows wird der Ruhezustand für Instances mit bis zu 16 GB RAM unterstützt. Unter anderen Betriebssystemen wird der Ruhezustand für Instances von weniger als 150 GB RAM unterstützt. Eine Liste der unterstützten Betriebssystem-Versionen und Instance-Typen finden Sie im Benutzerhandbuch.

F: Sollte ich bestimmte Amazon Machine Image (AMIs) verwenden, wenn ich meine Instance in den Ruhezustand versetzen möchte?

Sie können jedes AMI verwenden, das auf die Unterstützung des Ruhezustands konfiguriert ist. Sie können von AWS veröffentlichte AMIs verwenden, die den Ruhezustand standardmäßig unterstützen. Alternativ können Sie ein benutzerdefiniertes Image einer Instance erstellen, nachdem Sie die Voraussetzungs-Checkliste für den Ruhezustand befolgt und Ihre Instance entsprechend konfiguriert haben.

F: Was ist, wenn mein EBS-Root-Volume nicht groß genug ist, um den Speicherstatus (RAM) für den Ruhezustand zu speichern?

Um den Ruhezustand zu aktivieren, wird auf dem Root-Volume Speicherplatz zum Speichern des Instance-Speichers (RAM) zugewiesen. Stellen Sie sicher, dass das Root-Volume groß genug zum Speichern der RAM-Inhalte und für Ihre erwartete Nutzung ist, z. B. Betriebssystem und Anwendungen. Ist im EBS-Stamm-Volume nicht ausreichend Speicherplatz verfügbar, schlägt der Ruhezustand fehl und die Instance wird nicht in den Ruhezustand versetzt, sondern heruntergefahren.

VM Import/Export

F: Was ist VM Import/Export?

Mithilfe von VM Import/Export können Abbilder von virtuellen Maschinen (VM) importiert werden, um Amazon-EC2-Instances zu erstellen. Zu einem früheren Zeitpunkt importierte EC2-Instances können auch exportiert werden, um VMs zu erstellen. Mit VM Import/Export können Kunden ihre bisherigen Investitionen in den Aufbau von VMs nutzen, indem sie ihre VMs in Amazon EC2 migrieren.

F: Welche Betriebssysteme werden unterstützt?

VM Import/Export unterstützt derzeit Windows- und Linux-VMs, darunter mehrere Editionen von Windows Server, Red Hat Enterprise Linux (RHEL), CentOS, Ubuntu, Debian und anderen. Weitere Informationen zum VM-Import, einschließlich unterstützter Dateiformate, Architekturen und Betriebssystemkonfigurationen, finden Sie unter Systemanforderungen im VM-Import/Export-Benutzerhandbuch.

F: Welche VM-Dateiformate werden unterstützt?

Sie können VMware-ESX-VMDK-Images, Citrix-Xen-VHD-Images, Microsoft-Hyper-V-VHD-Images und RAW-Images als Amazon-EC2-Instances importieren. Sie können EC2-Instances in VMware ESX VMDK-, VMware ESX OVA-, Microsoft Hyper-V VHD- oder Citrix Xen VHD-Images exportieren. Eine vollständige Liste der unterstützten Betriebssysteme finden Sie unter Welche Betriebssysteme werden unterstützt?

F: Was ist VMDK?

Bei VMDK handelt es sich um ein Dateiformat für virtuelle Festplatten in einer einzelnen Datei. Es wird üblicherweise in virtuellen IT-Infrastrukturen verwendet, die beispielsweise vom Unternehmen VMware, Inc. vertrieben werden.

F: Wie bereite ich eine VMDK-Datei mit dem VMware vSphere-Client für den Import vor?

Die VMDK-Datei kann vorbereitet werden, indem Sie im Menü des VMware vSphere Client auf Datei > Export > OVF-Vorlage exportieren gehen. Die resultierende VMDK-Datei wird komprimiert, um die Image-Größe zu verringern, damit die Datei für VM Import/Export kompatibel ist. Es ist keine spezielle Vorbereitung zur Verwendung der Amazon EC2 VM Import Connector vApp für VMware vCenter erforderlich.

F: Was ist VHD?

Bei VHD (Virtual Hard Disk) handelt es sich um ein Container-Dateiformat für virtuelle Festplatten in einer einzelnen Datei. Das VHD-Image-Format wird von Virtualisierungsplattformen wie Microsoft Hyper-V und Citrix Xen verwendet.

F: Wie bereite ich eine VHD-Datei für den Import von Citrix Xen vor?

Öffnen Sie Citrix XenCenter und wählen Sie die virtuelle Maschine aus, die Sie exportieren möchten. Klicken Sie im Menü "Tools" auf "Virtual Appliance Tools" und wählen Sie "Export Appliance" aus, um den Exportvorgang zu starten. Wenn der Export abgeschlossen ist, können Sie die VHD-Image-Datei in dem im Exportdialogfeld angegebenen Zielverzeichnis finden.

F: Wie bereite ich eine VHD-Datei für den Import aus Microsoft Hyper-V vor?

Öffnen Sie Hyper-V Manager und wählen Sie die virtuelle Maschine aus, die Sie exportieren möchten. Wählen Sie im Fenster "Actions" für die virtuelle Maschine die Option "Export" aus, um die Exportaufgabe zu starten. Wenn der Export abgeschlossen ist, können Sie die VHD-Image-Datei in dem im Exportdialogfeld angegebenen Zielverzeichnis finden.

F: Welche anderen Anforderungen gelten für das Importieren einer virtuellen Maschine (VM) in Amazon EC2?

Die virtuelle Maschine muss sich in einem beendeten Zustand befinden, bevor das VMDK- oder VHD-Image generiert wird. Sie darf sich nicht im Pausenmodus befinden oder ausgesetzt sein. Wir empfehlen, dass Sie die virtuelle Maschine nur mit dem angehängten Boot-Volume exportieren. Zusätzliche Festplatten können Sie mit dem Befehl "ImportVolume" importieren und dann mit "AttachVolume" der virtuellen Maschine zuordnen. Zudem werden verschlüsselte Festplatten (z. B. Bit Locker) und verschlüsselte Image-Dateien nicht unterstützt. Sie müssen außerdem dafür sorgen, dass Sie über alle notwendigen Rechte und Lizenzen für den AWS-Import und die Software verfügen, die ggf. in ihrem VM-Image enthalten ist.

F: Muss die virtuelle Maschine für den Import in Amazon EC2 in bestimmter Weise konfiguriert werden?

Vergewissern Sie sich, dass Remote Desktop (RDP) oder Secure Shell (SSH) für den Fernzugriff aktiviert sind, und stellen Sie sicher, dass Ihre Host-Firewall (Windows- Firewall, iptables u. ä.), sofern konfiguriert, den Zugriff auf RDP oder SSH zulässt. Andernfalls haben Sie nach Abschluss des Importvorgangs keine Möglichkeit, auf Ihre Instance zuzugreifen. Stellen Sie bitte des Weiteren sicher, dass die Windows-VMs so konfiguriert sind, dass für alle Benutzer, auch den Administrator, starke Passwörter verwendet werden, und dass Linux-VMs mit einem öffentlichen Schlüssel für SSH-Zugriff konfiguriert sind.

F: Wie importiere ich eine virtuelle Maschine in eine Amazon-EC2-Instance?

Sie können VM-Images auch mit den Amazon EC2 API-Tools importieren:

  • Importieren Sie die VMDK-, VHD- oder RAW-Datei über die ec2-import-instance-API. Bei der Instance-Importaufgabe werden die Parameter erfasst, die erforderlich sind, um die Amazon EC2-Instance-Eigenschaften ordnungsgemäß zu konfigurieren (Instance-Größe, Availability Zone und Sicherheitsgruppen), und das Image wird in Amazon S3 hochgeladen.
  • Wenn "ec2-import-instance" unterbrochen oder ohne abgeschlossenen Upload beendet wird, verwenden Sie "ec2-resume-import", um den Upload-Vorgang fortzusetzen. Der Importvorgang wird an der Stelle, an der er unterbrochen wurde, fortgesetzt.
  • Verwenden Sie zur Überwachung des Fortschritts des Importvorgangs den Befehl ec2-describe-conversion-tasks. Sie erhalten dadurch die sich ergebende Amazon EC2 Instance-ID.
  • Sobald der Importvorgang abgeschlossen wurde, können Sie die Amazon EC2-Instance neu starten, indem Sie für die ec2-run-instances-API die Instance-ID angeben.
  • Löschen Sie abschließend mit dem Befehlszeilenprogramm "ec2-delete-disk-image" Ihr Datenträger-Image aus Amazon S3, da es nicht mehr benötigt wird.

Alternativ können Sie Ihre virtuelle Maschine mittels einer grafischen Benutzeroberfläche des AWS Management Portal for vCenter in Amazon EC2 importieren, sofern Sie die VMware-vSphere-Virtualisierungsplattform verwenden. Informationen finden Sie im Leitfaden für Erste Schritte im AWS-Management-Portal für vCenter. AWS-Management-Portal für vCenter bietet eine integrierte Unterstützung von VM Import. Sobald das Portal in vCenter installiert ist, können Sie mit der rechten Maustaste auf eine VM klicken und "Migrate to EC2" auswählen, um anhand der VM eine EC2-Instance zu erstellen. Das Portal übernimmt das Exportieren der VM aus vCenter, ihr Hochladen in S3 und ihre Umwandlung in eine EC2-Instance, ohne dass weitere Aufgaben ausgeführt werden müssen. Sie können den Fortschritt Ihrer VM-Migrationen auch im Portal nachverfolgen.

F: Wie kann ich eine Amazon-EC2-Instance zurück in meine lokale Virtualisierungsumgebung exportieren?

Sie können Ihre Amazon-EC2-Instance mithilfe der Amazon-EC2-Befehlszeilenprogramme exportieren:

  • Zum Exportieren der Instance dient ec2-create-instance-export-task. Der Exportbefehl erfasst die benötigten Parameter (Instance-ID, S3-Bucket für das exportierte Image, Name des exportierten Image, VMDK-, OVA- oder VHD-Format) für einen ordnungsgemäßen Export der Instance in das gewählte Format. Die exportierte Datei wird in einem zuvor von Ihnen erstellten S3-Bucket gespeichert.
  • Mit ec2-describe-export-tasks können Sie den Status des Exportvorgangs überwachen.
  • Mit ec2-cancel-export-task können Sie einen Exportvorgang vor dem Abschluss abbrechen.

F: Welche anderen Anforderungen gelten für das Exportieren einer EC2-Instance mithilfe von VM Import/Export?

Sie können ausgeführte oder beendete EC2-Instances exportieren, die Sie zuvor mit VM Import/Export importiert haben. Wenn die Instance ausgeführt wird, wird sie vorübergehend beendet, um einen Snapshot des Startdatenträgers zu erstellen. EBS-Datenträger können nicht exportiert werden. EC2-Instances mit mehreren Netzwerkschnittstellen können nicht exportiert werden.

F: Kann ich Amazon-EC2-Instances exportieren, denen mindestens ein EBS-Volume zugeordnet ist?

Ja, aber VM Import/Export exportiert nur das Start-Volume der EC2-Instance.

F: Was kostet der Import einer virtuellen Maschine?

Für das Hochladen und die Speicherung Ihrer VM-Image-Datei gelten die Amazon S3-Standardgebühren für die Datenübertragung und -speicherung. Nachdem Ihre VM importiert wurde, werden Ihnen die Amazon EC2 Instance-Stundensätze und die EBS-Servicegebühren berechnet. Wenn Sie Ihre VM-Image-Datei nach Abschluss des Importvorgangs nicht länger in S3 speichern möchten, verwenden Sie das Befehlszeilen-Tool ec2-delete-disk-image, um Ihr Speicher-Image in Amazon S3 zu löschen.

F: Was kostet der Export einer VM?

Für das Speichern Ihrer exportierten VM-Image-Datei fallen die üblichen Amazon-S3-Speichergebühren an. Ferner fallen die üblichen S3-Datenübertragungsgebühren an, wenn Sie die exportierte VM-Datei in Ihre lokale Virtualisierungsumgebung herunterladen. Schließlich fallen die üblichen EBS-Gebühren für das Speichern eines temporären Snapshots Ihrer EC2-Instance an. Löschen Sie zum Minimieren von Speichergebühren die VM-Image-Datei aus S3, nachdem Sie sie in Ihre Virtualisierungsumgebung heruntergeladen haben.

F: Wer muss die Lizenz für das Betriebssystem bereitstellen, wenn ich eine VM von Windows Server 2003 oder 2008 importiere?

Wenn Sie eine importierte VM mithilfe von Microsoft Windows Server 2003 oder 2008 starten, werden Ihnen die üblichen Instance-Stundensätze für Amazon EC2 mit der entsprechenden Windows Server-Version in Rechnung gestellt. Darunter fallen auch die Rechte für die Nutzung dieses Betriebssystems in Amazon EC2. Sie tragen dafür Sorge, dass jegliche sonstige Software korrekt lizenziert ist.

Was passiert mit meinem lokalen Microsoft Windows-Lizenzschlüssel, wenn ich eine VM von Windows Server 2003 oder 2008 importiere? Da Ihr On-Premises-Lizenzschlüssel für Microsoft Windows, der dieser VM zugeordnet war, nicht verwendet wird, wenn Ihre importierte VM als EC2-Instance ausgeführt wird, können Sie ihn für eine andere VM in Ihrer On-Premises-Umgebung wiederverwenden.

F: Kann ich nach dem Export einer EC2-Instance zurück in meine On-Premises-Virtualisierungsumgebung weiter den von AWS bereitgestellten Microsoft-Windows-Lizenzschlüssel verwenden?

Nein. Nachdem eine EC2-Instance exportiert wurde, steht der in der EC2-Instance verwendete Lizenzschlüssel nicht mehr zur Verfügung. Sie müssen für die exportierte VM, nachdem sie auf Ihrer On-Premises-Virtualisierungsplattform gestartet wurde, einen neuen Lizenzschlüssel aktivieren und angeben.

F: Wenn ich eine VM mit Red Hat Enterprise Linux (RHEL) importiere, wer ist dann für die Bereitstellung der Betriebssystemlizenz zuständig?

Wenn Sie Red Hat Enterprise Linux (RHEL) VM-Abbilder importieren, können Sie die Lizenz-Portabilität für Ihre RHEL-Instances verwenden. Die Lizenz-Portabilität verpflichtet Sie zum Verwalten der RHEL-Lizenzen für importierte Instances. Dies ist über Cloud Access-Abonnements für Red Hat Enterprise Linux möglich. Für weitere Informationen über Cloud Access und um Ihre Berechtigung überprüfen zu lassen, wenden Sie sich bitte an Red Hat.

F: Wie lange dauert der Import einer virtuellen Maschine?

Es hängt von der Größe des Datenträgerabbilds und der Geschwindigkeit Ihrer Netzwerkverbindung ab, wie lange der Import einer virtuellen Maschine dauert. Es dauert bei einer Übertragungsgeschwindigkeit von 10 Mbps beispielsweise ungefähr zwei Stunden, bis ein 10 GB großes VMDK-Image vom Windows Server 2008 SP2 importiert wird. Falls Sie über eine langsamere Netzwerkverbindung verfügen oder einen Upload für großen Platteninhalt vornehmen müssen, kann der Importvorgang wesentlich länger dauern.

F: In welchen Amazon-EC2-Regionen kann ich VM Import/Export nutzen?

In der Regionstabelle finden Sie die in den verschiedenen Regionen verfügbaren Produktdienste.

F: Wie viele gleichzeitige Import- bzw. Exportvorgänge sind möglich?

Für jedes Konto sind pro Region bis zu fünf aktive Import- und Exportvorgänge möglich.

F: Kann ich importierte virtuelle Maschinen in Amazon Virtual Private Cloud (Amazon VPC) ausführen?

Ja, Sie können importierte virtuelle Maschinen in Amazon VPC ausführen.

F: Kann ich die AWS-Managementkonsole mit VM Import/Export verwenden?

Nein. VM Import/Export-Befehle stehen über die EC2-Befehlszeilenschnittstelle und -API zur Verfügung. Sie können auch das AWS Management Portal for vCenter zum Importieren von VMs in Amazon EC2 verwenden. Nach dem Import stehen die resultierenden Instanzen über die AWS Management Console zur Verfügung.

Abrechnungs- und Kaufoptionen

Abrechnung

F: Wie wird mir die Nutzung von Amazon EC2 in Rechnung gestellt?

Sie zahlen nur das, was Sie auch tatsächlich nutzen. Der angezeigte Preis ist der Stundensatz. Je nachdem, welche Instances Sie nutzen, bezahlen Sie für jeden Instance-Typ nach Stunde oder Sekunde (mindestens 60 Sekunden). Teilweise genutzte Instance-Stunden werden basierend auf der Instances-Nutzung in Rechnung gestellt. Daten, die zwischen AWS-Services in verschiedenen Regionen übertragen werden, werden zu den Standardtarifen für die Datenübertragung zwischen Regionen berechnet. Die Verwendung für andere Amazon Web Services wird von Amazon EC2 separat in Rechnung gestellt.

Informationen zu den EC2-Preisen finden Sie auf der Detailseite von EC2 im Preis-Abschnitt.

F: Wann beginnt und endet die Fakturierung meiner Amazon EC2-Systeme?

Die Fakturierung beginnt, wenn Amazon EC2 die Startsequenz einer AMI-Instance einleitet. Die Fakturierung endet, wenn die Instance beendet wird. Dies kann durch einen Web-Service-Befehl, durch die Ausführung von "shutdown -h" oder durch den Ausfall der Instance geschehen. Wenn Sie eine Instance stoppen, wird sie von uns heruntergefahren. Für eine gestoppte Instance werden kein Stundensatz und keine Datenübertragungsgebühren berechnet. Der Speicherplatz von Amazon EBS-Volumes wird dagegen in Rechnung gestellt. Weitere Informationen dazu finden Sie in der AWS-Dokumentation.

F: Wie wird die EC2-Instance-Nutzung definiert, die in Rechnung gestellt werden kann?

Die Instance-Nutzung wird für die Zeit in Rechnung gestellt, in der Ihre Instances „laufen“. Wenn für Ihre Instance keine weiteren Gebühren anfallen sollen, müssen Sie diese „stoppen“ oder „beenden“, damit Ihnen keine weiteren Instance-Nutzung berechnet werden. Die Berechnung beginnt, sobald eine Instance in den Ausführungsstatus wechselt.

F: Wenn ich zwei Instances in verschiedenen Availability Zones habe, welche Gebühren werden dann für die regionale Datenübertragung erhoben?

Bei jeder Instance fallen Gebühren für den Dateneingang und den Datenausgang entsprechend den jeweiligen Tarifen für die Internetdatenübertragung an. Wenn also zwischen diesen beiden Instances Daten übertragen werden, fallen für die erste Instance Gebühren für die „Übertragung ausgehender Daten aus EC2 in eine andere AWS-Region“ und für die zweite Instance Gebühren für die „Übertragung eingehender Daten aus einer anderen AWS-Region“ an. Ausführliche Informationen zur Preisgestaltung für Datenübertragung finden Sie hier.

F: Wenn ich zwei Instances in verschiedenen Regionen habe, welche Gebühren werden dann für die Datenübertragung erhoben?

Bei jeder Instance fallen Gebühren für den Dateneingang und den Datenausgang entsprechend den Tarifen für die Inter-Regionen-Datenübertragung an. Wenn also Daten zwischen zwei Instances übertragen werden, fallen für die Inter-Regionen-Datenübertragung aus der ersten Instance und für die Inter-Regionen-Datenübertragung in die zweite Instance Gebühren an.

F: Wir wird die Nutzung pro Sekunde gegenüber der Nutzung pro Stunde in meiner Monatsrechnung angezeigt?

Auch wenn die EC2-Gebühren in Ihrer Monatsrechnung jetzt sekundengenau berechnet werden, wird die kumulative Nutzung für jede Instance, die in einem bestimmten Monat gelaufen ist, aus Konsistenzgründen in der monatlichen EC2-Rechnung in Dezimalstunden angegeben. Zum Beispiel würde eine Instance, die 1 Stunde, 10 Minuten und 4 Sekunden lang läuft, wie 1,1677 aussehen. Lesen Sie diesen Blog, um ein Beispiel eines detaillierten Abrechnungsberichts zu erhalten.

F: Sind Steuern bereits in den Preisen enthalten?

Falls nicht anders angegeben, gelten unsere Preise zuzüglich anfallender Steuern und Abgaben, darunter MwSt. und Umsatzsteuer. Bei Kunden mit japanischer Rechnungsadresse unterliegt die Nutzung von AWS-Services der japanischen Verbrauchssteuer. Weitere Informationen.

Convertible Reserved Instances

F: Was ist eine Convertible Reserved Instance?

Eine Convertible Reserved Instance ist eine Art Reserved Instances mit Attributen, die während der Laufzeit geändert werden kann.

F: Wann sollte ich eine Convertible Reserved Instance anstelle einer Standard Reserved Instance kaufen?

Convertible Reserved Instances sind praktisch für Kunden, die sich auf eine dreijährige Laufzeit für die Nutzung von EC2 Instances festlegen können – im Gegenzug erhalten sie einen erheblichen Rabatt auf ihre EC2-Tarife. Ebenso empfehlen sie sich für Kunden, die sich unsicher sind, welche Art Instance sie in Zukunft benötigen, oder für Kunden, die von Preisänderungen profitieren möchten.

F: Welche Laufzeitoptionen sind für Convertible Reserved Instances verfügbar?

Genauso wie Standard RIs sind auch Convertible Reserved Instances mit einer Laufzeit von einem oder drei Jahren verfügbar.

F: Kann ich meine Convertible Reserved Instance zurückgeben und stattdessen eine andere Convertible Reserved Instance nutzen, wenn sich meine Anforderungen hinsichtlich Instance-Typ, Betriebssystem, Mandantenfähigkeit oder Zahlungsoption geändert haben?

Ja, Sie können bei einer Umwandlung Ihrer Convertible Reserved Instances Änderungen am Instance-Typ, Betriebssystem, an der Mandantenfähigkeit oder Zahlungsoption vornehmen. Sie können einen Teil Ihrer Convertible Reserved Instance flexibel austauschen oder den Wert von mehreren Convertible Reserved Instances in einer einzelnen Umwandlung zusammenführen.

F: Kann ich eine Convertible oder Standard RI von einer Region in eine andere übertragen?

Nein, eine RI wird einer bestimmten Region für die Dauer ihrer Laufzeit fest zugeordnet.

F: Wie ändere ich die Konfiguration einer Convertible RI?

Sie können die Konfiguration Ihrer Convertible Reserved Instances über die EC2 Management Console oder die GetReservedInstancesExchangeQuote-API ändern. Sie können einen Teil Ihrer Convertible Reserved Instance flexibel austauschen oder den Wert von mehreren Convertible Reserved Instances in einer einzelnen Umwandlung zusammenführen. Klicken Sie hier, um mehr über die Umwandlung von Convertible RIs zu erfahren.

F: Fällt eine Gebühr für die Umwandlung meiner Convertible Reserved Instances an?

Nein, für die Umwandlung Ihrer RIs fällt keine Gebühr an. Möglicherweise müssen Sie aber eine einmalige Zahlung leisten, um eventuelle Preisunterschiede zwischen Ihren bisherigen Convertible RIs und den gewünschten neuen Convertible RIs auszugleichen.

F: Wie funktioniert die Umwandlung von Convertible RIs?

Wandeln Sie eine Convertible Reserved Instance in eine andere um, wird durch eine Umrechnung in EC2 sichergestellt, dass der Gesamtwert der Convertible Reserved Instances gleich bleibt. Wenn Sie zum Beispiel eine Reserved Instance im Wert von 1000 USD in eine andere Reserved Instance umwandeln, erhalten Sie Convertible Reserved Instances im Gegenwert von 1000 USD (oder mehr). Sie können Ihre Convertible Reserved Instance nicht gegen (eine) Convertible Reserved Instance(s) mit einem geringeren Gesamtwert eintauschen.

F: Was bedeutet genau Gesamtwert?

Der Gesamtwert ist die Summe aller während der Laufzeit der Reserved Instance zu leistenden Zahlungen.

F: Wie berechnet sich genau der mögliche Aufschlag, den ich beim Austausch zum Ausgleich möglicher Preisunterschiede zwischen zwei Convertible Reserved Instances mit kompletter Vorauszahlung zu zahlen habe?

Nehmen wir einmal an, Sie haben eine Convertible Reserved Instance mit kompletter Vorauszahlung im Wert von 1000 USD erworben und vorab bezahlt. Nach Ablauf der halben Laufzeit möchten Sie die Attribute der Reserved Instance ändern. Da erst die Hälfte der Laufzeit abgelaufen ist, verbleibt noch ein Guthaben von 500 USD für die Reserved Instance. Die Convertible Reserved Instance mit kompletter Vorauszahlung, die Sie stattdessen erwerben möchten, kostet aktuell 1 200 USD. Da genau die Hälfte der Laufzeit Ihrer Convertible Reserved Instance vorbei ist, beträgt der Gegenwert der neuen Convertible Reserved Instance 600 USD – die Hälfte des Gesamtpreises. Die von Ihnen zu leistende Ausgleichszahlung ist die Differenz der bereits von Ihnen geleisteten und der für die gewünschten Convertible Reserved Instances fälligen Vorabzahlung, also 600 USD minus 500 USD = 100 USD.

F: Und wie funktioniert die Umrechnung zwischen Convertible Reserved Instances ohne Vorauszahlung?

Anders als bei Convertible Reserved Instances mit Vorauszahlung ist hier keine Ausgleichszahlung zu leisten, da hier eine Umwandlung zwischen Reserved Instances stattfindet, für die keine Vorauszahlung getätigt wurde. Jedoch müssen die pro Stunde anfallenden Kosten vor der Umwandlung größer oder gleich der pro Stunde anfallenden Kosten nach der Umwandlung sein.

Beispiel: Sie haben eine Convertible Reserved Instance ohne Vorauszahlung (A) zum Preis von 0,10 USD/Std. erworben und möchten nun die Convertible Reserved Instance A in eine andere Reserved Instance (B) umwandeln, deren Kosten 0,06 USD/Std. betragen. Bei der Umwandlung erhalten Sie zwei Reserved Instances von Instance B, da die Kosten pro Stunde für die neuen Instances größer oder gleich sein müssen wie die Kosten, die Sie für die zuvor genutzte Instance (A) gezahlt haben.

F: Kann ich die Anzahl der Instances anpassen, die ich als Ergebnis einer Umwandlung von Convertible Reserved Instances erhalte?

Nein. EC2 berechnet die Mindestanzahl von Convertible Reserved Instances, die Sie erhalten, auf Grundlage der Convertible Reserved Instances, die Sie zurückgeben möchten, wobei der Wert der Convertible Reserved Instances, die Sie erhalten, mindestens gleich hoch sein muss wie der Wert der von Ihnen bisher genutzten Convertible Reserved Instances.

F: Gibt es Obergrenzen für die Umwandlung von Convertible Reserved Instances?

Nein, es gibt keine Obergrenzen für die Umwandlung von Convertible Reserved Instances.

F: Kann ich bei der Umwandlung meiner Convertible Reserved Instances den Instance-Typ frei wählen?

Nein, sie können nur eine Umwandlung in Convertible Reserved Instances vornehmen, die gerade von AWS angeboten werden.

F: Kann ich die mit meiner Convertible Reserved Instance verknüpfte Zahlungsoption upgraden?

Ja, Sie können die mit Ihrer Reserved Instance verknüpfte Zahlungsoption upgraden. Sie können beispielsweise Ihre Reserved Instances ohne Vorauszahlung in Reserved Instances mit teilweiser oder kompletter Vorauszahlung umwandeln, um so von besseren Preisen zu profitieren. Anders herum geht es nicht: Sie können die Zahlungsoption nicht von "Komplette Vorauszahlung" in "Keine Vorauszahlung" oder von "Teilweise Vorauszahlung" in "Keine Vorauszahlung" ändern.

F: Profitiere ich mit Convertible Reserved Instances von Preissenkungen während der Laufzeit meiner Convertible Reserved Instances?

Ja, Sie können Ihre Reserved Instances umwandeln, um von den niedrigeren Preisen zu profitieren. Beispiel: Wenn der Preis für neue Convertible Reserved Instances um 10 % sinkt, können Sie Ihre Convertible Reserved Instances umwandeln, um so von dem Preisnachlass um 10 % zu profitieren.

EC2-Flotte

F: Was ist die Amazon-EC2-Flotte?

Mit einem einzigen API-Aufruf können Sie mit EC2-Flotte Rechenleistung über verschiedene Instance-Typen, Availability Zones und On-Demand, Reserved Instances (RI) und Spot-Instances-Kaufmodelle bereitstellen, um die Skalierung, Leistung und Kosten zu optimieren.

F: Wenn ich derzeit einen Amazon-EC2-Spot-Instance-Flotte verwende, sollte ich dann zu Amazon-EC2-Flotte migrieren?

Wenn Sie Amazon-EC2-Spot-Instances mit Spot-Instance-Flotte verwenden, können Sie dies beibehalten. Die Spot-Instance-Flotte und EC2-Flotte bieten dieselben Funktionen. Eine Migration ist nicht erforderlich.

F: Kann ich Reserved Instance (RI)-Rabatte für Amazon-EC2-Flotte verwenden?

Ja. Ähnlich wie andere EC2-APIs oder andere AWS-Services, die EC2-Instances launchen, erhält diese Instance den RI-Rabatt, wenn die von EC2-Flotte gestartete On-Demand-Instance mit einer bestehenden RI übereinstimmt. Wenn Sie beispielsweise regionale RIs für M4-Instances besitzen und nur M4-Instances in Ihrer EC2-Flotte angegeben haben, werden RI-Rabatte automatisch auf diese Verwendung von M4 angewendet.

F: Erfolgt ein Failover von Amazon-EC2-Flotte zu On-Demand, wenn die EC2-Spot-Kapazität nicht vollständig erfüllt ist?

Nein. EC2-Flotte wird weiterhin versuchen, basierend auf der Anzahl der Spot-Instances, die Sie in Ihrer Flottenstartspezifikation angefordert haben, Ihre gewünschte Spot-Kapazität zu erreichen.

F: Wie sieht das Preisangebot für Amazon-EC2-Flotte aus?

Die EC2-Flotte ist ohne Aufpreis verfügbar. Sie zahlen nur für die zugrundeliegenden Ressourcen, die die EC2-Flotte launcht.

F: Können Sie ein Praxisbeispiel für die Verwendung von Amazon-EC2-Flotte angeben?

Es gibt zahlreiche Möglichkeiten, die Amazon-EC2-Flotte zu nutzen, wie z. B. bei Big Data-Workloads, containerisierten Anwendungen, Workloads für die Rasterverarbeitung etc. In diesem Beispiel einer genomischen Sequenzierungs-Workload können Sie ein Raster von Worker-Knoten mit einem einzigen API-Aufruf launchen: Wählen Sie Ihre bevorzugten Instances aus, weisen Sie Gewichtungen für diese Instances zu, legen Sie die Zielkapazität für On-Demand- und Spot-Instances fest und entwickeln Sie innerhalb von Sekunden eine Flotte, um die genomischen Daten schnell zu durchsuchen.

F: Wie kann ich einer Amazon-EC2-Flotte Ressourcen zuweisen?

Standardmäßig startet die EC2-Flotte die preisgünstigste On-Demand-Option. Für Spot-Instances bietet die EC2-Flotte drei Zuweisungsstrategien: kapazitätsoptimiert, niedrigster Preis und diversifiziert. Die kapazitätsoptimierte Zuweisungsstrategie versucht, Kapazitätsmetriken zu analysieren und so Spot Instances aus den zugänglichsten Spot-Instance-Pools bereitzustellen. Diese Strategie ist eine gute Wahl für Workloads, bei denen die Kosten für Unterbrechungen hoch sind, wie etwa Big Data und Analysen, Bild- und Medien-Wiedergabe, Machine Learning und High Performance Computing.

Mit der Strategie des niedrigsten Preises können Sie die Spot-Instance in Pools bereitstellen, die zum Anforderungszeitpunkt den niedrigsten Preis pro Kapazitätseinheit bieten. Mit der diversified-Strategie können Sie die Ressourcen Ihrer Spot-Instance-Flotten in mehreren Spot-Instance-Pools bereitstellen und die Zielkapazität Ihrer Flotte beibehalten, um die Anwendung zu weitern.

F: Kann ich eine Amazon-EC2-Flottenanforderung für mehrere Regionen übermitteln?

Nein. EC2-Flottenanforderungen für mehrere Regionen werden nicht unterstützt.

F: Kann ich eine Amazon-EC2-Flotte durch Tags kennzeichnen?

Ja. Sie können eine EC2-Flottenanforderung mit einem Tag kennzeichnen, um geschäftsrelevante Tag-Gruppierungen zu erstellen, um Ressourcen nach technischen, geschäftlichen und sicherheitsrelevanten Dimensionen zu organisieren.

F: Kann ich meine Amazon-EC2-Flotte modifizieren?

Ja. Sie können die Gesamtzielkapazität Ihrer EC2-Flotte im Wartungsmodus ändern. Möglicherweise müssen Sie die Anfrage abbrechen und eine neue einreichen, um die Änderung anderer Konfigurationsparameter zu beantragen.

F: Kann ich für jeden Instance-Typ, den ich verwenden möchte, ein anderes AMI festlegen?

Ja. Geben Sie dazu einfach das gewünschte AMI in jeder Startspezifikation an, die Sie mit Ihrer EC2-Flotte bereitstellen.

On-Demand-Kapazitätsreservierung

Eine On-Demand-Kapazitätsreservierung ist ein EC2-Angebot, mit dem Sie reservierte Kapazität auf Amazon EC2 erstellen und verwalten können. Sie können eine Kapazitätsreservierung erstellen, indem Sie einfach eine Availability Zone und eine Availability-Menge (Anzahl der Instances) sowie weitere Instance-Spezifikationen wie Instance-Typ und -Mandanten auswählen. Nach dem Anlegen wird die EC2-Kapazität für Sie gehalten, unabhängig davon, ob Sie Instances ausführen oder nicht.

F: Was kosten Kapazitätsreservierungen?

Wenn die Kapazitätsreservierung aktiv ist, zahlen Sie entsprechende Instance-Gebühren, unabhängig davon, ob Sie die Instances ausführen oder nicht. Wenn Sie die Reservierung nicht nutzen, erscheint diese als ungenutzte Reservierung auf Ihrer EC2-Rechnung. Wenn Sie eine Instance ausführen, die den Attributen einer Reservierung entspricht, bezahlen Sie nur für die Instance und nichts für die Reservierung. Es gibt keine Vorab- oder Zusatzgebühren.

Wenn Sie beispielsweise eine Kapazitätsreservierung für 20 c5.2xlarge Instances anlegen und 15 c5.2xlarge Instances ausführen, werden Ihnen 15 Instances und 5 ungenutzte Instances in der Reservierung berechnet (effektiv für 20 Instances).

F: Kann ich einen Rabatt für die Nutzung der Kapazitätsreservierung erhalten?

Ja. Für Kapazitätsreservierungen gelten Savings-Plans- oder regionale RI-Rabatte (auf eine Region beschränkte RI). Wenn Sie eine Instance innerhalb Ihrer Reservierung ausführen, wird Ihnen die Reservierung nicht in Rechnung gestellt. Savings Plans oder regionale RIs gelten für diese Nutzung, als ob es sich um eine On-Demand-Nutzung handeln würde. Wenn die Reservierung nicht verwendet wird, wendet AWS Billing Ihren Rabatt automatisch an, wenn die Attribute der ungenutzten Kapazitätsreservierung mit den Attributen eines aktiven Sparplans oder einer regionalen RI übereinstimmen.

Wenn Sie beispielsweise ein regionales RI für 10 c5.2xlarge-Instances und eine ungenutzte Kapazitätsreservierung für 10 c5.2xlarge-Instances in derselben Region haben, gilt der RI-Rabatt für alle 10 Instances der Reservierung. Beachten Sie, dass wir regionale RI-Rabatte vorzugsweise auf die laufende Instance-Nutzung anwenden, bevor wir ungenutzte Kapazitätsreservierungen abdecken. Das bedeutet, wenn Sie andere c5-Instances in der Region betreiben, wenden wir zuerst die regionale RI auf diese Instances an und wenden den verbleibenden Rabatt auf die ungenutzte Kapazitätsreservierung an.

Hinweis: Eine regionale RI ist eine EC2-RI, die auf eine AWS-Region beschränkt ist. Rabatte für zonengebundene RIs (RIs, die auf eine Availability Zone in einer Region beschränkt sind) gelten nicht für On-Demand-Kapazitätsreservierungen, da zonengebundene RIs bereits mit einer Kapazitätsreservierung ausgestattet sind.

F: Wann sollte ich Savings Plans, EC2 RIs, und Kapazitätsreservierungen verwenden?

Verwenden Sie Savings Plans oder regionale RIs zur Senkung Ihrer Kosten, wenn Sie sich für eine ein- oder dreijährige Laufzeit entscheiden. Savings Plans bieten ähnlich wie EC2-RIs erhebliche Ersparnisse gegenüber der On-Demand-Option. Damit sinken für Kunden automatisch die Kosten für die genutzte Rechenleistung in allen AWS-Regionen, sogar wenn sich die Nutzung ändert. Verwenden Sie Kapazitätsreservierungen für die zusätzliche Gewissheit, dass Sie Instances für jede Dauer starten können. Kapazitätsreservierungen können für beliebige Zeiträume angelegt und unabhängig von Ihren Savings Plans oder RIs verwaltet werden. Wenn Sie über Savings Plans oder regionale RIs verfügen, werden diese automatisch auf alle passenden Kapazitätsreservierungen angewendet. Damit erhalten Sie die Flexibilität, selektiv Kapazitätsreservierungen zu einem Teil Ihrer Instances hinzuzufügen und trotzdem die Kosten für die Nutzung zu senken.

F: Ich habe eine Zonal RI (RI Scope to a Availability Zone), die auch eine Kapazitätsreservierung anbietet. Wie sieht das im Vergleich zu einer Kapazitätsreservierung aus?

Eine Zonal RI bietet sowohl einen Rabatt als auch eine Kapazitätsreservierung in einer bestimmten Verfügbarkeitszone als Gegenleistung für eine 1- bis 3-jährige Laufzeit. Mit der Kapazitätsreservierung können Sie reservierte Kapazitäten unabhängig von RI-Festmenge und -Laufzeit anlegen und verwalten.

Sie können On-Demand-Kapazitätsreservierungen zusammen mit einem Savings Plan oder einer regionalen RI nutzen, um mindestens die gleichen Vorteile wie bei einer zonengebundenen RI zu erhalten – ohne zusätzliche Kosten. Sie erhalten außerdem die erweiterte Flexibilität eines Savings Plan (oder regionalen RI) und die Funktionen der Kapazitätsreservierung: die Möglichkeit, die Reservierung jederzeit zu erweitern oder zu verringern, die Auslastung der Reservierung in Echtzeit anzuzeigen und eine Kapazitätsreservierung auf bestimmte Workloads auszurichten.

Durch eine Neuzuordnung Ihrer zonengebundenen RIs zu einer Region erhalten Sie hinsichtlich der Anwendung der RI-Rabatte unmittelbar die Flexibilität bei der Availability Zone und Instance-Größe. Ihre standardmäßigen Zonen-RIs können Sie einer Region zuordnen, indem Sie den Gültigkeitsbereich der RI über die EC2-Management-Konsole oder die ModifyReservedInstances-PI von einer bestimmten Availability Zone auf eine Region umstellen.

F: Ich habe eine Kapazitätsreservierung erstellt. Wie kann ich sie nutzen?

Eine Kapazitätsreservierung ist an eine bestimmte Availability Zone gebunden und wird standardmäßig automatisch von laufenden Instanzen in dieser Availability Zone verwendet. Wenn Sie neue Instances starten, die mit den Reservierungseigenschaften übereinstimmen, stimmen sie automatisch mit der Reservierung überein.

Sie können auch eine Reservierung für spezielle Workloads/Instances anpeilen, wenn Sie das bevorzugen. Weitere Informationen zur Targeting-Option finden Sie in der technischen Dokumentation von Linux oder Windows.

F: Wie viele Instances darf ich reservieren?

Die Anzahl der Instances, die Sie reservieren dürfen, richtet sich nach dem On-Demand-Instance-Limit Ihres Kontos. Sie können so viele Instanzen reservieren, wie es dieses Limit erlaubt, abzüglich der Anzahl der bereits laufenden Instanzen.

Wenn Sie ein höheres Limit benötigen, wenden Sie sich an Ihren AWS-Vertriebsmitarbeiter oder füllen Sie das Amazon-EC2-Instanceanfrageformular mit Ihrem Anwendungsfall aus und Ihre Instanceerhöhung wird berücksichtigt. Limiterhöhungen sind an die Region gebunden, für die sie beantragt werden.

F: Kann ich eine Kapazitätsreservierung ändern, nachdem sie begonnen hat?

Ja. Sie können die Anzahl der reservierten Instanzen jederzeit reduzieren. Sie können auch die Anzahl der Instanzen erhöhen (je nach Verfügbarkeit). Sie können auch den Endzeitpunkt Ihrer Reservierung ändern. Eine beendete oder gelöschte Kapazitätsreservierung können Sie nicht ändern.

F: Kann ich eine Kapazitätsreservierung beenden, nachdem sie begonnen hat?

Ja. Sie können eine Kapazitätsreservierung beenden, indem Sie sie über die Konsole oder über das API/SDK stornieren oder indem Sie Ihre Reservierung ändern, um einen Endzeitpunkt festzulegen, an dem sie automatisch abläuft. Laufende Instances sind von Änderungen Ihrer Kapazitätsreservierung, einschließlich der Löschung oder des Ablaufs einer Reservierung, nicht betroffen.

F: Wo finde ich weitere Informationen zur Nutzung von Kapazitätsreservierungen?

Weitere Informationen zum Erstellen und Verwenden einer Kapazitätsreservierung finden Sie in der technischen Dokumentation zu Linux oder Windows.

F: Kann ich eine Kapazitätsreservierung für ein anderes AWS-Konto freigeben?

Ja, Sie können Kapazitätsreservierungen für andere AWS-Konten oder innerhalb Ihrer AWS-Organisation über den AWS Resource Access Manager-Service freigeben. Sie können EC2-Kapazitätsreservierungen in drei einfachen Schritten freigeben: Erstellen Sie eine Ressourcenfreigabe mit AWS Resource Access Manager, fügen Sie Ressourcen (Kapazitätsreservierungen) zur Ressourcenfreigabe hinzu und geben Sie die Zielkonten an, für die Sie die Ressourcen freigeben möchten.

Beachten Sie, dass die Freigabe der Kapazitätsreservierung für neue AWS-Konten oder AWS-Konten, die über einen begrenzten Abrechnungsverlauf verfügen, nicht verfügbar ist. Neue Konten, die mit einem qualifizierten primären Konto (Zahler) oder über eine AWS-Organisation verknüpft sind, sind von dieser Einschränkung ausgenommen.

F: Was passiert, wenn ich eine Kapazitätsreservierung für ein anderes AWS-Konto freigebe?

Wenn eine Kapazitätsreservierung mit anderen Konten gemeinsam genutzt wird, können diese Konten die reservierte Kapazität für die Ausführung ihrer EC2-Instances verbrauchen. Das genaue Verhalten hängt von den Einstellungen ab, die in der Kapazitätsreservierung festgelegt wurden. Standardmäßig entsprechen Kapazitätsreservierungen automatisch vorhandenen und neuen Instances anderer Konten, die gemeinsamen Zugriff auf die Reservierung haben. Sie können auch eine Reservierung für bestimmte Workloads/Instances festlegen, wenn Sie das bevorzugen. Einzelne Konten können steuern, welche Instanzen Kapazitätsreservierungen verbrauchen. Weitere Informationen zu den Instance-Abgleichungsoptionen finden Sie in der technischen Dokumentation von Linux oder Windows.

F: Fällt für die Nutzung von FlexMatch eine zusätzliche Gebühr an?

Für das Teilen einer Reservierung fallen keine zusätzlichen Gebühren an.

F: Wer wird in Rechnung gestellt, wenn eine Kapazitätsreservierung bei mehreren Konten freigegeben wird?

Wenn mehrere Konten eine Kapazitätsreservierung belegen, wird jedes Konto für seine eigene Instance-Nutzung belastet. Ungenutzte reservierte Kapazität (falls vorhanden) wird dem Konto in Rechnung gestellt, das Eigentümer der Kapazitätsreservierung ist. Wenn zwischen den Konten, die eine Kapazitätsreservierung teilen, eine konsolidierte Fakturierungsvereinbarung besteht, wird das primäre Konto für die Instance-Nutzung über alle verknüpften Konten fakturiert.

F: Kann ich den Zugriff auf die Kapazitätsreservierung unter AWS-Konten priorisieren, die über gemeinsamen Zugriff verfügen?

Nein. Instance-Spots in einer Kapazitätsreservierung sind für jedes Konto verfügbar, das über einen gemeinsamen Zugriff verfügt.

F: Wie kann ich die Availability Zone (AZ) eines CR mit einem anderen Konto teilen, da die AZ-Namenszuordnungen von AWS-Konten unterschiedlich sein können?

Sie können jetzt Availability Zone ID (AZ ID) anstelle des AZ-Namens verwenden. Die Availability Zone-ID ist eine statische Referenz und bietet eine konsistente Möglichkeit, den Speicherort einer Ressource über alle Ihre Konten hinweg zu identifizieren. Auf diese Weise können Sie Ressourcen zentral in einem einzelnen Konto bereitstellen und über mehrere Konten freigeben.

F: Kann ich die Freigabe meiner Kapazitätsreservierung beenden, nachdem ich sie freigegeben habe?

Ja, Sie können die Freigabe einer Reservierung beenden, nachdem Sie sie freigegeben haben. Wenn Sie die Freigabe eines CR für bestimmte Konten oder vollständig beenden, verlieren andere Konten die Möglichkeit, neue Instances in der CR zu starten. Jede Kapazität, die von Instances belegt wird, die von anderen Konten ausgeführt werden, wird für Ihre Nutzung im CR wiederhergestellt (je nach Verfügbarkeit).

F: Wo finde ich weitere Informationen zur Freigabe von Kapazitätsreservierungen?

Weitere Informationen zum Freigeben von Kapazitätsreservierungen finden Sie in der technischen Dokumentation zu Linux oder Windows.

F: Kann ich einen Rabatt für die Nutzung der Kapazitätsreservierung erhalten?

Ja. Savings Plans- oder regionale RI-Rabatte gelten für Kapazitätsreservierungen. AWS Billing wendet den Rabatt automatisch an, wenn die Attribute einer Kapazitätsreservierung mit den Attributen eines Savings Plan oder einer regionalen RI übereinstimmen. Wenn eine Kapazitätsreservierung von einer Instance genutzt wird, wird Ihnen nur die Instance in Rechnung gestellt (mit Savings Plan- oder RI-Rabatten). Rabatte werden vorzugsweise auf die Instance-Nutzung angewendet, bevor ungenutzte Kapazitätsreservierungen abgedeckt werden.

Hinweis: Eine regionale RI ist eine EC2-RI, die auf eine AWS-Region beschränkt ist. Rabatte für zonengebundene RIs (RIs, die auf eine Availability Zone in einer Region beschränkt sind) gelten nicht für On-Demand-Kapazitätsreservierungen, da zonengebundene RIs bereits mit einer Kapazitätsreservierung ausgestattet sind.

Reserved Instances

F: Was ist eine Reserved Instance?

Eine Reserved Instance (RI) ist ein Angebot für EC2, das Ihnen für die Nutzung von EC2 einen erheblichen Preisvorteil bietet, wenn Sie sich auf eine Laufzeit von einem oder drei Jahren festlegen.

F: Worin unterscheiden sich Standard Reserved Instances und Convertible Reserved Instances?

Standard Reserved Instances bieten Ihnen für die Nutzung von EC2 Instances einen erheblichen Preisvorteil, wenn Sie sich für eine bestimmte Instance-Familie festlegen. Bei Convertible Reserved Instances behalten Sie sich die Möglichkeit vor, trotz Rabatt für die EC2-Nutzung die Instance-Konfiguration während der Laufzeit zu ändern. Klicken Sie hier, um weitere Informationen zu Convertible Reserved Instances zu erhalten.

F: Bieten Reserved Instances eine Kapazitätsreservierung?

Ja. Wenn eine Standard oder Convertible Reserved Instance einer bestimmten Availability Zone (AZ) zugeordnet ist, wird für Sie eine Instance-Kapazität entsprechend der Reserved Instance-Konfiguration reserviert. Diese Reserved Instances werden dann auch als “zonengebundene Reserved Instances” bezeichnet. Zonen-RIs geben Ihnen die Gewissheit, dass Ihnen Ihre Instances bei Bedarf jederzeit zur Verfügung stehen.

Sie können auch auf die Kapazitätsreservierung verzichten und Standard oder Convertible RIs erwerben, die auf eine Region beschränkt sind (so genannte „regionale RIs“). Bei regionalen RIs wird der Rabatt automatisch auf die Nutzung für alle Availability Zones und Instance-Größen innerhalb der jeweiligen Region angewendet, wodurch sich für Sie die bestmögliche Nutzung der ermäßigten Tarife für RIs vereinfacht.

F: In welchem Fall sollte ich mich für eine zonengebundene Reserved Instance entscheiden?

Wenn Sie die Vorteile der Kapazitätsreservierung nutzen möchten, sollten Sie eine Reserved Instance in einer bestimmten Availability Zone kaufen.

F: In welchem Fall sollte ich mich für eine regionsgebundene Reserved Instance entscheiden?

Wenn Sie die Vorteile der Kapazitätsreservierung nicht benötigen, empfiehlt sich eine regionale RI. Regionale RIs bieten Flexibilität in Bezug auf AZ und Instancegröße, was eine breitere Anwendbarkeit der ermäßigten Rate der RI ermöglicht.

F: Was ist unter Flexibilität bei der Availability Zone und Instance-Größe zu verstehen?

Flexibilität in puncto Availability Zone und Instance-Größe vereinfacht für Sie die bestmögliche Nutzung der ermäßigten Tarife für Reserved Instances. Durch die Flexibilität in puncto Availability Zone kann der ermäßigte Tarif Ihrer Reserved Instance für jede Availability Zone einer Region genutzt werden. Durch die Flexibilität in puncto Instance-Größe kann der ermäßigte Tarif Ihrer Reserved Instance für jede Instance-Größe innerhalb einer Instance-Familie genutzt werden. Angenommen, Sie verfügen über eine regionsgebundene m5.2xlarge-Reserved Instance für Linux/UNIX mit Standard-Tenancy für die Region USA Ost (Nord-Virginia). Der ermäßigte Tarif dieser Reserved Instance kann in diesem Fall automatisch auf zwei m5.xlarge-Instances in der Region "us-east-1a" oder auf vier m5.large-Instances in der Region "us-east-1b" angewendet werden.

F: Welche Arten von Reserved Instances bieten Flexibilität in puncto Instance-Größe?

Regionsgebundene Reserved Instances für Linux/UNIX mit Standard-Tenancy bieten Flexibilität in puncto Instance-Größe. Nicht verfügbar ist diese Flexibilität für Reserved Instances für andere Plattformen wie Windows, Windows mit SQL Standard, Windows mit SQL Server Enterprise, Windows mit SQL Server Web, RHEL und SLES oder G4-Instances.

F: Muss ich bestimmte Aktionen ausführen, um die Vorteile der Flexibilität in puncto Availability Zone und Instance-Größe nutzen zu können?

Bei regionalen RIs sind keine weiteren Aktionen erforderlich, um die Vorteile der Flexibilität hinsichtlich der Availability Zone und Instance-Größe nutzen zu können.

F: Ich besitze Zonen-RIs. Wie weise ich sie einer Region zu?

Sie können Ihre standardmäßigen Zonen-RIs einer Region zuweisen, indem Sie den Geltungsbereich der RI von einer bestimmten Availability Zone zu einer Region von der EC2-Konsole aus ändern oder die ModifyReservedInstances-API verwenden.

F: Wie kaufe ich eine Reserved Instance?

Um zu starten, können Sie eine RI über die EC2-Management-Konsole oder die AWS-CLI kaufen. Geben Sie dort einfach den Instance-Typ, die Plattform, die Tenancy, die Laufzeit, die Zahlungsoption und die Region oder Availability Zone an.

F: Kann ich eine Reserved Instance auch für eine bereits aktive Instanz kaufen?

Ja. Ab dem Kauf wendet AWS den ermäßigten Tarif einer Reserved Instance auf jede zutreffende Instance-Nutzung an. Weitere Informationen finden Sie auf der Seite Erste Schritte.

F: Kann ich kontrollieren, welche Instances zum ermäßigten Tarif abgerechnet werden?

Nein. AWS ermittelt automatisch, welche Instances nach dem ermäßigten Tarif abgerechnet werden, damit sichergestellt ist, dass Sie stets den geringstmöglichen Betrag zahlen. Weitere Informationen zur Abrechnung und deren Anwendung auf Reserved Instances finden Sie in Preisvorteile und Zahlungsoptionen.

F: Wie funktioniert die Flexibilität bei der Instance-Größe?

EC2 verwendet die weiter unten gezeigte Staffelung, um die verschiedenen Größen innerhalb einer Instance-Familie zu vergleichen. Flexibilität in puncto Instance-Größe bedeutet, dass diese Staffelung zur Anwendung des ermäßigten Tarifs für Reserved Instances auf die normierte Nutzung der Instance-Familie verwendet wird. Verfügen Sie beispielsweise über eine m5.2xlarge-Reserved Instance für eine bestimmte Region, kann der ermäßigte Tarif für die Nutzung von einer m5.2xlarge- oder zwei m5.xlarge-Instances verwendet werden.

Klicken Sie hier, um mehr über die Anwendung der Flexibilität von Reserved Instances in puncto Instance-Größe auf die EC2-Nutzung zu erfahren. Klicken Sie hier, um zu erfahren, wie die Flexibilität von Reserved Instances in puncto Instance-Größe im Kosten- und Nutzungsbericht dargestellt wird.

Instance-Größe

Normalisierungsfaktor

nano

 0,25

micro 0,5
small 1
medium 2
large 4
xlarge 8
2xlarge 16
4xlarge 32
8xlarge 64
9xlarge 72
10xlarge 80
12xlarge 96
16xlarge 128
18xlarge 144
24xlarge 192
32xlarge 256

F: Kann ich meine Reserved Instance während deren Laufzeit ändern?

Ja. Sie können die Availability Zone der Reserved Instance ändern, den Gültigkeitsbereich der Reserved Instance von Availability Zone auf Region (und umgekehrt) umstellen, die Netzwerkplattform von EC2-VPC auf EC2-Classic (und umgekehrt) umstellen und die Instance-Größen innerhalb der gleichen Instance-Familie ändern (letzteres allerdings nur auf der Linux/UNIX-Plattform).

F: Kann ich den Instance-Typ meiner Reserved Instance während deren Laufzeit ändern?

Ja. Ja. Convertible RIs lassen Ihnen die Option, den Instance-Typ, das Betriebssystem, die Tenancy und die Zahlungsoption einer RI während der Laufzeit zu ändern. Weitere Informationen finden Sie im Abschnitt Convertible RI der häufig gestellten Fragen.

F: Welche Zahlungsoptionen gibt es für Reserved Instances?

Beim Kauf einer Reserved Instance haben Sie die Wahl aus drei Zahlungsoptionen. Bei der Option "Komplette Vorauszahlung" zahlen Sie mit einer Vorauszahlung für die gesamte Reserved Instance-Laufzeit. Bei der Option "Teilweise Vorauszahlung" leisten Sie eine niedrige Vorauszahlung. Anschließend wird Ihnen über die gesamte Laufzeit der Reserved Instance ein ermäßigter Stundensatz in Rechnung gestellt. Die Option "Keine Vorauszahlung" erfordert keine Vorauszahlung und bietet einen ermäßigten Stundensatz über die gesamte Laufzeit.

F: Wann werden RIs aktiviert?

Der Rechnungsrabatt und die Kapazitätsreservierung (sofern zutreffend) werden aktiviert, sobald Ihre Zahlung erfolgreich genehmigt wurde. Den Status Ihrer Reserved Instances (Ausstehend | Aktiv | Zurückgezogen) können Sie in der Amazon EC2-Konsole auf der Seite "Reserved Instances" einsehen.

F: Gelten Reserved Instances auch für Spot-Instances oder solche, die über einen dedizierten Host laufen?

Nein. Reserved Instances gelten nicht für Spot-Instances oder solche, die über einen dedizierten Host laufen. Eine Möglichkeit, Kosten für die Nutzung von Dedicated Hosts zu senken, ist der Erwerb von Dedicated Host Reservations.

F: Wie funktionieren RIs mit konsolidierter Fakturierung?

Unser System ermittelt automatisch, welche Instances nach dem ermäßigten Tarif abgerechnet werden, um sicherzustellen, dass dem zahlenden Konto immer der geringstmögliche Betrag angerechnet wird. Wenn Sie über Reserved Instances für eine Availability Zone verfügen, wird die Kapazitätsreservierung nur dem Eignerkonto der Reserved Instance zugeordnet. Allerdings wird der Rabatt automatisch auf die Nutzung durch alle Konten Ihrer konsolidierten Fakturierungsgruppe angewendet.

F: Erhalte ich für den Kauf von Reserved Instances einen Preisnachlass?

Ja. EC2 bietet beim Kauf von Reserved Instances gestaffelte Rabatte. Die Rabatte werden auf Grundlage des Gesamtlistenwerts (d. h. nicht rabattierten Preises) für die aktiven Reserved Instances in der jeweiligen Region berechnet. Ihr Gesamtlistenwert ist die Summe aller erwarteten Zahlungen für eine Reserved Instance während der Laufzeit einschließlich Vorauszahlungen und wiederkehrender Stundensätze. Die Stufen und die entsprechenden Rabatte sind weiter unten aufgeführt.

Staffelungsstufe nach Listenwert

Rabatt für Vorauszahlungen

Rabatt auf Stundensätze

Weniger als 500 000 USD

0 %

0 %

500 000 – 4 000 000 USD

5 %

5 %

4 000 000 – 10 000 000 USD 10 % 10 %
Mehr als 10 000 000 USD Anrufen  

F: Können Sie mir helfen, besser zu verstehen, wie Volumenrabatte auf den Kauf von Reserved Instances angerechnet werden?

Gerne. Nehmen wir an, Sie verfügen derzeit in der Region US-east-1 über aktive Reserved Instances im Wert von 400 000 USD. Wenn Sie nun weitere Reserved Instances im Wert von 150 000 USD für die gleiche Region kaufen, erhalten Sie für die ersten 100 000 USD dieses Kaufs keinen Rabatt. Für die verbleibenden 50 000 USD dieses Kaufs erhalten Sie jedoch einen Preisnachlass von 5 Prozent. Für diesen Teil des Kaufs werden Ihnen also entsprechend der Zahlungsoption nur 47 500 USD für die gesamte Laufzeit berechnet.

Weitere Informationen finden Sie im Abschnitt Understanding Reserved Instance Discount Pricing Tiers (Grundsätzliches zu den Rabattstufen für Reserved Instances) im Amazon EC2-Benutzerhandbuch.

F: Wie berechne ich den Listenwert einer RI?

Es folgt ein Beispiel einer Listenwertberechnung für Reserved Instances mit dreijähriger Laufzeit und teilweiser Vorauszahlung:

Wert des Volumenrabatts bei dreijähriger Laufzeit und teilweiser Vorauszahlung in USA Ost

  Vorauszahlung in USD Wiederkehrender Stundensatz (USD) Wiederkehrender Stundenwert Listenwert
m3.xlarge 1 345 USD 0,060 USD 1 577 USD 2 922 USD
c3.xlarge 1 016 USD 0,045 USD 1 183 USD 2 199 USD

F: Wie werden Volumenrabatte bei Verwendung der konsolidierten Fakturierung berechnet?

AWS verwendet bei der konsolidierten Fakturierung den aggregierten Gesamtlistenpreis Ihrer aktiven Reserved Instances all Ihrer konsolidierten Konten, um zu ermitteln, welche Volumenrabattstufe angesetzt wird. Volumenrabattstufen werden zum Zeitpunkt des Kaufs bestimmt. Daher sollten Sie die konsolidierte Fakturierung vor dem Kauf von Reserved Instances aktivieren, um sicherzustellen, dass Sie von dem höchst möglichen Volumenrabatt profitieren, für den Sie sich mit Ihren konsolidierten Konten qualifizieren.

F: Qualifizieren sich Convertible RIs für Volumenrabatte?

Nein. Allerdings wirkt sich jede von Ihnen erworbene Convertible RI positiv auf den Status Ihrer Volumenrabatt-Stufe aus.

F: Wie kann ich bestimmen, welche Volumenrabatt-Stufe für mich gilt?

Informationen dazu, wie Sie Ihre aktuelle Volumenrabattstufe ermitteln, finden Sie im Abschnitt Understanding Reserved Instance Discount Pricing Tiers (Grundsätzliches über die Rabattstufen für Reserved Instances) im Amazon EC2-Benutzerhandbuch.

F: Ändern sich die Kosten meiner RIs, wenn ich aufgrund meines künftigen Volumens für andere Rabattstufen in Frage komme?

Nein. Volumenrabatte werden beim Kauf berechnet. Die Kosten Ihrer Reserved Instances ändern sich daher nicht, auch wenn Sie sich für weitere Rabattstufen qualifizieren. Bei jedem neuen Kauf wird entsprechend des Volumenrabatts, für den Sie sich zwischenzeitlich qualifiziert haben, der zutreffende Rabatt neu errechnet.

F: Sind beim Kauf von Reserved Instances bestimmte Aktionen erforderlich, um Volumenrabatte zu erhalten?

Nein. Sie erhalten die Volumenrabatte automatisch, wenn Sie die Reserved Instances mit der API "PurchaseReservedInstance" oder über die EC2 Management Console kaufen. Wenn Sie Reserved Instances im Wert von über 10 000 000 USD kaufen, kontaktieren Sie uns bezüglich weiterer über die automatisch gebotenen Rabatte hinausgehender Nachlässe.

Reserved Instance Marketplace

F: Was ist der Reserved Instance Marketplace?

Der Reserved Instance Marketplace ist ein Online-Marktplatz, der AWS-Kunden die Flexibilität bietet, ihre Amazon EC2 Reserved Instances an andere Unternehmen und Organisationen zu verkaufen. Kunden können den Reserved Instance Marketplace durchsuchen und eine größere Auswahl an Laufzeiten und Preisoptionen für Reserved Instances finden, die von anderen AWS-Kunden angeboten werden.

F: Wann kann ich eine Reserved Instance im Reserved Instance Marketplace auflisten?

Sie können unter folgenden Bedingungen eine Reserved Instance auflisten:

  • Sie haben sich als Verkäufer im Reserved Instance Marketplace registriert.
  • Wenn Sie für Ihre Reserved Instance bezahlt haben.
  • Wenn Sie Ihre Reserved Instance länger als 30 Tage besitzen.

F: Wie registriere ich mich als Verkäufer beim Reserved Instance Marketplace?

Wenn Sie sich beim Reserved Instance Marketplace registrieren möchten, können Sie den Registrierungs-Workflow starten, indem Sie eine Reserved Instance über die EC2 Management Console verkaufen oder Ihr Profil im AWS-Portal auf der Seite mit den Kontoeinstellungen einrichten. Unabhängig von der Vorgehensweise müssen Sie die folgenden Schritte ausführen:

  1. Gehen Sie zunächst die Übersicht über den Registrierungsprozess durch.
  2. Melden Sie sich bei Ihrem AWS-Konto an.
  3. Geben Sie das Bankkonto ein, auf das wir Zahlungen überweisen sollen. Wenn Sie "Continue" wählen, verwenden wir dieses Bankkonto als standardmäßige Auszahlungsoption.
  4. Wählen Sie am Bestätigungsschirm "Continue to Console to Start Listing".

Wenn Ihr Umsatz mit Reserved Instances 20 000 USD übersteigt oder Sie mehr als 50 Reserved Instances verkaufen möchten, müssen Sie vor dem Listen weiterer Reserved Instances steuerrechtliche Angaben bereitstellen. Wählen Sie "Continue with Tax Interview". Im Verlauf dieses Interviews zu Steuern werden Sie im TIMS-Workflow aufgefordert, Ihren Firmennamen, Kontaktnamen, Ihre Adresse und Steueridentifikationsnummer einzugeben.

Wenn Sie außerdem vorhaben, Reserved Instances im Wert von mehr als 50 000 USD pro Jahr zu verkaufen, müssen Sie auch eine Erweiterung des Limits beantragen.

F: Wie erfahre ich, wann ich mit dem Verkaufen im Reserved Instance Marketplace beginnen kann?

Sie können im Reserved Instance Marketplace mit dem Verkaufen beginnen, nachdem Sie in der Registrierungsphase ein Bankkonto hinzugefügt haben. Nach Abschluss der Aktivierung erhalten Sie eine Bestätigungs-E-Mail. Wichtig ist der Hinweis, dass Sie Auszahlungen erst dann erhalten können, nachdem wir eine Bestätigung Ihrer Bank empfangen haben, was je nach Bank bis zu zwei Wochen dauern kann.

F: Wie liste ich eine Reserved Instance zum Verkauf?

Führen Sie zum Listen einer Reserved Instance einfach die folgenden Schritte in der Amazon EC2 Console aus:

  1. Wählen Sie die Reserved Instances aus, die Sie verkaufen möchten und wählen Sie "Sell Reserved Instance". Wenn Sie den Registrierungsprozess nicht abgeschlossen haben, werden Sie aufgefordert, diesen Prozess zu durchlaufen.
  2. Bestimmen Sie für jeden Reserved Instance-Typ die Anzahl der Instances, die Sie verkaufen möchten, und die Höhe der Einmalgebühr. Je nach verbleibender Zeit können Sie den Einmalpreis auf unterschiedliche Beträge festlegen, sodass Sie den Einmalpreis nicht ständig anpassen müssen, wenn sich Ihre Reserved Instance nicht schnell verkauft. Sie müssen standardmäßig den aktuellen Preis festlegen, wobei wir den Einmalpreis jeden Monat um denselben Schritt automatisch verringern.
  3. Nachdem Sie Ihre Listung konfiguriert haben, wird ein abschließender Bestätigungsbildschirm angezeigt. Wählen Sie „Sell Reserved Instance“.

F: Welche Reserved Instances kann ich zum Verkauf auflisten?

Sie können jede Reserved Instance auflisten, die mindestens 30 Tage aktiv war und für die wir eine Zahlung erhalten haben. Normalerweise heißt das, dass Sie Ihre Reservierungen auflisten können, sobald sie sich im Status Active (aktiv) befinden. Wenn Sie ein Rechnungskunde sind, kann Ihre Reserved Instance bis zum Zahlungseingang bei AWS den Status Active haben. In diesem Fall wird Ihre Reserved Instance erst aufgelistet, nachdem wir Ihre Zahlung erhalten haben.

F: Wie werden aufgelistete Reserved Instances den Käufern angezeigt?

Reserved Instances (von Drittanbietern und von AWS angebotene), die im Reserved Instance Marketplace aufgelistet wurden, können in der Amazon EC2 Console im Bereich "Reserved Instances" angezeigt werden. Sie können auch die DescribeReservedInstancesListings-API verwenden.

Angezeigte Reserved Instances werden je nach Typ, verbleibender Dauer, Standardpreis und Stundenpreis gruppiert. Durch dieses Verfahren ist es für Käufer einfacher, die Reserved Instances zu finden, die sie kaufen möchten.

F: Wie viel meiner Reserved Instance-Laufzeit kann ich auflisten?

Sie können eine Reserved Instance für die verbleibende Laufzeit abgerundet auf den nächsten Monat verkaufen. Wenn beispielsweise die verbleibende Laufzeit noch 9 Monate und 13 Tage beträgt, können Sie die Reserved Instance mit einer Laufzeit von 9 Monaten zum Verkauf anbieten.

F: Kann ich meine Reserved Instance entfernen, nachdem ich sie zum Verkauf aufgelistet habe?

Ja, Sie können eine Reserved Instance-Listung jederzeit entfernen, bis ein Verkauf anhängig ist (was bedeutet, dass ein Käufer Ihre Reserved Instance gekauft hat und die Zahlungsbestätigung aussteht).

F: Welchen Preisrahmen kann ich für die Reserved Instances festlegen, die ich auflisten möchte?

Im Reserved Instance Marketplace können Sie einen Standardpreis festlegen, den Sie zu akzeptieren gewillt sind. Sie können nicht den Stundenpreis festlegen (der im Vergleich zur ursprünglichen Reserved Instance unverändert bleibt), und Sie erhalten keine Beträge aus Zahlungen, die den Stundenpreisen zugeordnet sind.

F: Kann ich meine Reservierung weiter nutzen, während sie im Reserved Instance Marketplace aufgelistet ist?

Ja, bis zu ihrem Verkauf kommen Sie weiter in den Genuss der Kapazität und des Preisvorteils Ihrer Reserved Instance. Nach dem Verkauf werden sämtliche ausgeführten Instances, die gemäß dem rabattierten Tarif abgerechnet wurden, gemäß dem On-Demand-Tarif abgerechnet, es sei denn, Sie kaufen eine neue Reservierung oder Sie kündigen die Instance.

F: Kann ich eine Reserved Instance weiterverkaufen, die ich im Reserved Instance Marketplace gekauft habe?

Ja, Sie können im Reserved Instances Marketplace gekaufte Reserved Instances wie jede andere Reserved Instance verkaufen.

F: Gelten Einschränkungen für den Verkauf von Reserved Instances?

Ja, Sie benötigen ein US-Bankkonto, um Reserved Instances im Reserved Instance Marketplace verkaufen zu können. In Kürze werden auch nicht US-amerikanische Bankkonten unterstützt. Darüber hinaus dürfen Sie Reserved Instances nicht in der Region US GovCloud verkaufen.

F: Kann ich Reserved Instances verkaufen, die ich über die öffentlichen Volumenpreisstufen gekauft habe?

Nein, dies ist derzeit noch nicht möglich.

F: Wird eine Gebühr für den Verkauf von Reserved Instances im Reserved Instance Marketplace erhoben?

Ja, bei jeder Reserved Instance, die auf dem Reserved Instance Marketplace verkauft wird, berechnet AWS eine Bearbeitungsgebühr von 12 % des Gesamtvorabpreises.

F: Kann AWS Untermengen meiner aufgelisteten Reserved Instances verkaufen?

Ja, AWS kann potenziell eine Untermenge der Reserved Instances verkaufen, die Sie aufgelistet haben. Wenn Sie beispielsweise 100 Reserved Instances auflisten, kann es möglicherweise einen Käufer geben, der Interesse am Kauf von 50 Reserved Instances hat. Wir verkaufen in diesem Fall diese 50 Instances und listen Ihre 50 Reserved Instances so lange weiter auf, bis Sie sie nicht mehr länger auflisten möchten.

F: Wie bezahlen Käufer für die Reserved Instances, die sie gekauft haben?

Zahlungen für erfolgte Reserved Instance-Verkäufe erfolgen per ACH-Überweisung auf ein US-amerikanisches Bankkonto.

F: Wann erhalte ich mein Geld?

Sobald AWS Zahlungen von dem Kunden erhalten hat, der Ihre Reservierung gekauft hat, erfolgt eine Überweisung auf das Bankkonto, das Sie bei der Registrierung im Reserved Instance Marketplace angegeben haben.

Wir senden Ihnen anschließend eine E-Mail-Benachrichtigung, dass wir die Zahlungen überwiesen haben. Normalerweise wird das Geld innerhalb von 3–5 Tagen nach dem Verkauf Ihrer Reserved Instance auf Ihrem Konto erscheinen.

F: Erhalte ich, wenn ich meine Reserved Instance im Reserved Instance Marketplace verkaufe, eine Rückvergütung für den Premium Support, der mir in Rechnung gestellt wurde?

Nein, Sie erhalten keine anteilige Rückvergütung für den vorab gezahlten Anteil an der AWS Premium Support-Gebühr.

F: Werde ich über Reserved Instance Marketplace-Aktivitäten benachrichtigt?

Ja, Sie erhalten eine E-Mail pro Tag mit Einzelheiten zu Ihren Reserved Instance Marketplace-Aktivitäten, wenn Sie Reserved Instance-Listungen erstellen oder stornieren, Käufer Ihre Listungen erwerben oder AWS Zahlungen auf Ihr Bankkonto überweist.

F: Welche Informationen werden zwischen Käufer und Verkäufer ausgetauscht, um die Berechnung der Transaktionssteuer zu vereinfachen?

Im Auszahlungsbericht werden dem Verkäufer Informationen zu Ort, (US-Bundesstaat), Postleitzahl und Land/Region des Käufers genannt. Anhand dieser Informationen können Verkäufer etwaige Transaktionssteuern berechnen (z. B. Umsatzsteuer, Mehrwertsteuer usw.), die abzuführen sind. Der Name der juristischen Person des Verkäufers wird auch auf der Einkaufsrechnung angegeben.

F: Gibt es Einschränkungen hinsichtlich der Kunden beim Kauf von Reserved Instances anderer Anbieter?

Ja, Sie dürfen weder Ihre eigenen Reserved Instances noch die Ihrer verknüpften Konten (über die konsolidierte Fakturierung) kaufen.

F: Muss ich für Premium Support zahlen, wenn ich Reserved Instances im Reserved Instance Marketplace kaufe?

Ja, als Premium Support-Kunde wird Ihnen Premium Support in Rechnung gestellt, wenn Sie Reserved Instance über den Reserved Instance Marketplace erwerben.

Savings Plans

F: Was sind Savings Plans?

Bei Savings Plans handelt es sich um ein flexibles Preismodell, das im Gegenzug für die Verpflichtung zu einer gleichbleibenden Nutzungsmenge (gemessen in USD/Stunde) über eine Laufzeit von 1 oder 3 Jahren niedrige Preise für die EC2-, Lambda- und Fargate-Nutzung bietet. Wenn Sie sich für Savings Plans registrieren, wird Ihnen der ermäßigte Savings Plans-Preis für Ihre Nutzung bis zur Festmenge in Rechnung gestellt. Wenn Sie sich beispielsweise auf 10 USD für die Nutzung von Rechenleistung pro Stunde festlegen, erhalten Sie die Savings-Plans-Preise für diese Nutzung bis zu 10 USD. Jede darüber hinausgehende Nutzung wird mit On-Demand-Sätzen berechnet.

F: Welche Arten von Savings Plans bietet AWS an?

AWS bietet zwei Arten von Savings Plans an:

  1. Compute Savings Plans bieten die größte Flexibilität und tragen dazu bei, die Kosten um bis zu 66 % zu senken. Diese Pläne gelten für die Nutzung von EC2-Instances, unabhängig von Instance-Familie, Größe, AZ, Region, Betriebssystem oder Tenancy. Sie gelten auch für die AWS-Fargate- und Lambda-Nutzung. Bei Compute Savings Plans können Sie beispielsweise jederzeit von C4- auf M5-Instances wechseln, eine Workload von EU (Irland) nach EU (London) verlagern oder eine Workload von EC2 auf Fargate verschieben. Dabei zahlen Sie automatisch weiterhin den Savings Plans-Preis.
  2. EC2 Instance Savings Plans bieten die niedrigsten Preise. Sie ermöglichen Einsparungen von bis zu 72 % im Gegenzug für die Verpflichtung zur Nutzung einzelner Instance-Familien in einer Region (z. B. M5-Nutzung in Nord-Virginia). Dadurch sinken automatisch Ihre Kosten für die ausgewählte Instance-Familie in der betreffenden Region, unabhängig von AZ, Größe, Betriebssystem oder Mandant. Mit EC2 Instance Savings Plans erhalten Sie die Flexibilität, Ihre Nutzung zwischen den Instances innerhalb einer Familie in der Region zu wechseln. So können Sie beispielsweise von c5.xlarge mit Windows zu c5.2xlarge mit Linux wechseln und automatisch von den Savings-Plans-Preisen profitieren.

F: Wie schneiden Savings Plans im Vergleich zu EC2-RIs ab?

Savings Plans bieten ähnlich wie EC2-RIs erhebliche Ersparnisse gegenüber der On-Demand-Option. Damit sinken automatisch die Kosten für die genutzte Rechenleistung in allen AWS-Regionen, sogar wenn sich die Nutzung ändert. Damit erhalten Sie die Flexibilität, die für Ihre Bedürfnisse am besten geeignete Rechenoption zu nutzen und weiterhin Geld zu sparen, wobei Sie keinen Austausch und keine Änderungen vornehmen müssen.

Compute Savings Plans, die (genau wie Convertible RIs) Einsparungen von bis zu 66 % ermöglichen, reduzieren automatisch Ihre Kosten für die Nutzung von EC2-Instances, unabhängig von Region, Instance-Familie, Größe, Betriebssystem und Tenancy. Das gilt sogar für AWS Fargate und Lambda. Mit EC2 Instance Savings Plans, die (genau wie Standard RIs) Einsparungen von bis zu 72 % ermöglichen, sparen Sie automatisch Geld bei der Nutzung von Instances innerhalb einer bestimmten EC2-Instance-Familie in einer ausgewählten Region (z. B. M5 in Nord-Virginia), unabhängig von Größe, Betriebssystem oder Tenancy.

F: Stellen Savings Plans Kapazitätsreservierungen für EC2-Instances bereit?

Nein, bei Savings Plans wird keine Kapazitätsreservierung bereitgestellt. Allerdings können Sie mit On Demand Capacity Reservations Kapazitäten reservieren und mit Savings Plans dafür niedrigere Preise zahlen.

F: Was sind die ersten Schritte bei Savings Plans?

Sie können mit Savings Plans über AWS Cost Explorer in der Management-Konsole oder über API/CLI beginnen. Mithilfe der Empfehlungen im AWS Cost Explorer können Sie sich mühelos für einen Savings Plan entscheiden, um so die größten Einsparungen zu erzielen. Die empfohlene stündliche Festmenge basiert auf Ihrer historischen On-Demand-Nutzung und Ihrer Wahl von Plantyp, Laufzeit und Zahlungsoption. Sobald Sie sich für einen Savings Plan registriert haben, wird Ihre genutzte Rechenleistung automatisch zu den ermäßigten Savings-Plan-Preisen berechnet. Jede darüber hinausgehende Nutzung wird zu den normalen On-Demand-Tarifen berechnet.

F: Kann ich weiterhin EC2-RIs erwerben?

Ja. Sie können weiterhin RIs kaufen, um die Kompatibilität mit Ihren bestehenden Kostenmanagement-Prozessen zu wahren. Ihre RIs werden mit Savings Plans zusammenarbeiten, um Ihre Gesamtrechnung zu senken. Bei Ablauf Ihrer RIs sollten Sie sich jedoch für Savings Plans registrieren, da sie die gleichen Einsparungen wie RIs ermöglichen, aber zusätzliche Flexibilität bieten.

Spot Instances

F: Was ist eine Spot-Instance?

Spot-Instances sind freie EC2-Kapazitäten, mit denen Sie bis zu 90 % gegenüber den On-Demand-Preisen sparen können, die von AWS mit einer 2-minütigen Benachrichtigung unterbrochen werden können. Spot nutzt die gleichen EC2-Instances, die auch On-Demand- und Reserved Instances zugrunde liegen, und eignet sich besonders für fehlertolerante und flexible Arbeitslasten. Spot-Instances sind eine zusätzliche Option für den Abruf von Rechenkapazitäten und können in Kombination mit On-Demand- und Reserved Instances verwendet werden.

F: Wie unterscheidet sich eine Spot-Instance von einer On-Demand-Instance oder Reserved Instance?

Aktive Spot-Instances unterscheiden sich nicht von On-Demand- oder Reserved Instances. In erster Linie unterscheiden sich Spot-Instances durch ihren Preis: Spot-Instances bieten gegenüber On-Demand-Instances einen erheblichen Preisvorteil. Dafür behält sich Amazon EC2 das Recht vor, Spot-Instances bei Lastspitzen zwei Minuten nach einer entsprechenden Benachrichtigung abzuziehen. Außerdem passen sich die Spot-Preise graduell an eine langfristige Bereitstellung und entsprechend der Nachfrage nach EC2-Ersatzkapazitäten an.

Weitere Informationen zu Spot-Instances erhalten Sie hier.

F: Wie erwerbe und starte ich eine Spot-Instance?

Spot-Instances können mit denselben Tools gestartet werden, die Sie heute zum Starten von Instances verwenden, einschließlich AWS-Management-Konsole, Auto-Scaling-Gruppen, Run Instances und der Spot-Flotte. Darüber hinaus unterstützen auch viele AWS-Services das Launchen von Spot-Instances wie EMR, ECS, Datapipeline, Cloudformation und Batch.

Zum Starten einer Spot-Instance müssen Sie lediglich eine Launch-Vorlage und die Anzahl der angeforderten Instances auswählen.

Weitere Informationen zum Anfordern von Spot-Instances finden Sie hier.

F: Wie viele Spot-Instances kann ich anfordern?

Die Anzahl der Spot-Instances, die Sie anfordern können, ist lediglich durch Ihr Spot-Limit für die jeweilige Region begrenzt. Neue AWS-Kunden starten möglicherweise mit einem niedrigeren Limit. Weitere Informationen zu den Spot-Instance-Limits finden Sie im Amazon EC2-Benutzerhandbuch.

Falls Sie ein höheres Limit benötigen, füllen Sie das Antragsformular für Amazon-EC2-Instances aus und geben Sie den Anwendungsfall an. Ihre Instance-Erhöhung wird dann geprüft. Die Anhebung der Limits ist von der Region abhängig, für die sie angefordert wurde.

F: Was kostet mich eine Spot-Instance?

Sie zahlen den Spot-Preis, der zu Beginn jeder Instance-Stunde für die aktive Instance gültig ist. Falls sich der Spot-Preis nach dem Start einer Instance ändert, gilt der neue Tarif für die Nutzung der Instance erst ab der nächsten vollen Stunde.

F: Was ist ein Spot-Kapazitäten-Pool?

Ein Spot-Kapazitäten-Pool ist ein Satz ungenutzter EC2-Instances mit demselben Instance-Typ, Betriebssystem sowie derselben Availability Zone und Netzwerkplattform (EC2-Classic oder EC2-VPC). Der Preis eines Spot-Kapazitäten-Pools richtet sich nach Angebot und Nachfrage.

F: Wie kann ich Spot-Instances optimal nutzen?

Zur Maximierung der Ihnen verfügbaren Spot-Kapazität empfehlen wir Ihnen die Verwendung mehrerer Spot-Kapazitäten-Pools. Durch EC2 Auto Scaling, EC2-Flotten oder Spot-Instance-Flotten ermittelt EC2 automatisch die kostengünstigste Kapazität innerhalb der Ihnen verfügbaren Spot-Kapazitäten-Pools. Weitere Informationen finden Sie im Abschnitt Spot Best Practices (Bewährte Methoden für die Nutzung von Spot-Instances).

F: Wie kann ich den Status meiner Spot-Instance-Anforderung bestimmen?

Den Status Ihrer Spot-Instance-Anforderung ersehen Sie aus dem Statuscode und der Meldung zu Ihrer Spot-Instance-Anforderung. Den Status einer Spot-Instance-Anforderung können Sie über die Spot-Instance-Seite der EC2-Konsole in der AWS-Managementkonsole, der API und der CLI abrufen. Weitere Informationen finden Sie im Amazon-EC2-Entwicklerhandbuch.

F: Sind Spot-Instances für alle Instance-Familien und -Größen sowie in allen Regionen verfügbar?

Spot-Instances sind in allen öffentlichen AWS-Regionen verfügbar. Spot ist für nahezu alle EC2-Instance-Familien und -Größen verfügbar, auch für die neueste Generation der Computing-optimierten Instances, für FPGA-Instance-Typen sowie für die Grafikbeschleunigung. Eine vollständige Liste der in jeder Region unterstützten Instance-Typen finden Sie hier.

F: Welche Betriebssysteme sind als Spot-Instances verfügbar?

Linux/UNIX, Windows Server und Red Hat Enterprise Linux (RHEL) sind verfügbar. Windows Server mit SQL Server ist derzeit nicht verfügbar.

F: Kann ich eine Spot-Instance mit einem gebührenpflichtigen AMI für die Software eines anderen Anbieters (wie Softwarepakete von IBM) verwenden?

Nein, derzeit nicht.

F: Kann ich meine laufenden Spot Instances anhalten?

Ja, Sie können Ihre laufenden Spot Instances anhalten, wenn sie nicht benötigt werden und Sie können die angehaltenen Instances später verwenden, anstatt die Instances zu beenden oder die Spot-Anfrage abzubrechen. Das Anhalten steht für dauerhafte Spot-Anfragen zur Verfügung.

F: Wie kann ich die Spot-Instances anhalten?

Sie können die Spot Instances anhalten, indem Sie die StopInstances-API aufrufen und die Instance-IDs der Spot Instances liefern, ähnlich wie bei dem Anhalten Ihrer On-Demand-Instances. Auch können Sie dies über die AWS-Managementkonsole tun, indem Sie Ihre Instance auswählen und dann auf Actions > Instance State > Stop klicken.

F: Wie kann ich die angehaltenen Spot Instances starten?

Sie können die angehaltenen Spot Instances starten, indem Sie die StartInstances-API aufrufen und die Instance-IDs der Spot-Instances liefern, ähnlich wie bei dem Starten Ihrer On-Demand-Instances. Auch können Sie dies über die AWS-Managementkonsole tun, indem Sie Ihre Instance auswählen und dann auf Actions > Instance State > Start klicken.

Hinweis: Die Spot Instances starten nur, wenn innerhalb Ihres Maximalpreises noch Spotkapazität vorhanden ist. Spot berechnet die erhältliche Kapazität jedes Mal, wenn Sie die angehaltenen Spot Instances starten.

F: Wie weiß ich, ob ich meine Spot Instance angehalten habe oder ob Sie unterbrochen wurde?

Sie können herausfinden, ob die Spot Instance angehalten wurde oder unterbrochen wurde, indem Sie sich den Spot Request Statuscode anschauen. Dies ist als Spot Request Status (Spot-Anforderungs-Status) auf der Seite Spot Requests (Spot-Anforderungen) in der AWS-Managementkonsole oder in der DescribeSpotInstanceRequests-API Antwort als „status-code“-Feld einsehbar.

Wenn der Spot Request-Statuscode “instance-stopped-by-user” anzeigt, haben Sie Ihre Spot Instance angehalten.

F: Welche Gebühren fallen beim Anhalten oder einer Unterbrechung meiner Spot-Instance an?

Wenn Ihre Spot-Instance von Amazon EC2 in der ersten Instance-Stunde beendet oder gestoppt wird, wird Ihnen die Nutzung nicht in Rechnung gestellt. Wenn Sie die Spot-Instance jedoch selbst anhalten oder beenden, erfolgt die Berechnung zur nächsten Sekunde. Wird die Spot-Instance in einer der nachfolgenden Stunden durch Amazon EC2 beendet oder gestoppt, erfolgt die Gebührenberechnung sekundengenau. Wenn Sie unter Windows oder Red Hat Enterprise Linux (RHEL) arbeiten und die Spot-Instance selbst anhalten oder beenden, wird eine volle Stunde in Rechnung gestellt.

F: Wann wird meine Spot-Instance unterbrochen?

Innerhalb der letzten drei Monate wurden 92 % aller Spot-Instance-Trennungen manuell vom Kunden veranlasst, weil die Arbeit, für welche die Instance erforderlich war, abgeschlossen wurde.

Sollte Amazon EC2 eine von Ihnen genutzte Spot-Instance tatsächlich zurückziehen, kann dies zwei Gründe haben: erstens ein hoher Kapazitätsbedarf seitens Amazon EC2 (z. B. bei größerer Nachfrage nach On-Demand- oder Reserved Instances). Alternativ können Sie auch einen „maximalen Spot-Preis“ festlegen. Steigt der Spot-Preis über diesen Wert, wird Ihre Instance mit einer zweiminütigen Benachrichtigung zurückgefordert. Dieser Parameter legt den maximalen Preis fest, den Sie für eine Spot-Instance-Stunde bereit sind zu zahlen. Standardmäßig ist dieser Preis auf den On-Demand-Preis eingestellt. Wie zuvor zahlen Sie aber nicht Ihren Höchstpreis, sondern den während der Ausführung Ihrer Instance gültigen Spot-Marktpreis, der sekundengenau abgerechnet wird.

F: Was passiert mit meiner Spot-Instance bei einer Unterbrechung?

Sie können wählen, ob Ihre Spot-Instances bei einer Unterbrechung beendet, gestoppt oder in den Ruhezustand versetzt werden. Die Optionen "Stop" (Stoppen) und "Hibernate" (Ruhezustand) sind für persistente Spot-Instance-Anforderungen und Spot-Instance-Flotten verfügbar, wenn die Option “Maintain” (Verwalten) aktiviert ist. Standardmäßig werden Ihre Instances beendet.

Weitere Informationen zur Vorgehensweise bei Unterbrechungen erhalten Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Was ist bei Spot-Instance-Unterbrechungen der Unterschied zwischen den Optionen „Stop“ (Stoppen) und „Hibernate“ (Ruhezustand)?

Wenn eine Instance in den Ruhezustand versetzt wird, bleiben die Daten im RAM bestehen. Beim Anhalten hingegen wird die Instance heruntergefahren und der RAM wird gelöscht.

In beiden Fällen jedoch bleiben die Daten aus Ihrem EBS-Root-Volume und allen angehängten EBS-Datenvolumes erhalten. Auch Ihre private und Ihre Elastic IP-Adresse (sofern zutreffend) ändert sich nicht. Das Verhalten auf Netzwerkebene entspricht dem des EC2-Workflows „Stop-Start“. Die Optionen "Stopp" und "Ruhezustand" sind nur für Amazon EBS-gestützte Instances verfügbar. Der lokale Instance-Speicher bleibt nicht erhalten.

F: Was geschieht, wenn mein EBS-Stammvolume nicht groß genug für den Arbeitsspeicherstatus (RAM) von Hibernate ist?

Der in Ihrem EBS-Root-Volume verfügbare Speicher sollte groß genug zum Speichern der Daten aus dem Arbeitsspeicher sein. Ist im EBS-Stamm-Volume nicht ausreichend Speicherplatz verfügbar, schlägt der Ruhezustand fehl und die Instance wird nicht in den Ruhezustand versetzt, sondern heruntergefahren. Stellen Sie sicher, dass Ihr EBS-Root-Volume über ausreichend Speicherplatz für die Daten aus dem Arbeitsspeicher verfügt, bevor Sie die Option zum Ruhezustand auswählen.

F: Was ist der Vorteil, wenn meine Spot-Instances bei einer Unterbrechung in den Ruhezustand versetzt werden?

Wenn Sie sich für die Option "Hibernate" entscheiden, Ihre Spot-Instances bei einer Unterbrechung also in den Ruhezustand versetzen, werden die Spot-Instances bei Unterbrechungen lediglich ausgesetzt und danach wieder aufgenommen. Ihre Arbeitslasten können dann genau an der Stelle fortfahren, an der sie zuvor unterbrochen wurden. Die Option "Hibernate" empfiehlt sich insbesondere dann, wenn der Instance-Status Ihrer Instance(s) während des Aussetzungszyklus erhalten bleiben muss, d. h., wenn Ihre unter Spot ausgeführten Anwendungen von im RAM gespeicherten Kontext-, Geschäfts- oder Sitzungsdaten abhängig sind.

F: Wie aktiviere ich „Hibernation“ für meine Spot-Instances?

Informationen hierzu finden Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Fallen für meine Spot-Instance im Ruhezustand Gebühren an?

Für den Ruhezustand fallen neben den EBS-Speicherkosten und eventuell Gebühren für weitere von Ihnen genutzte EC2-Ressourcen keine zusätzlichen Gebühren an. Solange sich Ihre Instance im Ruhezustand befindet, zahlen Sie keine Nutzungsgebühren für diese Instance.

F: Kann ich eine in den Ruhezustand versetzte Instance wiederaufnehmen?

Nein. Eine in den Ruhezustand versetzte Instance können Sie nicht wiederaufnehmen. Der "Hibernate-Resume"-Zyklus wird von Amazon EC2 gesteuert. Eine von Spot in den Ruhezustand versetzte Instance wird von Amazon EC2 wieder aufgenommen, sobald die hierfür erforderliche Kapazität wieder zur Verfügung steht. 

F: Welche Instances und Betriebssysteme unterstützen den Ruhezustand?

Der Ruhezustand wird derzeit von Amazon Linux-AMIs sowie den Betriebssystemen Ubuntu und Microsoft Windows auf allen Instance-Typen der C3-, C4-, C5-, M4-, M5-, R3- und R4-Familien unterstützt, deren Arbeitsspeicher (RAM) kleiner als 100 GiB ist.

Eine Liste der unterstützten Betriebssystemversionen finden Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Wonach richten sich die Gebühren, wenn sich der Spot-Preis ändert, während meine Instance aktiv ist? 

Sie zahlen für die gesamte Instance-Stunde, sekundengenau abgerechnet, den zu Beginn der Instance-Stunde festgelegten Tarif.

F: Wo kann ich meinen Verwendungsverlauf für Spot-Instances und den Betrag einsehen, der mir in Rechnung gestellt wurde?

Über die AWS-Managementkonsole erhalten Sie einen detaillierten Abrechnungsbericht, in dem auch die Start- und Endzeiten aller Spot-Instances angezeigt werden. Sie können den Rechnungsbericht über die API mit früheren Spot-Instance-Preisen vergleichen, um zu überprüfen, ob die richtigen Spot-Instance-Preise in Rechnung gestellt wurden.

F: Werden Spot-Blöcke (Fixed Duration Spot-Instances) jemals unterbrochen?

Spot-Blöcke sind so konzipiert, dass sie unabhängig vom Spot-Marktpreis nicht unterbrochen werden und während der von Ihnen ausgewählten Dauer kontinuierlich laufen. In seltenen Fällen können Spot-Blöcke aufgrund von AWS-Kapazitätsanforderungen unterbrochen werden. In diesen Fällen senden wir zwei Minuten, bevor wir Ihre Instance beenden, eine Warnung (Nachricht über die Beendigung der Instance) und die betroffenen Instances werden nicht verrechnet.

F: Was ist eine Spot-Flotte?

Mit einer Spot-Instance-Flotte können Sie automatisch mehrere Spot-Instances verwalten und jeweils die Spot-Instance mit dem niedrigsten Preis pro Kapazitätseinheit für Ihren Cluster bzw. Ihre Anwendung anfordern, beispielsweise für einen Batch-Verarbeitungsauftrag, einen Hadoop-Arbeitsablauf oder einen HPC-Grid-Verarbeitungsauftrag. Dabei können Sie die für Ihre Anwendung erforderlichen Instance-Typen auswählen. Sie legen die Zielkapazität auf Basis Ihrer Anforderungen fest (in Einheiten wie Instances, vCPUs, Arbeitsspeicher, Speicher oder Netzwerkdurchsatz), wobei Sie diese Kapazität auch nach dem Start der Instance-Flotte noch ändern können. Mithilfe von Spot-Flotten können Sie die Zielkapazität einführen und beibehalten und zudem automatisch Ressourcen anfordern lassen, um diejenigen zu ersetzen, bei denen Störungen vorliegen oder die manuell beendet wurden. Weitere Informationen über Spot-Flotten.

F: Fallen für Spot-Flottenanforderungen zusätzliche Gebühren an?

Nein. Für Spot-Flottenanforderungen fallen keine zusätzlichen Gebühren an.

F: F: Welche Limits gelten für eine Spot-Instance-Flottenanforderung?

Informationen zu den für eine Spot-Instance-Flottenanforderung geltenden Limits finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Spot Fleet Limits.

F: F: Was geschieht, wenn meine Spot-Flottenanforderung versucht, Spot-Instances zu launchen, mein regionales Limit für Spot-Instance-Anforderungen dadurch jedoch überschritten wird?

Wenn Ihre Spot-Flottenanforderung Ihr regionales Limit für Spot-Instance-Anforderungen überschreitet, schlagen einzelne Spot-Instance-Anforderungen fehl. Der Anforderungsstatus lautet in diesem Fall "Spot request limit exceeded" (Limit für Spot-Instance-Anforderungen überschritten). Der Verlauf Ihrer Spot-Instance-Flottenanforderung zeigt alle Limit-Fehler für Spot-Instance-Anforderungen an, die die Flottenanforderung erhalten hat. Informationen zur Beschreibung des Verlaufs Ihrer Spot-Instance-Flottenanforderung finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Monitoring Your Spot Fleet (Überwachung Ihrer Spot-Instance-Flotte).

F: F: Werden Spot-Instance-Flottenanforderungen garantiert erfüllt?

Nein. Über Spot-Instance-Flottenanforderungen können Sie mehrere Spot-Instance-Anforderungen gleichzeitig abgeben. Für sie gelten die gleiche Verfügbarkeit und die gleichen Preise wie für einzelne Spot-Instance-Anforderungen. Sind beispielsweise für die in Ihrer Spot-Instance-Flottenanforderung genannten Instance-Typen keine Ressourcen verfügbar, kann Ihrer Anforderung eventuell gar nicht oder nur teilweise entsprochen werden. Wir empfehlen Ihnen, alle möglichen Instance-Typen und Verfügbarkeitszonen, die für Ihre Workloads geeignet sind, in die Spot-Flotte aufzunehmen.

F: Kann ich eine Spot-Instance-Flottenanforderung für mehrere Availability Zones übermitteln?

Ja. Informationen zur Übermittlung von Spot-Instance-Flottenanforderung für mehrere Availability Zones finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Spot Fleet Examples (Beispiele für Spot-Instance-Flotten).

F: Kann ich eine Spot-Instance-Flottenanforderung für mehrere Regionen übermitteln?

Nein. Spot-Instance-Flottenanforderungen für mehrere Regionen werden nicht unterstützt.

F: Wie weist die Spot-Instance-Flotte den verschiedenen in den Startspezifikationen angegebenen Spot-Instance-Pools Ressourcen zu?

Die RequestSpotFleet-API bietet drei Zuweisungsstrategien: kapazitätsoptimiert, niedrigster Preis und diversifiziert. Die kapazitätsoptimierte Zuweisungsstrategie versucht, Kapazitätsmetriken zu analysieren und so Spot Instances aus den zugänglichsten Spot-Instance-Pools bereitzustellen. Diese Strategie ist eine gute Wahl für Workloads, bei denen die Kosten für Unterbrechungen hoch sind, wie etwa Big Data und Analysen, Bild- und Medien-Wiedergabe, Machine Learning und High Performance Computing.

Mit der Strategie des niedrigsten Preises können Sie die Ressourcen Ihrer Spot-Instance-Flotten in Instance-Pools bereitstellen, die zum Anforderungszeitpunkt den niedrigsten Preis pro Kapazitätseinheit bieten. Mit der diversifizierten Strategie können Sie die Ressourcen Ihrer Spot-Instance-Flotten in mehreren Spot-Instance-Pools bereitstellen. Damit sind Sie in der Lage, die Zielkapazität Ihrer Flotte beizubehalten und die Verfügbarkeit Ihrer Anwendung zu verbessern, wenn die Spot-Kapazität schwankt.

Durch das Ausführen der Ressourcen Ihrer Anwendung in verschiedenen Spot-Instance-Pools können Sie mit der Zeit auch die Betriebskosten Ihrer Flotte weiter reduzieren. Weitere Informationen finden Sie im Amazon EC2-Benutzerhandbuch.

F: Kann ich eine Spot-Instance-Flottenanforderung durch Tags kennzeichnen?

In Ihrer Spot-Instance-Flottenanforderung können Sie den Start von Spot-Instances mit Tags anfordern. Die Flotte selbst kann nicht durch Tags kennzeichnet werden.

F: Wo kann ich nachsehen, zu welcher Spot-Instance-Flotte meine Spot-Instances gehören?

Sie können die Ihrer Spot-Instance-Flotte zugeordneten Spot-Instances in der Beschreibung Ihrer Flottenanforderung identifizieren. Flottenanforderungen bleiben nach Beenden aller entsprechenden Spot-Instances noch 48 Stunden lang verfügbar. Informationen zur Beschreibung Ihrer Spot-Instance-Flottenanforderung finden Sie im Amazon EC2-Benutzerhandbuch.

F: Kann ich eine Spot-Flottenanforderung ändern?

Ja. Sie können die Zielkapazität Ihrer Spot-Instance-Flottenanforderung ändern. Möglicherweise müssen Sie die Anfrage abbrechen und eine neue einreichen, um die Änderung anderer Konfigurationsparameter zu beantragen.

F: Kann ich für jeden Instance-Typ, den ich verwenden möchte, ein anderes AMI festlegen?

Ja. Geben Sie dazu einfach das gewünschte AMI in jeder Startspezifikation an, die Sie mit Ihrer Spot-Instance-Flottenanforderung bereitstellen.

F: Kann ich eine Spot-Instance-Flotte mit Elastic Load Balancing, Auto Scaling oder Elastic MapReduce verwenden?

Sie können Auto-Scaling-Funktionen mit Spot-Flotte nutzen, wie z. B. Zielverfolgung, Zustandsprüfungen, CloudWatch-Metriken usw., und Sie können Instances an Ihre Elastic Load Balancer (sowohl Classic als auch Application Load Balancer) anfügen. Elastic MapReduce enthält eine Funktion mit der Bezeichnung „Instance-Flotten“, die ähnliche Möglichkeiten bietet wie Spot-Flotte.

F: Beendet eine Spot-Flottenanforderung Spot-Instances, wenn sie nicht mehr in den kostengünstigsten oder kapazitätsoptimierten Spot-Pools ausgeführt werden, und startet sie diese in den Pools erneut?

Nein. Spot-Flottenanforderungen beenden und starten Instances während der Ausführung nicht automatisch neu. Wenn Sie jedoch eine Spot-Instance beenden, tauscht die Spot-Flotte je nach Ihrer Zuweisungsstrategie die bisherige Instance durch eine neue Spot-Instance aus dem zum jeweiligen Zeitpunkt günstigsten Pool oder dem kapazitätsoptimierten Pool aus.

F: Bieten Spot-Instance-Flotten eine Stopp- bzw. Ruhezustandsfunktion?

Ja. "Stop-Start" (Stoppen/Starten) und "Hibernate-Resume" (In den Ruhezustand versetzen/Wiederaufnehmen) werden von Spot-Instance-Flotten unterstützt, wenn die Flottenoption "Maintain" (Verwalten) aktiviert ist. 

Plattform

Amazon Time Sync Service

F: Wie verwende ich diesen Service?

Der Service stellt einen NTP-Endpunkt an einer Link-Local-IP-Adresse (169.254.169.123) bereit, die aus jeder in einer VPC ausgeführten Instance zugänglich ist. Anweisungen zur Konfiguration von NTP-Clients sind für Linux und Windows verfügbar.

F: Worin bestehen die wichtigsten Vorteile dieses Service?

Für viele Anwendungen und Services ist eine konsistente und hoch genaue Referenzzeitquelle unverzichtbar. Der Amazon Time Sync-Service bietet eine Zeitreferenz, auf die ohne Änderungen an der VPC-Konfiguration aus jeder Instance sicher zugegriffen werden kann. Der Service setzt auf der bewährten Netzwerkinfrastruktur von Amazon auf und greift auf redundante Referenzzeitquellen zu, um Genauigkeit und Verfügbarkeit jederzeit sicherzustellen.

F: Welche Instance-Typen unterstützen diesen Service?

Alle Instances, die in einer VPC ausgeführt werden, können diesen Service nutzen.

Availability Zones

F: Wie isoliert sind Availability Zones voneinander?

Jede Availability Zone wird auf ihrer eigenen physisch getrennten, unabhängigen Infrastruktur ausgeführt und ist auf hohe Zuverlässigkeit ausgelegt. Übliche Fehlerquellen wie Generatoren und Kühlanlagen werden nicht von mehreren Availability Zones geteilt. Die physische Trennung sorgt außerdem dafür, dass sogar bei äußerst seltenen Katastrophen wie Bränden, Stürmen oder Überflutungen nur eine Availability Zone betroffen ist.

F: Wird Amazon EC2 in mehreren AWS-Regionen ausgeführt?

Ja. Weitere Informationen zu unserer Produkt- und Serviceverfügbarkeit nach Region finden Sie unter Regionale Produkte und Services.

F: Wie kann ich sicherstellen, dass ich mich in derselben Availability Zone wie ein anderer Entwickler befinde?

Derzeit besteht keine Möglichkeit, Starts mehreren AWS-Entwicklerkonten in derselben Availability Zone zu koordinieren. Der Name einer Availability Zone (z. B. us-east-1a) in zwei AWS-Kundenkonten kann sich auf zwei verschiedene physische Availability Zones beziehen.

F: Wenn ich Daten unter Nutzung öffentlicher IP-Adressen zwischen Availability Zones übertrage, werden dann die Gebühren für die regionale Datenübertragung zweimal erhoben (einmal, da die Übertragung zonenübergreifend ist, und ein zweites Mal, weil ich öffentliche IP-Adressen verwende)?

Nein. Regionale Datentransfertarife gelten, wenn zumindest einer der folgenden Punkte zutrifft, aber selbst wenn beides zutrifft, werden Sie nur einmal für einen bestimmten Fall belastet:

  • Die andere Instance befindet sich unabhängig vom verwendeten Adressentyp in einer anderen Availability Zone.
  • Es werden ungeachtet der Availability Zone, in der sich die andere Instance befindet, öffentliche IP-Adressen oder Elastic IP-Adressen verwendet.

Cluster-Instances

F: Was ist eine Cluster-Compute-Instance?

Cluster-Compute-Instances kombinieren hohe Rechenressourcen mit Hochleistungsnetzwerken für HPC-Anwendungen und andere anspruchsvolle netzwerkgebundene Anwendungen. Cluster-Compute-Instances bieten ähnliche Funktionalität zu anderen Amazon-EC2-Instances, wurden jedoch speziell für Hochleistungs-Netzwerkanwendungen entwickelt.

Mit der Cluster-Platzierungsgruppenfunktion von Amazon EC2 können Benutzer Cluster-Compute-Instances in Clustern gruppieren. Dadurch erhalten Anwendungen die Netzwerkleistung mit geringer Latenz, die für die bei viele HPC-Anwendungen typische eng gekoppelte Knoten-zu-Knoten-Kommunikation erforderlich ist. Cluster-Compute-Instances bieten außerdem einen deutlich höheren Netzwerk-Durchsatz – sowohl innerhalb der Amazon EC2-Umgebung als auch im Internet. Aus diesem Grund sind diese Instances auch ideal für Kundenanwendungen geeignet, die netzwerkintensive Prozesse ausführen müssen.

Erfahren Sie mehr darüber, diesen Instance-Typ für HPC-Anwendungen zu verwenden.

F: Von welcher Netzwerkleistung kann ich ausgehen, wenn ich Instances in einer Cluster-Placement-Gruppe starte?

Die von einer EC2-Instance in einer Cluster-Platzierungsgruppe nutzbare Bandbreite richtet sich nach dem Instance-Typ und dessen Netzwerkleistung. Der Datenverkehr zwischen Instances innerhalb derselben Region kann 5 Gbit/s für einfache Datenströme und bis zu 25 Gbit/s für mehrere Datenströme nutzen. Ausgewählte EC2-Instances können beim Start in einer Platzierungsgruppe bis zu 10 Gbps für einfache Datenströme nutzen.

F: Was ist eine Cluster-GPU-Instance?

Cluster GPU Instances stellen universale Grafikverarbeitungseinheiten (GPUs) mit einer verhältnismäßig hohen CPU- und einer erhöhten Netzwerkleistung für Anwendungen bereit, denen die weitgehend parallele Verarbeitung zugute kommt, die von den GPUs mit Hilfe der Programmiermodelle CUDA und OpenCL beschleunigt werden kann. Häufige Anwendungen sind Modellierung und Simulation, Rendering und Media-Processing.

Mit den Cluster-GPU-Instances steht Kunden mit HPC-Workloads neben Cluster-Compute-Instances für Anwendungen, die von der parallelen Rechenleistung von GPUs profitieren, eine zusätzliche Option zur weiteren Anpassung ihrer leistungsstarken Cluster in der Cloud zur Verfügung.

Cluster-GPU-Instances verwenden dieselbe Cluster-Platzierungsgruppen-Funktionalität wie Cluster-Compute-Instances, um Instances in Clustern zu gruppieren. Dadurch können Anwendungen die Netzwerkleistung mit niedriger Latenz und hoher Bandbreite nutzen, die für die bei viele HPC-Anwendungen typische eng gekoppelte Knoten-zu-Knoten-Kommunikation erforderlich ist.

Weitere Informationen zu HPC in AWS.

F: Was ist eine High Memory-Cluster-Instance?

High Memory Cluster-Instances bieten Kunden neben einer hohen Netzwerkleistung sehr viel CPU- und Arbeitsspeicherkapazität pro Instance. Diese Instance-Typen sind ideal für arbeitsspeicherintensive Workloads, einschließlich speicherinterner Analytiksysteme, Diagrammanalysen und vieler wissenschaftlicher und technischer Anwendungsbereiche.

Cluster-Compute-Instances mit hohem Arbeitsspeicher verwenden dieselbe Cluster-Platzierungsgruppen-Funktionalität wie Cluster-Compute-Instances, um Instances in Clustern zu gruppieren. Dadurch können Anwendungen die Netzwerkleistung mit niedriger Latenz und hoher Bandbreite nutzen, die für die bei viele HPC- und andere netzwerkintensive Anwendungen typische eng gekoppelte Knoten-zu-Knoten-Kommunikation erforderlich ist.

F: Unterscheidet sich die Verwendung von Cluster Compute-Instances und Cluster-GPU-Instances von anderen Amazon EC2-Instance-Typen?

Die Verwendung von Cluster Compute- und Cluster GPU-Instances unterscheidet sich in zwei Punkten von anderen Amazon EC2-Instance-Typen.

Erstens: Cluster Compute Instances und Cluster GPUs verwenden auf Hardware Virtual Machine (HVM) basierende Virtualisierung und verarbeiten ausschließlich Amazon Machine Images (AMIs), basierend auf HVM-Virtualisierung. Auf Paravirtual Machine (PVM) basierende AMIs, die mit anderen Amazon EC2-Instance-Typen verwendet werden, können nicht mit Cluster Compute Instances oder Cluster GPU Instances verwendet werden.

Zweitens: Um die Vorteile der geringen Wartezeiten und vollständigen Zweiteilung der Bandbreite zwischen den Instances voll auszunutzen, müssen Cluster Compute- und Cluster GPU-Instances in einer Cluster Placement-Gruppe über die Amazon EC2-API oder die AWS Management Console gestartet werden.

F: Was ist eine Cluster Placement-Gruppe?

Eine Cluster-Placement-Gruppe ist eine logische Entität, die die Erstellung eines Clusters aus Instances ermöglicht, indem Instances als Teil einer Gruppe gestartet werden. Das Cluster aus Instances bietet dann Konnektivität mit niedrigen Latenzzeiten zwischen Instances in der Gruppe. Cluster-Placement-Gruppen werden über Amazon EC2 API oder die AWS Management Console erstellt.

F: Sind alle Funktionen von Amazon EC2 für Cluster Compute-Instances und Cluster-GPU-Instances verfügbar?

Amazon DevPay steht derzeit nicht für Cluster Compute- oder Cluster GPU-Instances zur Verfügung.

F: Gibt es Beschränkungen hinsichtlich der Anzahl der Cluster Compute- oder Cluster-GPU-Instances, die ich verwenden kann, und/oder der Größe des Clusters, den ich durch den Start von Cluster Compute- oder Cluster-GPU-Instances in einer Cluster Placement-Gruppe erstellen kann?

Für Cluster Compute-Instances gilt keine Begrenzung. Im Falle von Cluster GPU-Instances können Sie selbst zwei Instances starten. Wenn Sie weitere Kapazität benötigen, füllen Sie das Antragsformular für Amazon-EC2-Instances aus. (Wählen Sie den geeigneten primären Instance-Typ.)

F: Kann die Wahrscheinlichkeit, die vollständige Anzahl an Instances zu erhalten, die ich für mein Cluster über eine Cluster Placement-Gruppe anfrage, optimiert werden?

Wir empfehlen, die Mindestanzahl an Instances, die für die Teilnahme am Cluster erforderlich sind, auf einmal zu starten. Zur Erstellung sehr großer Cluster sollten Sie mehrere Placement-Gruppen starten und kombinieren (z. B. zwei Placement-Gruppen mit 128 Instances), sodass ein größerer Cluster mit 256 Instances entsteht.

F: Können Cluster-GPU- und Cluster Compute-Instances in einer einzigen Cluster Placement-Gruppe gestartet werden?

Es können zwar verschiedene Cluster-Instance-Typen in einer einzelnen Placement-Gruppe gestartet werden, doch werden derzeit nur homogene Placement-Gruppen unterstützt.

F: Wenn eine Instance in einer Cluster Placement-Gruppe gestoppt und anschließend neu gestartet wird, bleibt diese dann in der Cluster Placement-Gruppe bestehen?

Ja. Eine gestoppte Instance wird als Teil der Cluster-Placement-Gruppe gestartet, derer Sie während des Stopps angehörte. Falls die Kapazität für einen Start innerhalb dessen Cluster-Placement-Gruppe nicht ausreicht, schlägt dieser fehl.

Informationen zur Hardware

F: Welche CPU-Optionen sind für EC2-Instances verfügbar?

EC2-Instances bieten eine Vielzahl von CPU-Optionen, um Kunden dabei zu helfen, Leistungs- und Kostenanforderungen auszugleichen.  Je nach Instance-Typ bietet EC2 eine Auswahl an CPUs, darunter AWS Graviton/Graviton2-Prozessoren (Arm), AMD-Prozessoren (x86) und Intel-Prozessoren (x86).

F: Auf welcher Art von Hardware wird mein Anwendungs-Stack ausgeführt?

Unter Amazon EC2-Instance-Typen finden Sie eine Liste der je nach Region verfügbaren EC2-Instances.

F: Wie führt EC2 die Wartung durch?

AWS führt regelmäßig routinemäßige Hardware-, Software-, Stromversorgungs- und Netzwerkwartungen mit minimalen Unterbrechungen für alle EC2-Instance-Typen durch. Dies wird durch eine Kombination von Tools und Methoden über die gesamte AWS-Global-Infrastruktur erreicht, wie Live-Update und Live-Migration sowie redundante und gleichzeitig wartbare Systeme. Nicht-intrusive Wartungstechnologien, wie Live-Update und Live-Migration, müssen nicht über Instances angehalten oder neugestartet werden. Kunden müssen vor, während und nach einer Live-Migration oder einem Live-Update nichts tun. Diese Technologien tragen zu einer besseren Betriebszeit der Anwendung bei und verringern Ihren Betriebsaufwand. Amazon EC2 verwendet Live-Update, um Software schnell und mit möglichst geringen Auswirkungen auf Kunden-Instances an Server bereitzustellen. Die Live-Update-Funktion gewährleistet, dass die Workloads der Kunden mit aktueller Software mit Sicherheits-Patches, neuen Instance-Funktionen und Leistungsverbesserungen auf den Servern ausgeführt werden. Amazon EC2 verwendet die Live-Migration, wenn laufende Instances aufgrund von Hardware-Wartung oder zum Optimieren der Instance-Platzierung oder zur dynamischen Verwaltung von CPI-Ressourcen von einem Server zu einem anderen verschoben werden müssen. Amazon EC2 hat den Umfang und die Abdeckung nicht-intrusiver Wartungstechnologien im Laufe der Jahre ausgeweitet, sodass geplante Wartungsereignisse eine Fallback-Option sind und nicht die gängige Form der routinemäßigen Wartung.

F: Wie wähle ich den richtigen Instance-Typ aus?

Amazon-EC2-Instances sind in 5 Familien eingeteilt: für allgemeine Zwecke, für Datenverarbeitung, Arbeitsspeicher und Speicherung optimiert sowie Accelerated Computing Instances. Allzweck-Instances haben ein Verhältnis von Arbeitsspeicher zu CPU, das sich gut für die meisten allgemeinen Anwendungen eignet und verfügen über eine konstante Leistung oder eine Burst-fähige Leistung. Für Rechenleistung optimierte Instances verfügen im Verhältnis über mehr CPU-Ressourcen als Arbeitsspeicher (RAM) und eignen sich gut für rechenintensive Anwendungen mit Skalierungsbedarf sowie HPC (High Performance Computing)-Workloads. Arbeitsspeicheroptimierte Instances verfügen über große Arbeitsspeicherkapazitäten für arbeitsspeicherintensive Anwendungen wie Datenbank- und Arbeitsspeicher-Caching-Anwendungen. Accelerated-Computing-Instances nutzen Hardware-Beschleuniger oder Co-Prozessoren, um Funktionen wie Gleitkommakalkulationen, Grafikverarbeitung oder Datenmusterabgleiche effizienter durchzuführen, als dies mit Software möglich wäre, die auf CPUs ausgeführt wird. Speicheroptimierte Instances bieten I/O-Kapazität mit niedriger Latenz. Sie verwenden SSD-basierte lokale Instance-Speicher für I/O-intensive Anwendungen und dichte HDD-Speicher-Instances, welche für eine hohe lokale Speicherungsdichte und sequentielle I/O-Leistung für Data Warehousing, Hadoop und sonstige datenintensive Anwendungen sorgen. Bei der Auswahl des Instance-Typs sollten Sie die Merkmale Ihrer Anwendung hinsichtlich Ressourcenauslastung berücksichtigen (d. h. CPU, Arbeitsspeicher, Speicher) und die optimale Instance-Familie und -Größe entsprechend auswählen.

F: Was ist eine „EC2-Recheneinheit“ und warum wurde sie eingeführt?

Der Wechsel zu einem nutzungsgeprägten Rechenmodell ändert die Art und Weise, wie Entwickler über CPU-Ressourcen denken. Anstatt einen bestimmten Prozessor für mehrere Monate oder Jahre zu erwerben oder zu leasen, wird jetzt Kapazität stundenweise gemietet. Da Amazon EC2 auf allgemein verfügbarer Hardware beruht, kann es im Laufe der Zeit mehrere verschiedene Arten von physischer Hardware geben, die den EC2-Instances zu Grunde liegt. Unser Ziel besteht darin, unabhängig von der tatsächlich zu Grunde liegenden Hardware eine gleichbleibende Menge an CPU-Kapazität zu bieten.

Amazon EC2 setzt verschiedene Maßnahmen ein, um jede Instance mit einer gleichbleibenden und vorhersehbaren Menge an CPU-Kapazität zu versorgen. Um den Entwicklern den Vergleich zwischen den CPU-Kapazitäten der verschiedenen Instance-Typen zu erleichtern, haben wir eine Amazon EC2 Compute Unit (Recheneinheit) definiert. Die einer bestimmten Instance zugewiesene CPU-Menge wird in diesen EC2 Compute Units ausgedrückt. Um die Konsistenz und Vorhersehbarkeit der Leistung einer EC2 Compute Unit zu verwalten, werden verschiedene Benchmarks und Tests eingesetzt. Die EC2 Compute Unit (ECU) bietet einen relativen Maßstab der Rechenleistung einer Amazon EC2-Instance beim Rechnen mit ganzen Zahlen. Mit der Zeit werden wir möglicherweise weitere Kennzahlen zur Definition einer EC2-Recheneinheit hinzufügen oder ersetzen, sofern Metriken gefunden werden, die Ihnen die Rechenkapazität besser verdeutlichen.

F: Wie stellt EC2 langfristig eine konsistente Leistung der Instance-Typen sicher?

AWS führt jährliche eine Leistungsbewertung für die Linux- und Windows-Rechenleistung auf EC2-Instance-Typen durch. Die Bewertungsergebnisse, ein Testpaket, das Kunden verwenden können, um unabhängige Tests auszuführen, sowie ein Leitfaden mit erwartbaren Leistungsabweichungen können auf Basis einer unterzeichneten Stillschweigensvereinbarung (NDA) für M-, C-, R- und T- sowie z1d-Instances bei dem für Sie zuständigen Vertriebsmitarbeiter angefordert werden.

F: Wie sind Amazon EC2-Instance-Typen regional verfügbar?

Eine Liste aller Instances und regionalen Verfügbarkeiten finden Sie unter Amazon EC2 – Preise.

Micro-Instances

F: Wie viel Rechenleistung bieten Micro-Instances?

Micro Instances bieten geringe konsistente CPU-Ressourcen und ermöglichen die Erweiterung Ihrer CPU-Kapazität auf bis zu 2 ECUs, sofern zusätzliche Cycles verfügbar sind. Sie eignen sich hervorragend für Anwendungen mit geringerem Durchsatz und Websites, die signifikante Computing-Zyklen periodisch durchführen, jedoch geringe CPU-Ressourcen für Hintergrundprozesse, Daemons etc. benötigen. Erfahren Sie mehr über die Verwendung dieses Instance-Typs.

F: Wie viel Rechenleistung bietet eine Micro-Instance im Vergleich zu einer Standard Small Instance?

Im Dauerzustand erreichen Micro-Instances einen Bruchteil der Rechenressourcen, die Small Instances erreichen können. Falls Ihre Anwendung also im Dauerzustand laufen muss oder verarbeitungsintensiv ist, empfehlen wir den Einsatz von Small Instances (oder größer, je nach Bedarf). Micro-Instances können jedoch periodisch um bis zu 2 ECUs erweitert werden (für kurze Zeitperioden). Dies ist die doppelte Anzahl an ECUs verglichen mit einer Standard Small Instance. Falls Sie also über eine Anwendung oder Website mit relativ geringem Durchsatz verfügen und gelegentlich Bedarf an Kapazitätsspitzen haben, empfehlen wir die Verwendung von Micro-Instances.

F: Wie gebe ich an, dass eine Anwendung mehr CPU-Ressourcen benötigt, als eine Micro-Instance bereitstellt?

Die CloudWatch-Metrik für die CPU-Auslastung zeigt in der von CloudWatch überprüften Minute 100 % an, wenn die Instance so weit ausgelastet ist, dass die verfügbaren CPU-Ressourcen eingesetzt werden müssen. Wenn CloudWatch eine 100%ige Auslastung der CPU meldet, sollten Sie eine Skalierung – manuell oder über Auto Scaling – vertikal auf einen größeren Instance-Typ oder horizontal auf mehrere Micro-Instances erwägen.

F: Sind alle Funktionen von Amazon EC2 für Micro-Instances verfügbar?

Derzeit steht Amazon DevPay für Micro-Instances nicht zur Verfügung.

Nitro-Hypervisor

F: Was ist der Nitro-Hypervisor?

Bei der Einführung der C5-Instances wurde für Amazon EC2 auch ein neuer Hypervisor vorgestellt: Der Nitro-Hypervisor. Als Komponente des Nitro-Systems stellt der Nitro-Hypervisor in erster Linie CPU- und Arbeitsspeicherisolierung für EC2-Instances bereit. VPC-Netzwerk- und EBS-Speicherressourcen werden auf dedizierten Hardwarekomponenten (Nitro-Karten) bereitgestellt, die Teil aller EC2-Instance-Familien der aktuellen Generation sind. Der Nitro-Hypervisor basiert auf Linux Kernel-basierter Virtual Machine (KVM)-Technologie, enthält jedoch keine allgemeinen Betriebssystemkomponenten.

F: Welche Vorteile bietet der Nitro-Hypervisor für die Kunden?

Der Nitro-Hypervisor bietet eine konsistente Leistung und mehr Computing- und Speicherressourcen für EC2-virtualisierte-Instances, da Softwarekomponenten des Host-Systems entfernt wurden. Somit kann AWS größere Instances (wie c5.18xlarge) anbieten, mit denen den Kunden praktisch alle Serverressourcen zur Verfügung stehen. Bisher eliminierten C3- und C4-Instances jeweils Softwarekomponenten, indem VPC- und EBS-Funktionen auf von AWS entworfene und gebaute Hardware verschoben wurden. Dank dieser Hardware ist der Nitro-Hypervisor sehr klein, auch weil für ihn keine Datenverarbeitungstasks für Netzwerke und Speicher anfallen.

F: Wird der Nitro-Hypervisor irgendwann für alle EC2-Instances verwendet?

Auf lange Sicht ist geplant, den Nitro-Hypervisor für alle Instance-Typen einzusetzen, in näherer Zukunft wird bei einigen neuen Instance-Typen je nach Plattformanforderungen jedoch Xen verwendet.

F: Wird AWS weiterhin in seinen Xen-basierten Hypervisor investieren?

Ja. Während AWS seine globale Cloud-Infrastruktur erweitert, wird EC2 seinen Xen-basierten Hypervisor verstärkt nutzen. Xen bleibt in absehbarer Zeit eine Kernkomponente der EC2-Instances. AWS ist seit Anbeginn der Eingliederung von Xen in das Linux Foundation Collaborative Project Gründungsmitglied des Xen-Projekts und bleibt aktives Mitglied seines Beirats. Da AWS seine globale Cloud-Infrastruktur erweitert, wächst auch der Xen-basierte Hypervisor von EC2 weiter. Daher wird die Investition von EC2 in Xen weiter wachsen und nicht schrumpfen.

F: Wie viele EBS-Volumes und Elastic Network-Schnittstellen (ENIs) können an Instances angefügt werden, die auf dem Nitro-Hypervisor ausgeführt werden?

Auf dem Nitro-Hypervisor ausgeführte Instances unterstützen maximal 27 zusätzliche PCI-Geräte für EBS-Volumes und VPC-ENIs. Jedes EBS-Volume oder jede VPC-ENI verwendet ein PCI-Gerät. Wenn Sie beispielsweise drei zusätzliche Netzwerkschnittstellen an eine Instance anhängen, die auf dem Nitro-Hypervisor ausgeführt wird, können an diese Instance bis zu 24 EBS-Volumes angehängt werden.

F: Ändern sich durch den Nitro-Hypervisor die für die Interaktion mit EC2-Instances verwendeten APIs?

Nein, alle der Öffentlichkeit zugänglichen APIs für die Interaktion mit EC2-Instances, die auf dem Nitro-Hypervisor ausgeführt werden, bleiben unverändert. Beispielsweise wird im Feld „Hypervisor“ der DescribeInstances-Antwort weiterhin für alle EC2-Instances „xen“ ausgegeben, selbst wenn diese unter dem Nitro-Hypervisor ausgeführt werden. Dieses Feld wird bei einer zukünftigen EC2-API möglicherweise entfernt.

F: F: Welche AMIs werden auf Instances unterstützt, die auf dem Nitro-Hypervisor ausgeführt werden?

EBS-gestützte HVM-AMIs, die ENA-Networking und das Booten von einem NVMe-basierten Speicher unterstützen, können in Kombination mit Instances verwendet werden, die unter dem Nitro-Hypervisor ausgeführt werden. Der aktuelle Amazon Linux AMI und von Amazon bereitgestellte Windows AMIs werden ebenso unterstützt wie der aktuelle AMI von Ubuntu, Debian, Red Hat Enterprise Linux, SUSE Enterprise Linux, CentOS und FreeBSD.

F: Werde ich Unterschiede zwischen Instances mit Xen-Hypervisor und Instances mit Nitro-Hypervisor feststellen?

Ja. Beispielsweise starten Instances, die unter dem Nitro-Hypervisor ausgeführt werden, über eine NVMe-Schnittstelle von EBS-Volumes. Auf Xen ausgeführte Instances starten von einen emulierten IDE-Laufwerk und wechseln zu den paravirtualisierten Xen-Blockgerätetreibern.

Betriebssysteme können erkennen, ob sie auf einem Hypervisor ausgeführt werden. Einige Softwareprodukte gehen davon aus, dass EC2-Instances auf dem Xen-Hypervisor ausgeführt werden, und verlassen sich darauf. Betriebssysteme erkennen, dass sie auf KVM ausgeführt werden, wenn eine Instance den Nitro-Hypervisor verwendet. Es sollte daher der Prozess zur Erkennung von EC2-Instances verwendet werden, um EC2-Instances zu erkennen, die auf beiden Hypervisors ausgeführt werden können.

Alle EC2-Funktionen, wie Instance Metadata Service, arbeiten auf Instances, die unter Xen und Nitro ausgeführt werden können, identisch. Beim Großteil der Anwendungen zeigen sich in der Funktion sowohl unter Xen als auch unter dem Nitro-Hypervisor keine Unterschiede, sofern das Betriebssystem ENA-Netzwerk und NVMe-Speicher ausreichend unterstützt.

F: Wie sind EC2-API-Anforderungen zum Starten und Beenden von Instances im Nitro-Hypervisor implementiert?

Der Nitro-Hypervisor signalisiert dem Betriebssystem dieser Instance, dass es sauber mittels branchenüblicher ACPI-Methoden herunterfahren soll. Für Linux-Instances muss dafür acpid installiert sein und ordnungsgemäß funktionieren. Wenn acpid innerhalb der Instance nicht ordnungsgemäß funktioniert, verzögert sich die Beendigung um mehrere Minuten und wird schließlich als Kaltstart bzw. Abschalten des Systems durchgeführt.

F: Wie verhalten sich EBS-Volumes, wenn darauf über NVMe-Schnittstellen zugegriffen wird?

Es gibt einige wichtige Unterschiede im Verhalten von Betriebssystem-NVMe-Treibern im Vergleich zu paravirtualisierten (PV) Xen-Blocktreibern.

1. Die NVMe-Gerätenamen, die von Linux-basierten Betriebssystemen verwendet werden, unterscheiden sich von den Parametern für die Anhanganforderungen für EBS-Volumes und Zuordnungseinträge für Blockgeräte, wie /dev/xvda und /dev/xvdf. NVMe-Geräte werden vom Betriebssystem mit /dev/nvme0n1, /dev/nvme1n1 usw. nummeriert. Die NVMe-Gerätenamen stellen keine festen Zuordnungen zu Volumes dar. Daher sollten beim Konfigurieren der automatischen Bereitstellung von Dateisystemen oder von anderen Startaktivitäten, andere Methoden zum Einsatz kommen, wie UUIDs oder Labels. Wenn auf die EBS-Volumes über die NVMe-Schnittstelle zugegriffen wird, wird die EBS-Volume-ID über die Controller-Seriennummer bereitgestellt und der in EC2 API-Anforderungen angegebene Gerätename wird über eine NVMe-Herstellererweiterung für den Befehl zur Controller-Erkennung bereitgestellt. Dadurch kann ein Dienstprogrammskript abwärtskompatible symbolische Verknüpfungen erstellen. Weitere Informationen finden Sie in der EC2-Dokumentation zur Gerätebenennung und NVMe-basierten EBS-Volumes.

2. Die in den meisten Betriebssystemen enthaltenen NVMe-Treiber implementieren standardmäßig eine E/A-Zeitüberschreitung. Falls ein E/A-Vorgang nicht in einer für die Implementierung spezifischen Zeit abgeschlossen wird, in der Regel zehn Sekunden, versucht der Treiber, den E/A-Vorgang abzubrechen, zu wiederholen oder einen Fehler an die Komponente zurückzugeben, die den E/A-Vorgang ausgestellt hat. Auf der Xen PV-Blockgerätschnittstelle wird das Zeitlimit für den E/A-Vorgang nicht überschritten, was dazu führen kann, das Prozesse nicht beendet werden können, wenn sie auf E/A-Vorgänge warten. Das Linux NVMe-Treiberverhalten kann geändert werden, indem Sie einen höheren Wert für den nvme.io-Timeout-Kernel-Modulparameter festlegen.

3. Die NVMe-Schnittstelle kann über einen E/A-Vorgang wesentlich größere Datenmengen übertragen und in einigen Fällen mehr ausstehende E/A-Anforderungen als die Xen PV-Blockschnittelle unterstützen. Dies kann zu einer höheren E/A-Latenz führen, wenn große E/As oder eine große Anzahl an E/A-Anforderungen an Volumes ausgegeben werden, die zur Unterstützung von Durchsatzverarbeitungslasten wie EBS Throughput Optimized HDD (st1)- und Cold HDD (sc1)-Volumes konzipiert wurden. Diese E/A-Latenz ist für durchsatzoptimierte Volumes in diesen Szenarios normal, kann jedoch zu E/A-Zeitüberschreitungen in NVMe-Treibern führen. Die E/A-Zeitüberschreitung kann in Linux-Treibern angepasst werden, indem für den Kernel-Modul-Parameter nvme_core.io_timeout ein höherer Wert eingegeben wird.

CPU-Optimierung

F: Was genau ist die CPU-Optimierung?

Durch die Optimierung von CPUs können Sie Ihre EC2-Instances gleich an zwei Fronten besser kontrollieren. Erstens können Sie beim Start neuer Instances eine benutzerdefinierte Anzahl an vCPUs angeben und so vCPU-basierte Lizenzkosten einsparen. Zweitens können Sie die Intel Hyper-Threading-Technologie (Intel HT-Technologie) für Workloads deaktivieren, die mit Einzel-Threaded-CPUs eine gute Leistung erbringen, wie z. B. bestimmte HPC-Anwendungen.

F: Was spricht für die Verwendung der Funktion der CPU-Optimierung?

Diese Funktion empfiehlt sich in folgenden Fällen:

  • Sie führen EC2-Workloads aus, die nicht an die Rechenleistung gebunden sind, aber vCPU-basierte Lizenzkosten verursachen. Wenn Sie Instances mit einer benutzerdefinierten Anzahl an vCPUs starten, können Sie möglicherweise Ihre Lizenzausgaben optimieren.
  • Sie führen Workloads aus, die von einer Deaktivierung des Hyper-Threadings in EC2-Instances profitieren.

F: Wie werden die CPU-optimierten Instances in Rechnung gestellt?

Die CPU-optimierten Instances werden genau wie entsprechende vollumfängliche Instances in Rechnung gestellt.

F: Wie wirkt sich die Verwendung der CPU-Optimierung in EC2 auf meine Anwendungsleistung aus?

Die Änderung Ihrer Anwendungsleistung durch die CPU-Optimierung hängt vor allem von den Arbeitslasten ab, die Sie in EC2 ausführen. Wir empfehlen Ihnen, mit der CPU-Optimierung einen Leistungsvergleich für Ihre Anwendungsleistung anzustellen, um für Ihre Anwendung die passende Anzahl an vCPUs und das optimale Hyper-Threading-Verhalten zu finden.

F: Kann ich die CPU-Optimierung für EC2 Bare Metal-Instance-Typen (z. B. i3.metal) verwenden?

Nein. Sie können die CPU-Optimierung mit rein virtualisierten EC2-Instances verwenden.

F: Wie kann ich mit der Nutzung von Optimize CPUs für EC2-Instances beginnen?

Sie finden die Dokumentation zur CPU-Optimierung hier. Dort können Sie sich über die ersten Schritte mit der CPU-Optimierung sowie über unterstützte Instance-Typen informieren.

Workloads

Amazon EC2 mit IBM

F: Wie wird meine Ausführung von IBM-Software in Amazon EC2 berechnet?

Sie zahlen nur für das, was Sie auch tatsächlich nutzen. Dabei fallen keine Mindestgebühren an. Die Preise richten sich nach genutzter Instance-Stunde für jeden Instance-Typ. Angefangene Instance-Stunden werden als volle Stunden in Rechnung gestellt. Die Datenübertragung für Amazon EC2 mit IBM wird getrennt von Amazon EC2 in Rechnung gestellt und eingestuft. Es fallen keine Datenübertragungsgebühren zwischen zwei Amazon Web Services innerhalb derselben Region an (z. B. zwischen Amazon EC2 in USA West und einem anderen AWS-Service in USA West). Datenübertragungen zwischen AWS-Services in verschiedenen Regionen werden auf beiden Seiten der Übertragung als Internetdatenübertragungen berechnet.

Informationen zur Preisgestaltung von Amazon EC2 mit IBM finden Sie auf der Detailseite Amazon EC2 mit IBM.

F: Kann ich Amazon DevPay mit Amazon EC2 mit IBM verwenden?

Nein, Sie können derzeit DevPay nicht zur Bündelung von Produkten auf Amazon EC2 mit IBM verwenden.

In Amazon EC2 ausgeführtes Microsoft Windows und Software anderer Anbieter

F: Kann ich meine vorhandene Windows-Server-Lizenz mit EC2 verwenden?

Ja, das ist möglich. Nachdem Sie Ihre eigenen Computerabbilder für Windows Server mit dem ImportImage-Tool importiert haben, können Sie aus diesen Abbildern Instances auf EC2 Dedicated Hosts starten, Instances effektiv verwalten und Berichte über die Nutzung erstellen. Microsoft verlangt normalerweise, dass Sie die Nutzung Ihrer Lizenzen auf physischen Ressourcen wie beispielsweise Sockets und Kernen verfolgen, und Dedicated Hosts unterstützen Sie dabei. Weitere Informationen zur Verwendung Ihrer eigenen Lizenzen für Windows Server auf Amazon EC2 Dedicated Hosts finden Sie auf der Detailseite zu Dedicated Hosts.

F: Welche Softwarelizenzen kann ich in die Windows-Umgebung einbringen?

Die Bedingungen für bestimmte Softwarelizenzen sind von Anbieter zu Anbieter unterschiedlich. Daher wird empfohlen, dass Sie in den Lizenzbestimmungen Ihres Softwareanbieters nachschlagen, um zu bestimmen, ob Ihre vorhandenen Lizenzen für die Verwendung in Amazon EC2 genehmigt sind.

macOS Workloads

F: Was sind Amazon-EC2-Mac-Instances?

Amazon-EC2-Mac-Instances ermöglichen es Kunden zum ersten Mal, macOS-Workloads nach Bedarf in der Cloud auszuführen und so die Flexibilität, Skalierbarkeit und Kostenvorteile von AWS auf alle Apple-Entwickler zu übertragen. Mit EC2-Mac-Instances können nun Entwickler, die Apps für iPhone, iPad, Mac, Apple Watch, Apple TV und Safari erstellen, in Minuten auf macOS-Umgebungen zugreifen und diese bereitstellen, die dynamische Kapazität skalieren und nutzungsbasierte Preise von AWS nutzen.

F: Welche Workloads sollten Sie auf EC2-Mac-Instances ausführen?

Amazon-EC2-Mac-Instances sind für das Erstellen, Testen, Signieren und Veröffentlichen von Anwendungen für Apple-Plattformen wie iOS, iPadOS, watchOS, tvOS, macOS und Safari konzipiert. Kunden wie Pinterest, Intuit, FlipBoard, Twitch und Goldman Sachs haben eine um bis zu 75 % bessere Entwicklungsleistung, eine um bis zu 80 % niedrigere Fehlerquote bei der Entwicklung und eine bis zu fünfmal höhere Anzahl paralleler Entwicklungsprozesse im Vergleich zur On-Premises-Ausführung von macOS festgestellt.

F: Was sind EC2-x86-Mac-Instances?

x86-basierte EC2-Mac-Instances basieren auf Apple-Mac-mini-Computern mit Intel-Core-i7-Prozessoren und werden durch das AWS Nitro System betrieben. Sie bieten Kunden eine Auswahl von macOS Mojave (10.14), macOS Catalina (10.15), macOS Big Sur (11) und macOS Monterey (12) als Amazon Machine Images (AMIs). x86-basierte EC2-Instances sind in 12 Regionen verfügbar: USA Ost (Ohio, N. Virginia), USA West (Oregon), Europa (Stockholm, Frankfurt, Irland, London) und Asien-Pazifik (Mumbai, Seoul, Singapur, Sydney, Tokio). Weitere Informationen und erste Schritte mit x86-basierten EC2-Mac-Instances finden Sie hier.

F: Was sind EC2-M1-Mac-Instances?

EC2-M1-Mac-Instances basieren auf Mac-mini-Computern von Apple M1 und werden durch das AWS Nitro System betrieben. Sie bieten eine bis zu 60 Prozent bessere Preisleistung als x86-basierte EC2-Mac-Instances für iOS- und macOS-Anwendungsentwicklungs-Workloads. EC2-M1-Mac-Instances ermöglichen zum ersten Mal ARM64-macOS-Umgebungen in AWS und unterstützen macOS Big Sur (11) und macOS Monterey (12) als Amazon Machine Images (AMIs). EC2-M1-Mac-Instances sind in 4 Regionen verfügbar: USA Ost (Nord-Virginia), USA West (Oregon), Europa (Irland) und Asien-Pazifik (Singapur). Weitere Informationen und erste Schritte mit EC2-M1-Mac-Instances finden Sie hier.

F: Welche Preismodelle gibt es für EC2-Mac-Instances?

Amazon-EC2-Mac-Instances sind als Dedicated Hosts über die Preismodelle On Demand und Savings Plans verfügbar. Der Dedicated Host ist die Abrechnungseinheit für EC2-Mac-Instances. Die Abrechnung erfolgt pro Sekunde, mit einer Mindestzuweisungsdauer von 24vStunden für den Dedicated Host, um der Apple-macOS-Software-Lizenzvereinbarung zu entsprechen. Nach Ablauf der 24-stündigen Mindestzuteilungsdauer kann der Host jederzeit ohne weitere Verpflichtungen freigegeben werden. Sowohl Compute- als auch Instance-Savings-Plans sind für EC2-Mac-Instances verfügbar und bieten bis zu 44 Prozent Rabatt auf On-Demand-Preise. Besuchen Sie die Seite Dedicated Hosts – Preise für weitere Informationen. (Hinweis: Bitte wählen Sie „Dedicated Host“ und „Linux“ als Betriebssystem, um Details zu sehen.) Sie finden die Preise für EC2-Mac-Instances auch über den AWS Pricing Calculator für Dedicated Hosts.

F: Wie kann ich einen Dedicated Host freigeben?

Der Mindestzeitraum für die Zuweisung einer EC2-Mac-Instance Dedicated Host beträgt 24 Stunden. Nachdem der Zuweisungszeitraum 24 Stunden überschritten hat, anhalten oder beenden Sie zunächst die Instance, die auf dem Host ausgeführt wird, und geben Sie dann den Host mit dem CLI-Befehl aws ec2 release-hosts oder der AWS-Managementkonsole frei.

F: Kann ich EC2-Mac-Dedicated-Hosts gemeinsam mit anderen AWS-Konten in meinem Unternehmen nutzen?

Ja. Sie können EC2-Mac-Dedicated-Hosts mit AWS-Konten innerhalb Ihrer AWS-Organisation, einer Organisationseinheit innerhalb Ihrer AWS-Organisation oder Ihrer gesamten AWS-Organisation über AWS-Resource-Access-Manager freigeben. Weitere Informationen finden Sie in der Dokumentation zu AWS-Resource-Access-Manager.

F: Wie viele EC2-Mac-Instances kann ich auf einem EC2-Mac-Dedicated-Host ausführen?

EC2-Mac-Instances nutzen die volle Leistung der zugrunde liegenden Mac-mini-Hardware. Sie können 1 EC2-Mac-Instance auf jedem EC2-Mac-Dedicated-Host ausführen.

F: Kann ich die EFI-NVRAM-Variablen auf einer EC2-Mac-Instance aktualisieren?

Ja, Sie können bestimmte EFI-NVRAM-Variablen auf einer EC2-Mac-Instance aktualisieren, die auch nach einem Neustart erhalten bleiben. Die EFI-NVRAM-Variablen werden jedoch zurückgesetzt, wenn die Instance angehalten oder beendet wird. Weitere Informationen finden Sie in der Dokumentation zu EC2-Mac-Instances.

F: Kann ich mithilfe von FileVault das Boot-Volumen des Amazon Elastic Block Store (Amazon EBS) auf EC2-Mac-Instances verschlüsseln?

FileVault erfordert eine Anmeldung, bevor macOS gebootet wird und bevor der Fernzugriff aktiviert werden kann. Wenn FileVault aktiviert ist, verlieren Sie den Zugriff auf Ihre Daten auf dem Boot-Volumen bei einem Neustart, Anhalten oder Beenden der Instance. Wir empfehlen Ihnen nachdrücklich, FileVault nicht zu aktivieren. Stattdessen empfehlen wir die Verwendung von Amazon-EBS-Verschlüsselung sowohl für Boot- als auch für Daten-EBS-Volumen auf EC2-Mac-Instances.

F: Kann ich auf den Mikrofoneingang oder den Audioausgang einer EC2-Mac-Instance zugreifen?

Auf einer EC2-Mac-Instance gibt es keinen Zugriff auf den Mikrofoneingang. Der integrierte Remote-Desktop-VNC-Server von Apple unterstützt keine Audioausgabe. Remote-Desktop-Software von Drittanbietern, wie z. B. Teradici CAS, unterstützt Remote-Audio unter macOS.

F: Welche macOS-basierten Amazon Machine Images (AMIs) sind für EC2-Mac-Instances verfügbar?

EC2-Mac-Instances verwenden physische Mac-mini-Hardware, um macOS auszuführen. Apple-Hardware unterstützt nur die macOS-Version, die mit der Hardware ausgeliefert wurde (oder später). x86-basierte EC2-Mac-Instances verwenden den 2018er Intel Core i7 Mac mini, was bedeutet, dass macOS Mojave (10.14.x) so „weit zurück“ wie möglich liegt, da der 2018er Mac mini mit Mojave ausgeliefert wurde. EC2-M1-Mac-Instances verwenden 2020 M1 Mac mini, der mit macOS Big Sur (11.x) ausgeliefert wird. Informationen über die neuesten Versionen von macOS, die als EC2 Mac AMIs verfügbar sind, finden Sie in der Dokumentation.

F: Wie kann ich ältere Versionen von macOS auf EC2-Mac-Instances ausführen?

EC2-Mac-Instances sind Bare Metal Instances und verwenden nicht den Nitro-Hypervisor. Sie können eine Typ-2-Virtualisierungsschicht auf x86-basierten EC2-Mac-Instances installieren und ausführen, um Zugriff auf macOS High Sierra, Sierra oder ältere macOS-Versionen zu erhalten. EC2-M1-Mac-Instances sind mit macOS Big Sur die erste macOS-Version, die Apple Silicon unterstützt. Ältere macOS-Versionen laufen nicht einmal unter Virtualisierung.

F: Wie kann ich Beta- oder Vorschauversionen von macOS auf EC2-Mac-Instances ausführen?

Beta- und Vorschauversionen von macOS werden derzeit auf EC2-Mac-Instances nicht unterstützt.

F: Wie kann ich EC2-Benutzerdaten mit EC2-Mac-Instances verwenden?

Wie bei EC2-Linux- und Windows-Instances können Sie benutzerdefinierte Benutzerdaten an EC2-Mac-Instances übergeben. Anstelle von cloud-init verwenden EC2-Mac-Instances einen Open-Source-Start-Daemon: ec2-macos-init. Sie können diese Daten als reinen Text, als Datei oder als base64-kodierten Text an den EC2 Launch Wizard übergeben.

F: Wie kann ich Xcode auf einer EC2-M1-Mac-Instance installieren?

AWS bietet Basis-AMIs für macOS ohne vorherige Installation der Xcode IDE. Sie können Xcode installieren (und die EULA akzeptieren), wie Sie es auch auf jedem anderen macOS-System tun würden. Sie können die neueste Xcode IDE aus dem App Store oder frühere Xcode Versionen von der Apple Developer Website installieren. Sobald Sie Xcode installiert haben, empfehlen wir Ihnen, einen Snapshot Ihres AMI für die zukünftige Verwendung zu erstellen.

F: Wie ist der Veröffentlichungsrhythmus von macOS AMIs?

Wir stellen neue macOS AMIs nach bestem Ermessen zur Verfügung. Sie können SNS-Benachrichtigungen für Aktualisierungen abonnieren. Wir planen die Veröffentlichung offizieller macOS AMIs 30-60 Tage nach einem macOS Minor Versions Update und 90-120 Tage nach einem macOS Major Versions Update.

F: Welche Agenten und Pakete sind in EC2 macOS AMIs enthalten?

Die folgenden Agenten und Pakete sind standardmäßig in EC2 macOS AMIs enthalten:

  • ENA-Treiber für macOS
  • AWS CLI
  • EC2-macos-init
  • Amazon CloudWatch Agent
  • Chrony
  • Homebrew
  • AWS Systems Manger Agent

F: Kann ich die in macOS-AMIs enthaltenen Kundendienstmitarbeiter und Pakete aktualisieren?

Es gibt ein öffentliches Github-Repository des Homebrew-Hahns für alle Kundendienstmitarbeiter und Pakete, die dem macOS-Basis-Image hinzugefügt wurden. Sie können Homebrew verwenden, um die neuesten Versionen von Agenten und Paketen auf macOS-Instances zu installieren.

F: Kann ich Betriebssystem- und Software-Updates direkt von Apple Update-Servern auf meine Mac-Instances anwenden?

Automatische macOS-Software-Updates sind auf EC2-Mac-Instances deaktiviert. Wir empfehlen die Nutzung unserer offiziell angebotenen macOS AMIs, um die von Ihnen benötigte Version von macOS zu starten. Auf x86-basierten EC2-Mac-Instances können Sie die Version von macOS über das Einstellungsfenster „Softwareaktualisierung“ oder über den CLI-Befehl „Softwareaktualisierung“ aktualisieren. Wir unterstützen derzeit keine macOS-Updates für EC2-M1-Mac-Instances. Beide EC2-Mac-Instances ermöglichen die Installation und Aktualisierung von Programmen und sonstiger Software im Benutzerbereich.

F: Wie stelle ich über SSH eine Verbindung zu einer EC2-Mac-Instance her?

Nachdem Sie Ihre Instance gestartet und eine Instance-ID erhalten haben, können Sie den folgenden Befehl verwenden, um die Instance abzufragen und festzustellen, wann sie für den SSH-Zugriff bereit ist. Das Verbinden über SSH mit EC2-Mac-Instances erfolgt auf die gleiche Weise wie das Verbinden mit anderen EC2-Instances, z. B. solchen mit Linux oder Windows. Um die Verbindung zu Ihrer Instance über SSH zu unterstützen, starten Sie die Instance mit einem Schlüsselpaar und einer Sicherheitsgruppe, die SSH-Zugriff erlaubt. Stellen Sie die .pem-Datei für das Schlüsselpaar bereit, wenn Sie sich mit der Instance verbinden. Weitere Informationen finden Sie in der Dokumentation.

F: Wie kann ich mich über VNC mit einer EC2-Mac-Instance verbinden?

macOS verfügt über eine integrierte Funktion zur Bildschirmfreigabe, die standardmäßig deaktiviert ist, aber aktiviert werden kann, um eine Verbindung zu einer grafischen (Desktop-)Sitzung Ihrer EC2-Mac-Instance herzustellen. Weitere Informationen zur Aktivierung der integrierten Bildschirmfreigabe finden Sie in der Dokumentation.

F: Wie stelle ich eine Verbindung zu einer EC2-Mac-Instance mithilfe von AWS Systems Manager Session Manager her?

Sie können eine Verbindung zu Ihren EC2-Mac-Instances mit AWS Systems Manager Session Manager (SSM) herstellen. Session Manager ist eine vollständig verwaltete AWS-Systems-Manager-Funktion, die eine sichere und überprüfbare Instance-Verwaltung bietet. Dadurch entfällt die Notwendigkeit, eingehende Ports offen zu halten, Bastion-Hosts zu pflegen oder SSH-Schlüssel zu verwalten. Der SSM-Agent ist standardmäßig auf allen EC2-macOS-AMIs vorinstalliert. Weitere Informationen finden Sie in diesem Blog.

F: Wie viele Amazon-EBS-Volumes und Elastic-Network-Schnittstellen (ENIs) werden von EC2-Mac-Instances unterstützt?

x86-basierte EC2-Mac-Instances unterstützen 16 EBS-Volumes und 8 ENI-Anhänge, und EC2-M1-Mac-Instances unterstützen bis zu 10 EBS-Volumes und 8 ENI-Anhänge.

F: Unterstützen EC2-Mac-Instances EBS?

EC2-Mac-Instances sind standardmäßig EBS-optimiert und bieten bis zu 8 Gbit/s dedizierte EBS-Bandbreite sowohl für verschlüsselte als auch für unverschlüsselte EBS-Volumes.

F: Unterstützen EC2-Mac-Instances das Booten vom lokalen Speicher?

EC2-Mac-Instances können nur von EBS-gestützten macOS-AMIs booten. Die interne SSD des Mac mini ist im Festplattendienstprogramm zwar vorhanden, aber nicht bootfähig.

F: Unterstützen EC2-Mac-Instances Amazon FSx?

Ja. EC2-Mac-Instances unterstützen FSx unter Verwendung des SMB-Protokolls. Sie müssen die EC2-Mac-Instance bei einem unterstützten Verzeichnis-Service (z. B. Active Directory oder AWS Directory Service) anmelden, um FSx auf EC2-Mac-Instances zu aktivieren. Weitere Informationen über FSx finden Sie auf der Produktseite.

F: Unterstützen EC2-Mac-Instances das Amazon Elastic File System (Amazon EFS)?

Ja, EC2-Mac-Instances unterstützen EFS über das NFSv4-Protokoll. Weitere Informationen über EFS finden Sie auf der Produktseite.

Nitro-System-Unterstützung für die vorherige Generation

F: Was ist Nitro-System-Unterstützung für Instances der älteren Generation?

Das AWS Nitro System bietet jetzt seine modernen Hardware- und Software-Komponenten für die vorherige Generation von EC2-Instances, um die Lebensdauer über die typische Lebensdauer der zugrundeliegenden Hardware hinaus zu verlängern. Mit der Nitro-System-Unterstützung können Kunden weiterhin ihre Workloads und Anwendungen auf den Instance-Familien ausführen, auf denen sie entwickelt wurden.

F: Welche Instances der vorherigen Generation erhalten Nitro-System-Unterstützung, und in welchen Zeitrahmen?

Ab 2022 werden die folgenden Instances der vorherigen Generation Nitro-System-Support erhalten: M1, M2 und M3. Kunden dieser Instances erhalten eine Wartungsbenachrichtigung über die Migration nach Nitro System. Wir werden im Jahr 2023 Unterstützung für weitere Instance-Typen hinzufügen.

F: Welche Aktionen muss ich ausführen, um meine Instances der vorherigen Generation zu migrieren?

Kunden müssen nichts unternehmen, um aktive Instances der vorherigen Generation, die auf älterer Hardware ausgeführt werden, zu migrieren. Für Instances, die auf Hardware der älteren Generation ausgeführt werden, erhält jede Kundenkonto-ID, die einer Instance zugeordnet ist, eine E-Mail-Benachrichtigung 2 Wochen vor der geplanten Wartung.

Ähnlich wie bei unseren typischen Wartungs-Ereignissen, haben Kunden die Option, innerhalb von zusätzlich 2 Wochen nach der ursprünglich geplanten Wartungszeit, die Wartung so oft wie notwendig zu verschieben.

F: Was passiert mit meiner Instance während diesem Wartungs-Ereignis?

Wir arbeiten mit dem Kunden im Rahmen unseres Standard-AWS-Wartungsprozesses zusammen. Mehrere AWS-Teams haben bereits migriert und führen auf Nitro Instances der älteren Generation aus. Während der Wartung wird die Instance neu gestartet, was bis zu 30 Minuten dauern kann, je nach der Instance-Größe und -Attributen. Zum Beispiel: Instances mit lokaler Festplatte brauchen länger zum migrieren als Instances ohne lokaler Festplatte. Nach dem Neustart behält Ihre Instance die IP-Adresse, den DNS-Namen und alle Daten auf lokalen Instance-Speichern-Volumes bei.

F: Muss ich meine Workloads neu erstellen/neu zertifizieren, um sie mit nach AWS Nitro System migrierten Instances der vorherigen Generation auszuführen?

Nein. Kunden müssen Workloads nicht neu erstellen/neu zertifizieren, um sie mit nach AWS Nitro System migrierten Instances der vorherigen Generation auszuführen.

F: Wird es Änderungen an meinen Instance-Spezifikationen geben, wenn sie einmal nach AWS Nitro System migriert sind?

Es wird keine Änderung der Instance-Spezifikation von Instances der vorherigen Generation geben, wenn diese nach AWS Nitro System migriert werden.

F: Werden alle Features und AMIs in meinen Instances der vorherigen Generation als Teil dieser Migration unterstützt?

Ja. Alle bestehenden Features und AMIs, die in Instances der vorherigen Generation unterstützt werden, werden unterstützt, während wir diese Instances nach AWS Nitro System migrieren. Beachten Sie jedoch, dass das klassische Netzwerk, für das die Außerbetriebnahme angekündigt wurde, nicht auf Instances der älteren Generation unterstützt wird, die auf dem Nitro System ausgeführt werden. Wir werden die vorherige Generation von Instances mit klassischem Netzwerk nur migrieren, nachdem Kunden zur VPC gewechselt sind.

F: Wird es Änderungen am Preis und der Fakturierung geben, wenn Instances der vorherigen Generation nach AWS Nitro System migriert werden?

Es wird keine Änderungen am Preis und der Fakturierung geben. Wir werden für die Instances der vorherigen Generation (On-Demand, 1-/3-jährige Reserved Instance, Savings Plan, Spot) weiterhin dieselben Preismodelle unterstützen wie heute.

 

Zusätzliche produktbezogene Ressourcen ansehen

Es gibt viele Ressourcen, die Sie dabei unterstützen zu erfahren, wie Sie mit Amazon EC2 entwickeln.

Weitere Informationen 
Für ein kostenloses Konto registrieren

Sie erhalten sofort Zugriff auf das kostenlose AWS-Kontingent. 

Registrieren 
Starten Sie mit der Entwicklung in der Konsole

Starten Sie mit der Entwicklung mit Amazon EC2 in der AWS-Managementkonsole.

Erste Schritte