Allgemeine Zwecke

  • T3
  • M5
  • M5a
  • T2
  • M4
  • T3a (In Kürze verfügbar)
  • T3
  • T3-Instances sind die nächste Generation von berstfähigen Allgemein Zweck Instances Typen welche ein Ausgangsniveau der CPU Leistung liefern, mit der Möglichkeit die CPU Nutzung zu verbessern, solange es erforderlich ist. T3-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen.

    T3-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu nutzen. T3-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.

    Funktionen:

    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
    • angetrieben durch das AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
    • AWS Nitro System und Intel Xeon Scalable-Hochfrequenzprozessoren führen zu einer bis zu 30-prozentigen Preis-Leistungs-Verbesserung gegenüber T2-Instances.
    Modell vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)
    t3.nano 2
    6
    0,5 Nur EBS Bis zu 5
    t3.micro 2
    12
    1 Nur EBS
    Bis zu 5
    t3.small 2
    24
    2 Nur EBS
    Bis zu 5
    t3.medium 2 24
    4 Nur EBS
    Bis zu 5
    t3.large 2 36
    8 Nur EBS Bis zu 5
    t3.xlarge 4 96
    16 Nur EBS Bis zu 5
    t3.2xlarge 8 192
    32 Nur EBS Bis zu 5

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen

  • M5
  • M5-Instances sind allgemeine Instances der neuesten Generation. Diese Familie bietet eine ausgewogene Kombination von Computer-, Speicher- und Netzwerkressourcen und ist für viele Anwendungen eine gute Wahl.

    Funktionen:

    • Intel Xeon® Platinum 8175-Prozessoren mit 2,5 GHz mit neuem Intel Advanced Vector Extension-Befehlssatz (AVX-512)
    • Neue umfangreichere Instance-Größe m5.24xlarge bietet 96 vCPUs und 384 GiB Arbeitsspeicher
    • Bis zu 25 Gbit/s Netzwerkbandbreite über Enhanced Networking
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • angetrieben durch das AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Bei M5d Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
    Modell vCPU* Arbeitsspeicher (GiB) Speicherkapazität (GiB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s)
    m5.large 2 8 Nur EBS Bis zu 3.500 Bis zu 10
    m5.xlarge 4 16 Nur EBS Bis zu 3.500 Bis zu 10
    m5.2xlarge 8 32 Nur EBS Bis zu 3.500 Bis zu 10
    m5.4xlarge 16 64 Nur EBS 3.500 Bis zu 10
    m5.12xlarge 48 192 Nur EBS 7.000 10
    m5.24xlarge 96 384 Nur EBS 14.000 25
    m5d.large 2 8 1 x 75 NVMe-SSD
    Bis zu 3.500 Bis zu 10
    m5d.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 3.500 Bis zu 10
    m5d.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 3.500 Bis zu 10
    m5d.4xlarge 16 64 2 x 300 NVMe-SSD 3.500 Bis zu 10
    m5d.12xlarge 48 192 2 x 900 NVMe-SSD 7.000 10
    m5d.24xlarge 96 384 4 x 900 NVMe-SSD 14.000 25

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Back-End-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • M5a
  • M5a Instances sind die neueste Generation der Allgemein Zweck Instances. Diese Familie bietet eine ausgewogene Kombination von Computer-, Speicher- und Netzwerkressourcen und ist für viele Anwendungen eine gute Wahl.

    Funktionen:

    • Prozessoren der AMD EPYC 7000 Serie mit einer Turbotaktfrequenz von 2.5 GHz
    • Neue umfangreichere Instance-Größe m5.24xlarge bietet 96 vCPUs und 384 GiB Arbeitsspeicher
    • Bis zu 20 Gbit/s Netzwerkbandbreite durch verbesserte Netzwerkarbeit
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • angetrieben durch das AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
    • Instance Speicher, der nur über das EBS angeboten wird.
    Modell vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s)
    m5a.large 2 8 Nur EBS Bis zu 2 120 Bis zu 10
    m5a.xlarge 4 16 Nur EBS Bis zu 2 120 Bis zu 10
    m5a.2xlarge 8 32 Nur EBS Bis zu 2 120 Bis zu 10
    m5a.4xlarge 16 64 Nur EBS 2 120 Bis zu 10
    m5a.12xlarge 48 192 Nur EBS 5 000 10
    m5a.24xlarge 96 384 Nur EBS 10 000 20

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Back-End-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • T2
  • T2-Instances sind Instances mit Spitzenlastleistung, die eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.

    T2 Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T2 Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.

    Die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten werden über CPU-Guthaben verwaltet. T2-Instances erhalten je nach Instance-Größe kontinuierlich CPU-Guthaben mit einer festgelegten Rate, wobei sie CPU-Guthaben sammeln, wenn sie im Leerlauf sind, bzw. Guthaben verbrauchen, wenn sie aktiv sind. T2-Instances eignen sich ideal für eine breite Palette an Verarbeitungslasten für allgemeine Zwecke wie Microservices, interaktive Anwendungen mit geringer Latenz, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungs-, Build- und Stagingumgebungen, Code-Repositorys und Produktprototypen. Weitere Informationen finden Sie unter Instances mit Spitzenlastleistung.

    Funktionen:

    • Intel Xeon-Hochfrequenzprozessoren
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Preiswertester Instance-Typ für allgemeine Zwecke mit wahlweise erhältlichem kostenlosem Kontingent*
    • Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen

    * nur t2.micro Bei einer Konfiguration als T2 Unlimited-Instance fallen möglicherweise Gebühren an, wenn die CPU-Nutzung die Basisleistung der Instance überschreitet. Weitere Informationen finden Sie in der Dokumentation.

    Modell vCPU* CPU-Guthaben / Stunde
    Arbeitsspeicher (GiB)  Speicher
    Netzwerkleistung
    t2.nano 1 3 0,5 Nur EBS Gering
    t2.micro 1 6 1 Nur EBS
    Gering bis mittel
    t2.small 1 12 2 Nur EBS
    Gering bis mittel
    t2.medium 2 24 4 Nur EBS
    Gering bis mittel
    t2.large 2 36 8 Nur EBS Gering bis mittel
    t2.xlarge 4 54 16 Nur EBS Mittel
    t2.2xlarge 8 81 32 Nur EBS Mittel

    Alle Instanzen haben die folgenden Spezifikationen:

    • Intel AVX†, Intel Turbo†
    • t2.nano, t2.micro, t2.small, t2.medium haben einen bis zu 3.3 GHz skalierbaren Prozessor von Intel
    • t2.large, t2.xlarge und t2.2xlarge haben einen bis zu 3.0 GHz skalierbaren Prozessor von Intel

    Anwendungsfälle

    Websites und Webanwendungen, Entwicklungsumgebungen, Buildserver, Code-Repositorys, Microservices, Test- und Stagingumgebungen sowie Branchenanwendungen.  

  • M4
  • Die M4-Instances bieten ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen und eignen sich für zahlreiche Anwendungen.

    Funktionen:

    • 2,3-GHz-Prozessoren Intel Xeon® E5-2686 v4 (Broadwell) oder 2,4-GHz-Prozessoren Intel Xeon® E5-2676 v3 (Haswell)
    • Standardmäßig und ohne Zusatzkosten für EBS optimiert
    • Unterstützung für Enhanced Networking
    • Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen
    Modell vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung
    m4.large 2 8 Nur EBS 450 Mittel
    m4.xlarge 4 16 Nur EBS 750 Hoch
    m4.2xlarge 8 32 Nur EBS 1.000 Hoch
    m4.4xlarge 16 64 Nur EBS 2.000 Hoch
    m4.10xlarge 40 160 Nur EBS 4.000 10 Gigabit
    m4.16xlarge 64 256 Nur EBS 10 000 25 Gigabit

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben mit höherem Arbeitsspeicherbedarf, Cachefarmen und die Ausführung von Back-End-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • T3a (In Kürze verfügbar)
  • T3a-Instances sind die nächste Generation von berstfähigen Allgemein Zweck Instances, welche eine CPU-Basisleistung mit der Möglichkeit die CPU-Auslastung jederzeit zu erhöhen, so lange wie nötig. T3a-Instanzen bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen.

    T3a-Instances sammeln CPU Punkte an, wenn ein Workload unterhalb der Grundschwelle agiert. Jedes angesammelte CPU-Guthaben gibt der T3a-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu verbessern. T3a-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.

    Funktionen:

    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
    • angetrieben durch das AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
    • T3a verfügt über Prozessoren der AMD EPYC 7000 Serie mit 2.5 GHz, die den Kunden 10% Kostenersparnis gegenüber den T3-Instanzen bieten
    Modell vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)
    t3a.nano 2
    6
    0,5 Nur EBS Bis zu 5
    t3a.micro 2
    12
    1 Nur EBS
    Bis zu 5
    t3a.small 2
    24
    2 Nur EBS
    Bis zu 5
    t3a.medium 2 24
    4 Nur EBS
    Bis zu 5
    t3a.large 2 36
    8 Nur EBS Bis zu 5
    t3a.xlarge 4 96
    16 Nur EBS Bis zu 5
    t3a.2xlarge 8 192
    32 Nur EBS Bis zu 5

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen

Jede vCPU ist ein Thread entweder eines Intel Xeon-Kern oder eines AMD EPYC-Kern, mit Ausnahme von T2 und m3.medium.

† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

** Diese M4-Instances können auf einem Intel Xeon E5-2686 v4-Prozessor (Broadwell) gestartet werden.  

Für Datenverarbeitung optimiert

  • C5
  • C5-Instances sind für rechenintensive Workloads optimiert und liefern höchste Rechenleistung zu einem äußerst günstigen Preis.

    Funktionen:

    • Intel Xeon Platinum-Prozessoren mit 3,0 GHz mit neuem Intel Advanced Vector Extension 512 (AVX-512)-Befehlssatz
    • Jeder Kern läuft mit bis zu 3,5 GHz mit Intel Turbo-Boost-Technik
    • Neue umfangreichere Instance-Größe c5.18xlarge bietet 72 vCPUs und 144 GiB Arbeitsspeicher
    • Bis zu 25 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den neuen C5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der C5-Instance verknüpft ist
    Modell vCPU* Arbeitsspeicher (GiB) Speicherkapazität (GiB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s)
    c5.large 2 4 Nur EBS Bis zu 3.500 Bis zu 10
    c5.xlarge 4 8 Nur EBS Bis zu 3.500 Bis zu 10
    c5.2xlarge 8 16 Nur EBS Bis zu 3.500 Bis zu 10
    c5.4xlarge 16 32 Nur EBS 3.500 Bis zu 10
    c5.9xlarge 36 72 Nur EBS 7.000 10
    c5.18xlarge 72 144 Nur EBS 14.000 25
    c5d.large 2 4 1 x 50 NVMe-SSD Bis zu 3.500 Bis zu 10
    c5d.xlarge 4 8 1 x 100 NVMe-SSD Bis zu 3.500 Bis zu 10
    c5d.2xlarge 8 16 1 x 200 NVMe-SSD Bis zu 3.500 Bis zu 10
    c5d.4xlarge 16 32 1 x 400 NVMe-SSD 3.500 Bis zu 10
    c5d.9xlarge 36 72 1 x 900 NVMe-SSD 7.000 10
    c5d.18xlarge 72 144 2 x 900 NVMe-SSD 14.000 25

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung

  • C4
  • C4-Instances sind für rechenintensive Workloads optimiert und liefern Datenverarbeitung auf höchstem Niveau zu einem äußerst günstigen Preis.

    Funktionen:

    • Spezifisch für EC2 optimierte Intel Xeon E5-2666 v3-Hochfrequenzprozessoren (Haswell)
    • Standardmäßig EBS-optimiert für eine höhere Speicherleistung ohne zusätzliche Kosten
    • Höhere Netzwerkleistung durch Enhanced Networking mit Intel 82599 VF-Unterstützung
    • Erfordert Amazon VPC, Amazon EBS und 64-Bit-HVM-AMIs
    Modell vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung
    c4.large 2 3,75 Nur EBS 500 Mittel
    c4.xlarge 4 7,5 Nur EBS 750 Hoch
    c4.2xlarge 8 15 Nur EBS 1.000 Hoch
    c4.4xlarge 16 30 Nur EBS 2.000 Hoch
    c4.8xlarge 36 60 Nur EBS 4.000 10 Gigabit

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Front-End-Serverfarmen mit hoher Leistung, Webserver, Stapelverarbeitung, verteilte Analysen, wissenschaftliche und technische Anwendungen mit hoher Leistung, Ad-Serving, Stapelverarbeitung, MMO-Gaming und Videocodierung.

Jede vCPU ist ein Thread entweder eines Intel Xeon-Kern oder eines AMD EPYC-Kern, mit Ausnahme von T2 und m3.medium.

† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

** Diese M4-Instances können auf einem Intel Xeon E5-2686 v4-Prozessor (Broadwell) gestartet werden.  

Speicheroptimiert

  • R4
  • X1e
  • X1
  • Hohe Speicherkapazität
  • z1d
  • R5
  • R5-Instances liefern 5 % mehr Arbeitsspeicher pro vCPU als R4 und die umfangreichste Größe hat 768 GiB Arbeitsspeicher. Außerdem bieten R5-Instances eine Verbesserung von 10 % beim Preis pro GiB und eine etwa 20 % höhere CPU-Leistung gegenüber R4.

    Funktionen:

    • Bis zu 768 GiB Arbeitsspeicher pro Instance
    • Prozessoren der Intel Xeon Platinum 8000-Reihe (Skylake-SP) mit einer gleichbleibenden Turbo CPU-Frequenz aller Kerne von bis zu 3,1 GHz
    • angetrieben durch das AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
    • Mit den R5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
    Modell vCPU Arbeitsspeicher (GiB) Speicherkapazität (GiB) Netzwerkleistung (Gbps)
    r5.large 2 16 Nur EBS Bis zu 10
    r5.xlarge 4 32 Nur EBS Bis zu 10
    r5.2xlarge 8 64 Nur EBS Bis zu 10
    r5.4xlarge 16 128 Nur EBS Bis zu 10
    r5.12xlarge 48 384 Nur EBS 10
    r5.24xlarge 96 768 Nur EBS 25
    r5d.large 2 16 1 x 75 NVMe-SSD Bis zu 10
    r5d.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 10
    r5d.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 10
    r5d.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 10
    r5d.12xlarge 48 384 2 x 900 NVMe-SSD 10
    r5d.24xlarge 96 768 4 x 900 NVMe-SSD 25

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    R5-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.

  • R5a
  • R5a-Instances liefern 5 % mehr Arbeitsspeicher pro vCPU als R4 und die umfangreichste Größe bietet 768 GiB Arbeitsspeicher. Außerdem bieten R5a-Instances eine Verbesserung von 10 % beim Preis pro GiB und eine etwa 20 % höhere CPU-Leistung gegenüber R4.

    Funktionen:

    • Bis zu 768 GiB Arbeitsspeicher pro Instance
    • Prozessoren der AMD EPYC 7000 Serie mit einer Turbotaktfrequenz von 2.5 GHz
    • angetrieben durch das AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
    Modell vCPU Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbps)
    r5a.large 2 16 Nur EBS Bis zu 10
    r5a.xlarge 4 32 Nur EBS Bis zu 10
    r5a.2xlarge 8 64 Nur EBS Bis zu 10
    r5a.4xlarge 16 128 Nur EBS Bis zu 10
    r5a.12xlarge 48 384 Nur EBS 10
    r5a.24xlarge 96 768 Nur EBS 20

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    R5a-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, verteilte Netzdimensionen Hauptspeicher Caches, mittelgroße Hauptspeicher Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.

  • R4
  • R4-Instances sind für speicherintensive Anwendungen optimiert und stellen ein besseres RAM-Preisangebot pro GiB als R3 dar.

    Funktionen:

    • Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
    • DDR4-Speicher
    • Unterstützung für Enhanced Networking
    Modell vCPU Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbps)
    r4.large 2 15,25 Nur EBS Bis zu 10
    r4.xlarge 4 30,5 Nur EBS Bis zu 10
    r4.2xlarge 8 61 Nur EBS Bis zu 10
    r4.4xlarge 16 122 Nur EBS Bis zu 10
    r4.8xlarge 32 244 Nur EBS 10
    r4.16xlarge 64 488 Nur EBS 25

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Hochleistungsdatenbanken, Data-Mining & -Analyse, In-Memory-Datenbanken, dezentrale Web-In-Memory-Caches, Anwendungen, die unstrukturierte Big Data in Echtzeit verarbeiten, Hadoop-/Spark-Cluster und andere Unternehmensanwendungen.

  • X1e
  • X1e-Instances sind optimiert für die Ausführung von Hochleistungsdatenbanken, Hauptspeicher Datenbanken und andere speicheroptimierte Unternehmensanwendungen geeignet. X1e-Instances bieten einen der günstigsten Preise pro GiB RAM unter allen Amazon EC2 Instance Typen.

    Funktionen:

    • Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
    • Einer der günstigsten Preise pro GiB RAM
    • Bis zu 3.904 GiB DRAM-basierter Instance-Speicher
    • SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
    • Möglichkeit zur Kontrolle von C-State- und P-State-Prozessorkonfigurationen auf Instances vom Typ x1e.32xlarge, x1e.16xlarge und x1e.8xlarge
    Modell vCPU Arbeitsspeicher (GiB) SSD-Speicherung (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung
    x1e.xlarge 4 122 1 x 120 500 Bis zu 10 Gigabit
    x1e.2xlarge 8 244 1 x 240 1.000 Bis zu 10 Gigabit
    x1e.4xlarge 16 488 1 x 480 1.750 Bis zu 10 Gigabit
    x1e.8xlarge 32 976 1 x 960 3.500 Bis zu 10 Gigabit
    x1e.16xlarge 64 1.952 1 x 1.920 7.000 10 Gigabit
    x1e.32xlarge 128 3.904 2 x 1.920 14.000 25 Gigabit

    Alle Instanzen haben die folgenden Spezifikationen:

    Zusätzlich haben x1e.16xlarge und x1e.32xlarge

    Anwendungsfälle

    Hochleistungsdatenbanken, In-Memory-Datenbanken (z. B. SAP HANA) und speicherintensive Anwendungen. x1e.32xlarge-Instance ist von SAP für die Ausführung von Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) und Data Mart Solutions on HANA der nächsten Generation in der AWS Cloud zertifiziert.

  • X1
  • X1-Instances sind für extrem große Unternehmensanwendungen und Hauptspeicher Anwendungen optimiert und bieten von allen Amazon EC2 Instance Typen mit die niedrigsten Kosten pro GiB RAM.

    Funktionen:

    • Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
    • Einer der günstigsten Preise pro GiB RAM
    • Bis zu 1.952 GiB DRAM-basierter Instance-Speicher
    • SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
    • Steuerung der C- und P-State-Prozessorkonfiguration
    Modell vCPU Arbeitsspeicher (GiB) SSD-Speicherung (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung
    x1.16xlarge 64 976 1 x 1.920 7.000 10 Gigabit
    x1.32xlarge 128 1.952 2 x 1.920 14.000 25 Gigabit

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    In-Memory-Datenbanken (wie SAP HANA), Engines zur Big Data-Verarbeitung (wie Apache Spark oder Presto) und High Performance Computing (HPC). Anwendungen, die von SAP zur Ausführung von Business Warehouse on HANA (BW), Data Mart Solutions on HANA, Business Suite on HANA (SoH) und Business Suite S/4HANA zertifiziert sind.

  • Hohe Speicherkapazität
  • High Memory Instances sind speziell erbaut um große Hauptspeicher Datenbanken zu betreiben, einschließlich Produktionsbereitstellungen der SAP HANA in der Cloud.

    Funktionen:

    • Intel® Xeon® Platinum 8176M (Skylake) -Prozessoren der neuesten Generation
    • 6, 9 und 12 TiB des Instanzspeichers, der größte einer beliebigen EC2-Instance
    • Bare-Metal-Performance mit direktem Zugriff auf Host-Hardware
    • Standardmäßig und ohne Zusatzkosten für EBS optimiert
    • Verfügbar in Amazon Virtual Private Clouds (VPCs)
    Modell Logical Proc* Mem (TiB) Netzwerkleistung (Gbps) Dedizierte EBS-Bandbreite (Gbps) Netzwerkleistung
    u-6tb1.metal 448 6 25 14 25 Gigabit
    u-9tb1.metal 448 9 25 14 25 Gigabit
    u-12tb1.metal 448 12 25 14 25 Gigabit

    *Jeder logische Prozessor ist ein Hyperthread mit 224 Kernen

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Ideal für die Ausführung großer Unternehmensdatenbanken, einschließlich Produktionsinstallationen der In-Memory-Datenbank SAP HANA in der Cloud. Von SAP zertifiziert für Business Suite auf HANA, Business Suite S / 4HANA der nächsten Generation, Data Mart Solutions auf HANA, Business Warehouse auf HANA und SAP BW / 4HANA in Produktionsumgebungen.

  • z1d
  • Amazon EC2 z1d-Instances bieten eine hohe Rechenkapazität und einen großen Arbeitsspeicher. Hochfrequenz-z1d-Instances bieten eine gleichbleibende Kernfrequenz von bis zu 4,0 GHz, die schnellste aller Cloud-Instances.

    Funktionen:

    • Ein benutzerdefinierter Intel® Xeon® Scalable-Prozessor mit einer gleichbleibenden Kernfrequenz von bis zu 4,0 GHz
    • Bis zu 1,8 TB Instance-Speicher
    • Großer Arbeitsspeicher mit bis zu 384 GiB RAM
    • angetrieben durch das AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
    • Mit z1d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der z1d-Instance verknüpft ist
    Modell vCPU Arbeitsspeicher (GiB) Netzwerkleistung SSD-Speicherung (GB)
    z1d.large 2 16 Bis zu 10 Gigabit 1 x 75 NVMe-SSD
    z1d.xlarge 4 32 Bis zu 10 Gigabit 1 x 150 NVMe-SSD
    z1d.2xlarge 8 64 Bis zu 10 Gigabit 1 x 300 NVMe-SSD
    z1d.3xlarge 12 96 Bis zu 10 Gigabit 1 x 450 NVMe-SSD
    z1d.6xlarge 24 192 10 Gigabit 1 x 900 NVMe-SSD
    z1d.12xlarge 48 384 25 Gigabit 2 x 900 NVMe-SSD

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Ideal für Electronic Design Automation (EDA) und bestimmte relationale Datenbankworkloads mit hohen Lizenzierungskosten pro Kern.

Hinweis: u-6tb1.metal, u-9tb1.metal und u-12tb1.metal stellen 448 logische Prozessoren auf 224 Kernen bereit

Accelerated Computing

  • P3
  • P3-Instances sind die neueste Generation allgemeiner GPU-Instances.

    Funktionen:

    • Bis zu 8 NVIDIA Tesla V100-GPUs mit je 5.120 CUDA-Kernen und 640 Tensor-Kernen
    • Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
    • Unterstützt NVLink für die Peer-to-Peer-GPU-Kommunikation
    • Stellt über Elastic Network Adaptor Enhanced Networking mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite in einer Platzierungsgruppe bereit
    Modell GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) GPU P2P Netzwerkleistung
    p3.2xlarge 1 8 61 16 - Bis zu 10 Gigabit
    p3.8xlarge 4 32 244 64 NVLink 10 Gigabit
    p3.16xlarge 8 64 488 128 NVLink 25 Gigabit

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Machine/Deep Learning, High Performance Computing (HPC), numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, Spracherkennung, Entwicklung autonomer Fahrzeuge, Arzneimittelforschung.

  • P2
  • P2-Instances eignen sich für allgemeine GPU-Datenverarbeitungsanwendungen.

    Funktionen:

    • Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
    • NVIDIA K80-Hochleistungs-GPUs, jede mit 2.496 parallelen Verarbeitungskernen und 12 GiB GPU-Speicher
    • Unterstützt GPUDirect™ für Peer-to-Peer-GPU-Kommunikation
    • bietet erweiterte Vernetzung durch den Elastic Network Adaptor (ENA) an, mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Platzierungsgruppe
    • Standardmäßig und ohne Zusatzkosten für EBS optimiert
    Modell GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung
    p2.xlarge 1 4 61 12 Hoch
    p2.8xlarge 8 32 488 96 10 Gigabit
    p2.16xlarge 16 64 732 192 25 Gigabit

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Machine Learning, Hochleistungsdatenbanken, numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, molekulare Modellierung, Genome, Rendering und andere serverseitige GPU-Datenverarbeitungslasten.

  • G3
  • G3-Instances sind für grafikintensive Anwendungen optimiert.

    Funktionen:

    • Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
    • NVIDIA Tesla M60-GPUs mit je 2.048 parallelen Prozessorkernen und 8 GiB Videospeicher
    • Ermöglicht NVIDIA GRID Virtual Workstation-Funktionen, einschließlich Unterstützung für 4 Monitore mit Auflösung von bis zu 4096 x 2160 Jede in Ihrer Instance enthaltene GPU ist für genau einen „gleichzeitig verbundenen Benutzer“ lizenziert
    • Bietet NVIDIA GRID Virtual Application-Funktionen für Anwendungsvirtualisierungssoftware wie Citrix XenApp Essentials und VMware Horizon und unterstützt dabei bis zu 25 gleichzeitig verbundene Benutzer pro GPU
    • Jede GPU kennzeichnet einen integrierten Hardware Videoencoder, welcher konzipiert ist um bis zu 10 H.265 (HEVC) 1080p30 Datenströme und bis zu 18 H.264 1080p30 Datenströme zu unterstützen – dies ermöglicht Frame-Erfassung und -Codierung mit geringer Latenz und hochwertiges interaktives Streaming
    • Enhanced Networking mit Elastic Network Adaptor (ENA) mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Placement
    Modell GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung
    g3s.xlarge 1 4 30,5 8 Bis zu 10 Gigabit
    g3.4xlarge 1 16 122 8 Bis zu 10 Gigabit
    g3.8xlarge 2 32 244 16 10 Gigabit
    g3.16xlarge 4 64 488 32 25 Gigabit

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Verarbeitungslasten.

  • F1
  • F1-Instances bieten anpassbare Hardwarebeschleunigung mit Field Programmable Gate Arrays (FPGAs).

    Instance-Funktionen:

    • Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
    • NVMe-SSD-Speicher
    • Unterstützung für Enhanced Networking

    FPGA-Funktionen:

    • Xilinx Virtex UltraScale+ VU9P FPGAs
    • 64 GiB ECC-geschützter Speicher auf 4 DDR4
    • Dedizierte PCI-Express x16-Schnittstelle
    • Ca. 2,5 Millionen logische Elemente
    • Ca. 6.800 digitale Signalverarbeitungsmodule
    • FPGA Developer AMI
    Modell FPGAs vCPU Arbeitsspeicher (GiB) SSD-Speicherung (GB) Netzwerkleistung
    f1.2xlarge 1 8 122 470 Bis zu 10 Gigabit
    f1.4xlarge 2 16 244 940 Bis zu 10 Gigabit
    f1.16xlarge 8 64 976 4 x 940 25 Gigabit

    Für f1.16xlarge-Instances ermöglicht die dedizierte PCI-e-Fabric, dass die FPGAs den Speicherplatz gemeinsam nutzen und mit bis zu 12 Gbit/s in jede Richtung über die Fabric miteinander kommunizieren. Innerhalb von f1.16xlarge greifen die FPGAs gemeinsam auf einen bidirektionalen Ring von 400 Gbit/s zu und ermöglichen somit eine Kommunikation mit geringer Latenz und großer Bandbreite.

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Genomforschung, Finanzanalysen, Videoverarbeitung in Echtzeit, Big Data-Suche und -Analyse und Sicherheit.

Speicheroptimiert

  • H1
  • I3
  • D2
  • H1
  • H1-Instances haben bis zu 16 TB lokalen HDD-Speicher (Festplattenlaufwerk), liefern hohen Datenträgerdurchsatz und bieten ein Gleichgewicht zwischen Datenverarbeitung und Arbeitsspeicher.

    Funktionen:

    • Intel® Xeon® E5 2686 v4-Prozessoren (Broadwell) mit 2,3 GHz als Basis
    • Bis zu 16 TB HDD-Speicher
    • Hoher Datenträgerdurchsatz
    • Enhanced Networking von bis zu 25 Gbit/s dank ENA
    Modell vCPU* Arbeitsspeicher (GiB) Netzwerkleistung Speicher (GB)
    h1.2xlarge 8 32 Bis zu 10 Gigabit 1 x 2.000 HDD
    h1.4xlarge 16 64 Bis zu 10 Gigabit 2 x 2.000 HDD
    h1.8xlarge 32 128 10 Gigabit 4 x 2.000 HDD
    h1.16xlarge 64 256 25 Gigabit 8 x 2.000 HDD

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Auf MapReduce basierende Workloads, verteilte Dateisysteme wie HDFS und MapR-FS, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen wie Apache Kafka und Big Data-Workloadcluster.

  • I3
  • Diese Instance-Familie bietet NVMe-Schnittstellen (Nonvolatile Memory Express) für SSD-gestützten Instance-Speicher – optimiert für geringe Latenz, sehr hohe Random-E/A-Leistung, hohen sequentiellen Durchsatz und hohe IOPS bei niedrigen Kosten. I3 bietet ebenfalls Bare Metal-Instances (i3.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.

    Funktionen:

    • Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell) mit einer Basisfrequenz von 2,3 GHz
    • Bis zu 25 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
    • Hohe Random-E/A-Leistung und hoher sequenzieller Lesedurchsatz
    • Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
    Modell vCPU* Arbeitsspeicher (GiB) Netzwerkleistung (Gbps) Speicher (TB)
    i3.large 2 15,25 Bis zu 10 1 x 0,475 NVMe-SSD
    i3.xlarge 4 30,5 Bis zu 10 1 x 0,95 NVMe-SSD
    i3.2xlarge 8 61 Bis zu 10 1 x 1,9 NVMe-SSD
    i3.4xlarge 16 122 Bis zu 10 2 x 1,9 NVMe-SSD
    i3.8xlarge 32 244 10 4 x 1,9 NVMe-SSD
    i3.16xlarge 64 488 25 8 x 1,9 NVMe-SSD
    i3.metal 72* 512 25 8 x 1,9 NVMe-SSD

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    NoSQL-Datenbanken (Cassandra, MongoDB, Redis etc.), Hauptspeicher Datenbanken (z. B. Aerospike), skalierte Transaktionsdatenbanken, Data Warehousing, Elasticsearch, Analyse Workloads.

  • D2
  • D2-Instances bieten bis zu 48 TB lokale Speicherung auf HDD, hohen Datenträgerdurchsatz und den niedrigsten Preis pro Datenträgerdurchsatzleistung auf Amazon EC2.

    Funktionen:

    • Intel Xeon E5-2676 v3-Hochfrequenzprozessoren (Haswell)
    • HDD-Speicher
    • Kontinuierlich hohe Leistung beim Start
    • Hoher Datenträgerdurchsatz
    • Unterstützung für Enhanced Networking
    Modell vCPU* Arbeitsspeicher (GiB) Speicher (GB) Netzwerkleistung
    d2.xlarge 4 30,5 3 x 2.000 HDD Mittel
    d2.2xlarge 8 61 6 x 2.000 HDD Hoch
    d2.4xlarge 16 122 12 x 2.000 HDD Hoch
    d2.8xlarge 36 244 24 x 2.000 HDD 10 Gigabit

    Alle Instanzen haben die folgenden Spezifikationen:

    Anwendungsfälle

    Data Warehouses mit massiver Parallelverarbeitung (MPP), verteiltes Computing mit MapReduce und Hadoop, verteilte Dateisysteme, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen.

** i3.metal bietet 72 logische Prozessoren auf 36 physischen Kernen.

Suchen Sie Instances früherer Generationen, die hier nicht aufgelistet sind? Lesen Sie hierzu die Seite Instances der vorherigen Generation.

Jede vCPU ist ein Thread entweder eines Intel Xeon-Kern oder eines AMD EPYC-Kern, mit Ausnahme von T2 und m3.medium.

† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

Instances-Funktionen

Amazon EC2-Instances bieten eine Vielzahl weiterer Funktionen, mit deren Hilfe Sie Ihre Anwendungen bereitstellen, verwalten und skalieren können.

Burstfähige Instances

Amazon EC2 bietet Ihnen die Wahl zwischen Instances mit gleichbleibender Leistung (z. B. M5, C5 und R5) und burstfähigen Instances (z. B. T3). Burstfähige Instances bieten eine CPU-Basisleistung mit der Möglichkeit, diese Leistung für den Burstverkehr zu erhöhen.

T Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Der Stundenpreis der T-Instance deckt automatisch alle zwischenzeitlichen Auslastungsspitzen ab, wenn die durchschnittliche CPU-Auslastung einer T-Instance im Laufe eines 24-Stunden-Fensters der Basisleistung entspricht oder diese unterschreitet. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.

Bei T-Instances werden die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten per CPU-Guthaben verwaltet. Jede T-Instance erhält fortlaufend CPU-Guthaben. Die Rate hängt von der Instance-Größe ab. T-Instances sammeln im Leerlauf CPU-Guthaben und verbrauchen CPU-Guthaben, wenn sie aktiv sind. Ein CPU-Guthaben stellt die Leistung eines gesamten CPU-Kerns für eine Minute zur Verfügung.

Beispielsweise erhält eine Instance vom Typ t2.small fortlaufend Guthaben mit einer Rate von 12 CPU-Guthaben pro Stunde. Diese Fähigkeit stellt eine Basisleistung bereit, die 20 % eines CPU-Kerns entspricht (20 % x 60 Min. = 12 Min.). Wenn die Instance das erhaltene Guthaben nicht verbraucht, werden bis zu 288 GPU-Guthaben im CPU-Guthabensaldo aufbewahrt. Wenn die t2.small-Instance Spitzenlasten mit mehr als 20 % der Leistung eines Kerns verarbeiten muss, wird das vom CPU-Guthabensaldo abgezogen, um die Lastspitze nahtlos zu verarbeiten.

Wenn T2 Unlimited aktiviert ist, kann die t2.small-Instance auch dann Spitzenlasten oberhalb der Basisleistung verarbeiten, wenn der GPU-Guthabensaldo Null beträgt. Bei einem Großteil der Verarbeitungslasten für allgemeine Zwecke, bei denen die durchschnittliche CPU-Auslastung der Basisleistung entspricht oder darunter liegt, deckt der Basisstundenpreis für t2.small alle CPU-Bursts ab. Wenn die Instance über einen Zeitraum von 24 Stunden, nachdem der CPU-Guthabensaldo auf Null gesunken ist, mit durchschnittlich 25 % CPU-Auslastung (5 % über der Basisleistung) ausgeführt wird, werden zusätzlich 6 Cent in Rechnung gestellt (5 Cent/vCPU-Stunde x 1 vCPU x 5 % x 24 Stunden).

Viele Anwendungen wie Webserver, Entwicklungsumgebungen und kleine Datenbanken benötigen keine gleichbleibend hohe CPU-Leistung, profitieren aber stark von schnellen CPUs, wenn sie die Leistung benötigen. T-Instances sind besonders für diese Anwendungsfälle ausgelegt. Wenn Sie gleichbleibend hohe CPU-Leistung für Anwendungen wie Videocodierung, Websites mit hohem Durchsatz oder HPC-Anwendungen benötigen, verwenden Sie Instances mit konstanter Leistung. T-Instances sind so konzipiert, als stünden ihnen dedizierte Hochgeschwindigkeits-Intel-Kerne zur Verfügung, wenn Ihre Anwendung CPU-Leistung benötigt. Außerdem schützen sie zugleich vor der schwankenden Leistung und anderen häufigen Nebeneffekten, die in anderen Umgebungen i. d. R. bei zu vielen Abonnements auftreten.

Mehrere Speicheroptionen

Je nach Anforderungen bietet Amazon EC2 Ihnen die Wahl zwischen mehreren Speicheroptionen. Amazon EBS ist ein stabiles Speichervolume auf Blockebene, das Sie einer einzelnen ausgeführten Amazon EC2-Instance zuordnen können. Sie können Amazon EBS als primäres Speichermedium für Daten nutzen, die häufig und detailliert aktualisiert werden. Amazon EBS wird beispielsweise als Speicher empfohlen, wenn Sie eine Datenbank in Amazon EC2 ausführen. Amazon EBS-Volumes bleiben unabhängig von der Betriebsdauer einer einzelnen Amazon EC2-Instance erhalten. Sobald ein Volume einer Instance zugeordnet wurde, können Sie es wie ein physisches Festplattenlaufwerk nutzen. Amazon EBS bietet drei Volumetypen zum Erfüllen der Anforderungen Ihrer Workloads: Standard (SSD), bereitgestellte IOPS (SSD) und Magnetfestplatten. Standardvolumes (SSD) sind der neue SSD-gestützte EBS-Volumetyp für allgemeine Zwecke, den wir Kunden als Standardoption empfehlen. Standardvolumes (SSD) sind für ein breites Spektrum von Workloads einschließlich kleiner und mittelgroßer Datenbanken sowie Entwicklungs- und Testumgebungen geeignet und ideal für Startvolumes. Bereitgestellte IOPS-Volumes (SSD) bieten Speicher mit konsistenter Leistung sowie geringer Latenz und eignen sich für E/A-intensive Anwendungen wie große relationale oder NoSQL-Datenbanken. Magnetfestplattenvolumes verursachen von allen EBS-Volumetypen die niedrigsten Kosten pro GB. Magnetfestplattenvolumes sind ideal für Workloads mit seltenen Datenzugriffen und Szenarien, bei denen die Speicherkosten so niedrig wie möglich sein sollen.

Viele Amazon EC2-Instances können auch über Speicher auf Festplatten verfügen, die physisch an den Hostcomputer angeschlossen sind. Dieser Festplattenspeicher wird als Instance-Speicher bezeichnet. Instance-Speicher bietet Amazon EC2-Instances temporären Speicher auf Blockebene. Die Daten auf Instance-Speichervolumes bleiben nur für die Nutzungsdauer der zugehörigen Amazon EC2-Instance erhalten.

Zusätzlich zu Speicher auf Blockebene mithilfe von Amazon EBS- oder Instance-Speicher können Sie auch Amazon S3 als sehr stabilen und hoch verfügbaren Objektspeicher nutzen. Weitere Informationen zu den Speicheroptionen von Amazon EC2 finden Sie in der Amazon EC2-Dokumentation.

EBS-optimierte Instances

Gegen eine geringe zusätzliche Stundengebühr können Kunden bestimmte Amazon EC2-Instance-Typen als EBS-optimierte Instances starten. Für C5-, C4-, M5-, M4-, P3-, P2-, G3- und D2-Instances ist diese Funktion standardmäßig ohne Zusatzkosten aktiviert. Mit EBS-optimierten Instances können EC2-Instances die auf einem EBS-Volume bereitgestellte IOPS in vollem Umfang nutzen. EBS-optimierte Instances liefern je nach verwendetem Instance-Typ zwischen Amazon EC2 und Amazon EBS einen dedizierten Durchsatz mit Optionen von 500 bis 4.000 MBit/s. Durch den dedizierten Durchsatz werden Konflikte zwischen E/A-Vorgängen von Amazon EBS und anderem Datenverkehr Ihrer EC2-Instance minimiert, wodurch Ihre EBS-Volumes eine optimale Leistung liefern können. EBS-optimierte Instances sind für die Nutzung mit standardmäßigen und bereitgestellten IOPS-Volumes für Amazon EBS konzipiert. Bei Anbindung an EBS-optimierte Instances können bereitgestellte IOPS-Volumes Latenzen im einstelligen Millisekundenbereich erreichen. Außerdem sind sie so konzipiert, dass sie mindestens 10 % der bereitgestellten IOPS-Leistung in 99,9 % der Fälle liefern. Wir empfehlen bereitgestellte IOPS-Volumes mit EBS-optimierten Instances bzw. Instances, die Clusternetzwerke für Anwendungen mit hohen Speicher-E/A-Anforderungen unterstützen.

Clusternetzwerke

Ausgewählte EC2-Instances unterstützen Clusternetzwerke, wenn diese in einer gebräuchlichen Clusterplatzierungsgruppe ausgeführt werden. Eine Clusterplatzierungsgruppe ermöglicht einen Netzwerkbetrieb mit geringer Latenz zwischen allen Instances und Clustern. Die von einer EC2-Instance nutzbare Bandbreite richtet sich nach dem Instance-Typ und dessen Netzwerkleistung. Der Datenverkehr zwischen Instances in derselben Region kann bei einseitiger Übertragung bis zu 5 GBit/s und bei beidseitiger Übertragung bis zu 25 GBit/s in jede Richtung (Vollduplex) betragen. Der Datenverkehr von und zu S3-Buckets in derselben Region kann ebenfalls die gesamte verfügbare Aggregatsbandbreite von Instances verwenden. Instances, die in einer Platzierungsgruppe gestartet werden, können für einseitigen Datenverkehr Geschwindigkeiten von bis zu 10 GBit/s und für beidseitigen Datenverkehr Geschwindigkeiten von bis zu 25 GBit/s generieren. Der Netzwerkdatenverkehr ins Internet ist auf 5 GBit/s (Vollduplex) beschränkt. Clusternetzwerke eignen sich ideal für Hochleistungsanalysesysteme und viele wissenschaftliche und Konstruktionsanwendungen, insbesondere für diejenigen, die den MPI-Bibliotheksstandard für Parallelprogrammierung nutzen.

Intel-Prozessorfunktionen
intelinside_150

Amazon EC2-Instanzen, die über einen Intel-Prozessor verfügen, können den Zugriff auf die folgenden Prozessorfunktionen ermöglichen:

  • Intel AES New Instructions (AES-NI): Der Befehlssatz für Intel AES-NI-Verschlüsselung verbessert den Originalalgorithmus Advanced Encryption Standard (AES) in Hinblick auf schnelleren Datenschutz und bessere Sicherheit. Alle EC2-Instances der aktuellen Generation unterstützten diese Prozessorfunktion.
  • Intel Advanced Vector Extensions (Intel AVX, Intel AVX2 und Intel AVX-512): Intel AVX und Intel AVX2 sind Erweiterungen des 256-Bit-Befehlssatzes und Intel AVX-512 ist eine Erweiterung des 512-Bit-Befehlssatzes für Anwendungen mit vielen Gleitkommaoperationen. Intel AVX-Befehle verbessern die Leistung von Anwendungen für beispielsweise Bild-, Audio- und Videobearbeitung, wissenschaftliche Simulationen, Finanzanalysen sowie 3D-Modellierung und -Analysen. Diese Funktionen stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
  • Intel Turbo-Boost-Technik: Die Intel Turbo-Boost-Technik bietet bei Bedarf mehr Leistung. Der Prozessor ist in der Lage, Kerne schneller auszuführen als die Basisbetriebsfrequenz, damit Sie schneller arbeiten können.

Nicht alle Prozessorfunktionen sind für alle Instance-Typen verfügbar. In der detaillierten Übersicht über die Instance-Typen erfahren Sie, welche Funktionen von welchen Instance-Typen verfügbar sind.

Messen der Instance-Leistung

Warum sollten Sie die Leistung von Instances messen?

Amazon EC2 ermöglicht Ihnen die Bereitstellung einer Vielzahl von Instance-Typen, die verschiedene Kombinationen von CPU-, Arbeitsspeicher-, Datenträger- und Netzwerkfunktionen bieten. Das Starten neuer Instances und das parallele Ausführen von Tests ist einfach. Wir empfehlen die Leistung von Anwendungen zu messen, um geeignete Instance-Typen zu bestimmen und die Anwendungsarchitektur zu überprüfen. Außerdem können umfassende Auslastungs- und Skalierungstests nützlich sein, um zu prüfen, ob Anwendungen wie gewünscht skaliert werden können.

Amazon EC2-Leistungsbewertung

Amazon EC2 bietet zahlreiche Optionen für zehn verschiedene Instance-Typen mit jeweils mindestens einer Größenoption, die in sechs unterschiedliche Instance-Familien unterteilt sind, die für diverse Anwendungen optimiert sind. Wir empfehlen, die Anforderungen Ihrer Anwendungen zu analysieren und die geeignete Instance-Familie als Ausgangspunkt für das Testen der Anwendungsleistung auszuwählen. Gehen Sie zum Bewerten der Anwendungsleistung so vor: (1.) Bestimmen Sie Ihre Anwendungsanforderungen im Vergleich zu verschiedenen Instance-Familien (ist die Anwendung beispielsweise mehr von Rechenleistung oder Arbeitsspeicher abhängig?). (2.) Ermitteln Sie die Größe Ihrer Workloads, um die geeignete Instance-Größe zu bestimmen. Für das Messen der Leistung der gesamten Anwendung gibt es keinen Ersatz, da die Anwendungsleistung von der zugrunde liegenden Infrastruktur oder durch Software- und Architektureinschränkungen beeinträchtigt werden kann. Wir empfehlen Tests auf Anwendungsebene, einschließlich der Nutzung von Tools und Services für Auslastungstests und die Erstellung von Anwendungsprofilen.