Allgemeine Zwecke

Allzweck-Instances bieten ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkressourcen und können für eine Vielzahl unterschiedlicher Workloads verwendet werden. Diese Instances eignen sich ideal für Anwendungen, die diese Ressourcen zu gleichen Anteilen verwenden, z. B. Webserver und Code-Repositorys. 

  • Mac
  • Amazon-EC2-Mac-Instances ermöglichen Ihnen die bedarfsgerechte Ausführung von macOS-Workloads in der Cloud und machen die Flexibilität, Skalierbarkeit und Kostenvorteile von AWS für alle Apple-Entwickler zugänglich. Durch die Nutzung von EC2-Mac-Instances können Sie Apps für iPhone, iPad, Mac, Apple Watch, Apple TV und Safari erstellen. Diese EC2-Familie bietet Entwicklern Zugriff auf macOS, damit sie Anwendungen entwickeln, erstellen, testen und signieren können, für die Xcode-IDE erforderlich ist. EC2-Mac-Instances sind dedizierte Bare-Metal-Instances, auf die in der EC2-Konsole als Dedicated Hosts zugegriffen werden kann.

    x86-basierte EC2-Mac-Instances werden von einer Kombination aus Mac-Mini-Computern angetrieben – mit:

    • Intels Core i7-Prozessoren der 8. Generation mit 3,2 GHz (4,6 GHz Turbo)
    • 6 physische und 12 logische Kerne
    • 32 GiB Speicher
    • Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbps) EBS-Bandbreite (GBit/s)
    mac1.metal 12 32 Nur EBS 10 8

    EC2-M1-Mac-Instances werden von einer Kombination aus Apple-Silizium-Mac-Mini-Computern angetrieben – mit:

    • Der M1-Chip mit 8 CPU-Kernen
    • 8 GPU-Kerne
    • 16 GiB Speicher
    • Apple Neural Engine mit 16 Kernen
    • Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbps) EBS-Bandbreite (GBit/s)
    mac2.metal 8 16 Nur EBS 10 8

     

    Anwendungsfälle

    Entwickeln, Erstellen, Testen und Signieren von iOS-, iPadOS-, macOS-, WatchOS- und tvOS-Anwendungen auf der Xcode-IDE

  • T4g
  • Amazon-EC2-T4g-Instances werden von speziell entwickelten Arm-basierten AWS-Graviton2-Prozessoren betrieben und bieten ein bis zu 40 % besseres Preis-Leistungs-Verhältnis als T3-Instances für eine breite Palette von spitzenlastfähigen universellen Workloads.

    T4g-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T4g-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu verbessern. T4g-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.

    Funktionen:

    • Kostenlose Testversion von t4g.small-Instances für bis zu 750 Stunden pro Monat bis zum 31. Dezember 2022. Einzelheiten finden Sie in den häufig gestellten Fragen.
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Basisleistung / vCPU CPU-Guthaben verdient / Stunde Spitzenleistung der Netzwerkbandbreite (Gbit/s)*** Spitzenleistung der EBS-Bandbreite (Mbit/s)
    t4g.nano 2 0,5 5 % 6 Bis zu 5 Bis zu 2 085
    t4g.micro 2 1 10 % 12 Bis zu 5 Bis zu 2 085
    t4g.small 2 2 20 % 24 Bis zu 5 Bis zu 2 085
    t4g.medium 2 4 20 % 24 Bis zu 5 Bis zu 2 085
    t4g.large 2 8 30 % 36 Bis zu 5 Bis zu 2 780
    t4g.xlarge 4 16 40 % 96 Bis zu 5 Bis zu 2 780
    t4g.2xlarge 8 32 40 % 192 Bis zu 5 Bis zu 2 780

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen.

  • T3
  • Amazon-EC2-T3-Instances sind die nächste Generation von Instance-Typen mit Spitzenleistung, die für allgemeine Zwecke verwendet werden können, eine CPU-Basisleistung sowie die Möglichkeit bieten, die CPU-Auslastung jederzeit für den Spitzenlastleistungsverkehr so lange wie nötig zu erhöhen. T3-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen.

    T3-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu nutzen. T3-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.

    Funktionen:

    • Bis zu 3,1 GHz skalierbarer Intel Xeon-Prozessor (Skylake 8175M oder Cascade Lake 8259CL)
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • AWS Nitro System und Intel-Xeon-Scalable-Hochfrequenzprozessoren führen zu einer bis zu 30-prozentigen Preis-Leistungs-Verbesserung gegenüber T2-Instances
    Instance vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)***
    t3.nano 2
    6
    0,5 Nur EBS Bis zu 5
    t3.micro 2
    12
    1 Nur EBS
    Bis zu 5
    t3.small 2
    24
    2 Nur EBS
    Bis zu 5
    t3.medium 2 24
    4 Nur EBS
    Bis zu 5
    t3.large 2 36
    8 Nur EBS Bis zu 5
    t3.xlarge 4 96
    16 Nur EBS Bis zu 5
    t3.2xlarge 8 192
    32 Nur EBS Bis zu 5

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen

  • T3a
  • Amazon-EC2-T3a-Instances sind die nächste Generation von Instance-Typen mit Spitzenleistung, die für allgemeine Zwecke verwendet werden können, eine CPU-Basisleistung sowie die Möglichkeit bieten, die CPU-Auslastung jederzeit für den Spitzenlastleistungsverkehr so lange wie nötig zu erhöhen. T3a-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Arbeitsspeicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen. T3a-Instances sind um bis zu 10 % günstiger als vergleichbare Instance-Typen.

    T3a-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3a-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu verbessern. T3a-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.

    Funktionen:

    • Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)***
    t3a.nano 2
    6
    0,5 Nur EBS Bis zu 5
    t3a.micro 2
    12
    1 Nur EBS
    Bis zu 5
    t3a.small 2
    24
    2 Nur EBS
    Bis zu 5
    t3a.medium 2 24
    4 Nur EBS
    Bis zu 5
    t3a.large 2 36
    8 Nur EBS Bis zu 5
    t3a.xlarge 4 96
    16 Nur EBS Bis zu 5
    t3a.2xlarge 8 192
    32 Nur EBS Bis zu 5

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen

  • T2
  • Amazon-EC2-T2-Instances sind Instances mit Spitzenlastleistung, die eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.

    T2-Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T2 Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.

    Die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten werden über CPU-Guthaben verwaltet. T2-Instances erhalten je nach Instance-Größe kontinuierlich CPU-Guthaben mit einer festgelegten Rate, wobei sie CPU-Guthaben sammeln, wenn sie im Leerlauf sind, bzw. Guthaben verbrauchen, wenn sie aktiv sind. T2-Instances eignen sich ideal für eine breite Palette an Verarbeitungslasten für allgemeine Zwecke wie Microservices, interaktive Anwendungen mit geringer Latenz, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungs-, Build- und Stagingumgebungen, Code-Repositorys und Produktprototypen. Weitere Informationen finden Sie unter Instances mit Spitzenlastleistung.

    Funktionen:

    • Bis zu 3,3 GHz skalierbarer Intel Xeon-Prozessor (Haswell E5 - 2676 v3 oder Broadwell E5-2686 v4)
    • Hochfrequenz Intel Xeon Prozessoren
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Preiswerter Instance-Typ für allgemeine Zwecke mit wahlweise erhältlichem kostenlosem Kontingent*
    • Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen

    * nur t2.micro Bei einer Konfiguration als T2 Unlimited-Instance fallen möglicherweise Gebühren an, wenn die CPU-Nutzung die Basisleistung der Instance überschreitet. Weitere Informationen finden Sie in der Dokumentation.

    Instance vCPU* CPU-Guthaben / Stunde
    Arbeitsspeicher (GiB)  Speicher
    Netzwerkleistung
    t2.nano 1 3 0,5 Nur EBS Gering
    t2.micro 1 6 1 Nur EBS
    Gering bis mittel
    t2.small 1 12 2 Nur EBS
    Gering bis mittel
    t2.medium 2 24 4 Nur EBS
    Gering bis mittel
    t2.large 2 36 8 Nur EBS Gering bis mittel
    t2.xlarge 4 54 16 Nur EBS Mittel
    t2.2xlarge 8 81 32 Nur EBS Mittel

    Alle Instances haben die folgenden Spezifikationen:

    • Intel AVX†, Intel Turbo†
    • t2.nano, t2.micro, t2.small, t2.medium verfügen über einen skalierbaren Intel Xeon Prozessor mit bis zu 3,3 GHz
    • t2.large, t2.xlarge und t2.2xlarge verfügen über einen skalierbaren Intel-Prozessor mit bis zu 3,0 GHz

    Anwendungsfälle

    Websites und Webanwendungen, Entwicklungsumgebungen, Buildserver, Code-Repositorys, Microservices, Test- und Stagingumgebungen sowie Branchenanwendungen.  

  • M6g
  • Amazon-EC2-M6g-Instances werden mit armbasierten AWS-Graviton2-Prozessoren betrieben. Sie bieten im Vergleich zu M5-Instanzen der aktuellen Generation ein um bis zu 40 % günstigeres Preis-Leistungs-Verhältnis und bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen für eine breite Palette von Workloads.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den M6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    m6g.medium 1 4 Nur EBS Bis zu 10 Bis zu 4.750
    m6g.large 2 8 Nur EBS Bis zu 10 Bis zu 4.750
    m6g.xlarge 4 16 Nur EBS Bis zu 10 Bis zu 4.750
    m6g.2xlarge 8 32 Nur EBS Bis zu 10 Bis zu 4.750
    m6g.4xlarge 16 64 Nur EBS Bis zu 10 4.750
    m6g.8xlarge 32 128 Nur EBS 12 9.000
    m6g.12xlarge 48 192 Nur EBS 20 13.500
    m6g.16xlarge 64 256 Nur EBS 25 19.000
    m6g.metal 64 256 Nur EBS 25 19.000
    m6gd.medium 1 4 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750
    m6gd.large 2 8 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750
    m6gd.xlarge 4 16 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750
    m6gd.2xlarge 8 32 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750
    m6gd.4xlarge 16 64 1 x 950 NVMe-SSD Bis zu 10 4.750
    m6gd.8xlarge 32 128 1 x 1.900 NVMe-SSD 12 9.000
    m6gd.12xlarge 48 192 2 x 1.425 NVMe-SSD 20 13.500
    m6gd.16xlarge 64 256 2 x 1.900 NVMe-SSD 25 19.000
    m6gd.metal 64 256 2 x 1.900 NVMe-SSD 25 19.000

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Anwendungen, die auf Open-Source-Software basieren, z. B. Anwendungsserver, Microservices, Spieleserver, mittelgroße Datenspeicher und Caching-Flotten.

  • M6i
  • Amazon-EC2-M6i-Instances werden mit skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) betrieben. Diese Familie bietet eine ausgewogene Kombination von Computer-, Speicher- und Netzwerkressourcen und ist für viele Anwendungen eine gute Wahl.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 15 % bessere Rechenpreisleistung gegenüber M5-Instances
    • Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu M5-Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 512 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    • Bei M6id Instances sind bis zu 7,6 TB lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M6i-Instance gekoppelt ist
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    m6i.large 2 8 Nur EBS Bis zu 12,5 Bis zu 10
    m6i.xlarge 4 16 Nur EBS Bis zu 12,5 Bis zu 10
    m6i.2xlarge 8 32 Nur EBS Bis zu 12,5 Bis zu 10
    m6i.4xlarge 16 64 Nur EBS Bis zu 12,5 Bis zu 10
    m6i.8xlarge 32 128 Nur EBS 12,5 10
    m6i.12xlarge 48 192 Nur EBS 18,75 15
    m6i.16xlarge 64 256 Nur EBS 25 20
    m6i.24xlarge 96 384 Nur EBS 37,5 30
    m6i.32xlarge 128 512 Nur EBS 50 40
    m6i.metal 128 512 Nur EBS 50 40
    m6id.large 2 8 1 x 118 NVMe SSD Bis zu 12,5 Bis zu 10
    m6id.xlarge 4 16 1 x 237 NVMe SSD Bis zu 12,5 Bis zu 10
    m6id.2xlarge 8 32 1 x 474 NVMe SSD Bis zu 12,5 Bis zu 10
    m6id.4xlarge 16 64 1x950 NVMe SSD Bis zu 12,5 Bis zu 10
    m6id.8xlarge 32 128 1 x 1900 NVMe SSD 12,5 10
    m6id.12xlarge 48 192 2 x 1425 NVMe SSD 18,75 15
    m6id.16xlarge 64 256 2x1900 NVMe SSD 25 20
    m6id.24xlarge 96 384 4 x 1425 NVMe SSD 37,5 30
    m6id.32xlarge 128 512 4 x 1900 NVMe SSD 50 40
    m6id.metal 128 512 4 x 1900 NVMe SSD 50 40

    Anwendungsfälle

    Diese Instances sind SAP-zertifiziert und eignen sich ideal für Workloads wie Backend-Server, die Unternehmensanwendungen unterstützen (z. B. Datenbanken von Microsoft Exchange und SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server und PostgreSQL-Datenbanken), Spiele-Server, Caching-Flotten sowie für Anwendungs-Entwicklungsumgebungen.

  • M6a
  • Amazon-EC2-M6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind ideal für allgemeine Workloads geeignet.

    Funktionen:

    • Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Bis zu 35 % bessere Rechenpreisleistung gegenüber M5a-Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Instance-Größe mit bis zu 192 vCPUs und 768 GB Speicher
    • SAP-zertifizierte Instances
    • Unterstützt Elastic Fabric Adapter in der 48xlarge-Größe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)   
    • Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    m6a.large 2 8 Nur EBS Bis zu 12,5 Bis zu 6,6
    m6a.xlarge 4 16 Nur EBS Bis zu 12,5 Bis zu 6,6
    m6a.2xlarge 8 32 Nur EBS Bis zu 12,5 Bis zu 6,6
    m6a.4xlarge 16 64 Nur EBS Bis zu 12,5 Bis zu 6,6
    m6a.8xlarge 32 128 Nur EBS 12,5 6.6
    m6a.12xlarge 48 192 Nur EBS 18,75 10
    m6a.16xlarge 64 256 Nur EBS 25 13,3
    m6a.24xlarge 96 384 Nur EBS 37,5 20
    m6a.32xlarge 128 512 Nur EBS 50 26,6
    m6a.48xlarge 192 768 Nur EBS 50 40
    m6a.metal 192 768 Nur EBS 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Diese Instances sind SAP-zertifiziert und eignen sich ideal für Workloads wie Backend-Server zur Unterstützung von Unternehmensanwendungen (z. B. Microsoft Exchange und SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server und PostgreSQL-Datenbanken), Multiplayer-Gaming-Server, Caching-Flotten sowie für Anwendungsentwicklungsumgebungen.

  • M5
  • Amazon-EC2-M5-Instances sind die neueste Generation von Allzweck-Instances, die von Intel-Xeon®-Platinum-8175M-Prozessoren angetrieben werden. Diese Familie bietet eine ausgewogene Kombination von Computer-, Speicher- und Netzwerkressourcen und ist für viele Anwendungen eine gute Wahl.

    Funktionen:

    • Bis zu 3,1 GHz Intel Xeon Scalable Prozessor (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
    • Neue größere Instance-Größe, m5.24xlarge, mit 96 vCPUs und 384 GiB Speicher
    • Bis zu 25 Gbit/s Netzwerkbandbreite über Enhanced Networking
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Bei M5d Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
    • Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
    Instance-Größe
    vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher
    (GB)
    Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    m5.large 2 8 Nur EBS Bis zu 10 Bis zu 4.750
    m5.xlarge 4 16 Nur EBS Bis zu 10 bis zu 4.750
    m5.2xlarge 8 32 Nur EBS Bis zu 10 bis zu 4.750
    m5.4xlarge 16 64 Nur EBS Bis zu 10 4 750
    m5.8xlarge 32 128 Nur EBS 10 6.800
    m5.12xlarge 48 192 Nur EBS 12 9 500
    m5.16xlarge 64 256 Nur EBS 20 13.600
    m5.24xlarge 96 384 Nur EBS 25 19.000
    m5.metal 96* 384 Nur EBS 25 19.000
    m5d.large 2 8 1 x 75 NVMe-SSD Bis zu 10 Bis zu 4.750
    m5d.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 10 Bis zu 4.750
    m5d.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 10 Bis zu 4.750
    m5d.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 10 4 750
    m5d.8xlarge 32 128 2 x 600 NVMe-SSD 10 6.800
    m5d.12xlarge 48 192 2 x 900 NVMe-SSD 12 9 500
    m5d.16xlarge 64 256 4 x 600 NVMe-SSD 20 13.600
    m5d.24xlarge 96 384 4 x 900 NVMe-SSD 25 19.000
    m5d.metal 96* 384 4 x 900 NVMe-SSD 25 19.000

    * m5.metal und m5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Backend-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • M5a
  • Bei Amazon-EC2-M5a-Instances handelt es sich um Allzweck-Instances der neuesten Generation mit Prozessoren der AMD-EPYC-7000-Serie. M5a-Instances sind um bis zu 10 % günstiger als vergleichbare Instance-Typen. Bei den M5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden. Außerdem wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.

    Funktionen:

    • Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
    • Bis zu 20 Gbit/s Netzwerkbandbreite mit Enhanced Networking
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit M5ad-Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M5a-Instance gekoppelt ist
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB)
    Instance-Speicher
    (GB)

    Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    m5a.large 2 8 Nur EBS Bis zu 10 Bis zu 2.880
    m5a.xlarge 4 16 Nur EBS Bis zu 10 Bis zu 2.880
    m5a.2xlarge 8 32 Nur EBS Bis zu 10 Bis zu 2.880
    m5a.4xlarge 16 64 Nur EBS Bis zu 10 2.880
    m5a.8xlarge 32 128 Nur EBS Bis zu 10 4 750
    m5a.12xlarge 48 192 Nur EBS 10 6.780
    m5a.16xlarge 64 256 Nur EBS 12 9 500
    m5a.24xlarge 96 384 Nur EBS 20 13 570
    m5ad.large 2 8 1 x 75 NVMe-SSD Bis zu 10 Bis zu 2.880
    m5ad.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 10 Bis zu 2.880
    m5ad.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 10 Bis zu 2.880
    m5ad.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 10 2.880
    m5ad.8xlarge 32 128 2 x 600 NVMe-SSD Bis zu 10 4 750
    m5ad.12xlarge 48 192 2 x 900 NVMe-SSD 10 6.870
    m5ad.16xlarge 64 256 4 x 600 NVMe-SSD 12 9 500
    m5ad.24xlarge 96 384 4 x 900 NVMe-SSD 20 13 570

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Backend-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • M5n
  • Amazon-EC2-M5-Instances sind für Workloads ideal, die ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkleistung einschließlich Web- und Anwendungsservern, kleinen und mittleren Datenbankgrößen, Cluster Computing, Gaming-Servern und Cache-Flotten erfordern. Die Instance-Varianten mit größerer Bandbreite M5n und M5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.
    Funktion:

    • Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
    • Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
    • 25 GBit/s Spitzenbandbreite auf kleineren Instance-Größen 
    • 100 GBit/s Netzwerkbandbreite auf den größten Instance-Größen
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor 
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind 
    • Bei M5dn-Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
    Instance-Größe
    vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher
    (GB)
    Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    m5n.large 2 8 Nur EBS Bis zu 25 Bis zu 4.750
    m5n.xlarge 4 16 Nur EBS Bis zu 25 bis zu 4.750
    m5n.2xlarge 8 32 Nur EBS Bis zu 25 Bis zu 4.750
    m5n.4xlarge 16 64 Nur EBS Bis zu 25 4 750
    m5n.8xlarge 32 128 Nur EBS 25 6.800
    m5n.12xlarge 48 192 Nur EBS 50 9 500
    m5n.16xlarge 64 256 Nur EBS 75 13.600
    m5n.24xlarge 96 384 Nur EBS 100 19.000
    m5n.metal 96* 384 Nur EBS 100 19.000
    m5dn.large 2 8 1 x 75 NVMe-SSD Bis zu 25 Bis zu 4.750
    m5dn.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 25 Bis zu 4.750
    m5dn.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 25 Bis zu 4.750
    m5dn.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 25 4 750
    m5dn.8xlarge 32 128 2 x 600 NVMe-SSD 25 6.800
    m5dn.12xlarge 48 192 2 x 900 NVMe-SSD 50 9 500
    m5dn.16xlarge 64 256 4 x 600 NVMe-SSD 75 13.600
    m5dn.24xlarge 96 384 4 x 900 NVMe-SSD 100 19.000
    m5dn.metal 96* 384 4 x 900 NVMe-SSD 100 19.000

    *m5n.metal und m5dn.metal bieten 96 logische Prozessoren auf 48 physischen Kernen.

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Web- und Anwendungsserver, kleine und mittlere Datenbankgrößen, Cluster Computing, Spieleservern, Cachefarmen und andere Unternehmensanwendungen

  • M5zn
  • Amazon-EC2-M5zn-Instances sind die neueste Ergänzung der M5-Familie und verfügen über die schnellsten skalierbaren Intel-Xeon-Prozessoren in der Cloud, deren Taktfrequenz beim All-Core-Turbo bis zu 4,5 GHz beträgt.

    Funktionen:

    • Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8252C) mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz
    • Bis zu 100 Gbit/s Netzwerkbandbreite bei der größten Instance-Größe und Bare-Metal-Variante
    • Bis zu 19 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • 12-fache und Metallgrößen von M5zn-Instances nutzen die neueste Generation des Elastic Network Adapters und ermöglichen mit dem Elastic Fabric Adapter eine gleichbleibend niedrige Latenz
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB)
    Instance-Speicher
    (GB)

    Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    m5zn.large 2 8 Nur EBS Bis zu 25 Bis zu 3 170
    m5zn.xlarge 4 16 Nur EBS Bis zu 25 Bis zu 3 170
    m5zn.2xlarge 8 32 Nur EBS Bis zu 25 3 170
    m5zn.3xlarge 12 48 Nur EBS Bis zu 25 4 750
    m5zn.6xlarge 24 96 Nur EBS 50 9 500
    m5zn.12xlarge 48 192 Nur EBS 100 19.000
    m5zn.metal 48 192 Nur EBS 100 19.000
    2 x 300 NVMe-SSD
    2 x 300 NVMe-SSD

    Anwendungsfälle

    M5zn-Instanzen eignen sich ideal für Anwendungen, die von einer extrem hohen Single-Thread-Leistung und einem Netzwerk mit hohem Durchsatz und geringer Latenz profitieren, wie z. B. Spiele, High Performance Computing und Simulationsmodellierung für die Automobil-, Luft- und Raumfahrt-, Energie- und Telekommunikationsindustrie.

  • M4
  • Die Amazon-EC2-M4-Instances bieten ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen und eignen sich für zahlreiche Anwendungen.

    Funktionen:

    • Bis zu 2,4 GHz skalierbarer Intel Xeon-Prozessor (Broadwell E5-2686 v4 oder Haswell E5-2676 v3)
    • EBS-optimiert standardmäßig ohne zusätzliche Kosten
    • Unterstützung für Enhanced Networking
    • Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen
    Instance vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung***
    m4.large 2 8 Nur EBS 450 Mittel
    m4.xlarge 4 16 Nur EBS 750 Hoch
    m4.2xlarge 8 32 Nur EBS 1.000 Hoch
    m4.4xlarge 16 64 Nur EBS 2.000 Hoch
    m4.10xlarge 40 160 Nur EBS 4.000 10 Gigabit
    m4.16xlarge 64 256 Nur EBS 10 000 25 Gigabit

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben mit höherem Arbeitsspeicherbedarf, Cachefarmen und die Ausführung von Backend-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • A1
  • Amazon EC2 A1-Instances bieten erhebliche Kosteneinsparungen und sind ideal für Scale-Out- und Arm-basierte Workloads geeignet, die vom umfangreichen Arm-Ökosystem unterstützt werden. A1-Instances sind die ersten EC2-Instances, die powered by AWS-Graviton-Prozessoren sind, die mit 64-Bit-Arm-Neoverse-Kernen und kundenspezifischem Silizium von AWS betrieben werden.

    Funktionen:

    • Benutzerdefinierter AWS Graviton-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 10 Gbit/s
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    Instance vCPU Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)***
    a1.medium 1 2 Nur EBS
    Bis zu 10
    a1.larg 2 4 Nur EBS Bis zu 10
    a1.xlarge 4 8 Nur EBS Bis zu 10
    a1.2xlarge 8 16 Nur EBS Bis zu 10
    a1.4xlarge 16 32 Nur EBS Bis zu 10
    a1.metal 16* 32 Nur EBS Bis zu 10

    * a1.metal bietet 16 physische Kerne

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Skalieren Sie Workloads wie Webserver, containerisierte Microservices, Cachefarmen und verteilte Datenspeicher sowie Entwicklungsumgebungen

Jede vCPU ist ein Thread eines Intel Xeon-Kerns oder eines AMD EPYC-Kerns, mit Ausnahme von M6g-Instances, A1-Instances, T2-Instances und m3.medium.

Jede vCPU auf T4g- und M6g-Instances ist der Kern eines AWS Graviton2 Prozessors.

Jede vCPU auf A1-Instances ist der Kern eines AWS Graviton-Prozessors.

† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

** Diese M4-Instances können auf einem Intel Xeon E5-2686 v4-Prozessor (Broadwell) gestartet werden.  

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Für Datenverarbeitung optimiert

Rechenoptimierte Instances sind ideal für rechnergebundene Anwendungen, die von Hochleistungsprozessoren profitieren. Zu dieser Familie gehörende Instances eignen sich gut für Batch-Verarbeitungs-Workloads, Medientranscodierung, Hochleistungs-Webserver, Hochleistungs-Computing (HPC), wissenschaftliche Modellierung, dedizierte Gaming-Server und Ad-Server-Engines, Inferenzverfahren für Machine Learning und andere rechenintensive Anwendungen.

  • C7g
  • Amazon-EC2-C7g-Instances werden mit Arm-basierten AWS-Graviton3-Prozessoren betrieben. Sie bieten die beste Preisleistung in Amazon EC2 für rechenintensive Anwendungen.

    Funktionen:

    • Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
    • Mit dem neuesten DDR5-Speicher ausgestattet, der im Vergleich zu DDR4 50 % mehr Bandbreite bietet
    • 20 % höhere Netzwerkbandbreite im Vergleich zu C6g-Instances
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Unterstützt Elastic Fabric Adapter auf den c7g.16xlarge-Instances
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)

    c7g.medium

    1

    2

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7g.large

    2

    4

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7g.xlarge

    4

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7g.2xlarge

    8

    16

    Nur EBS

    Bis zu 15

    Bis zu 10

    c7g.4xlarge

    16

    32

    Nur EBS

    Bis zu 15

    Bis zu 10

    c7g.8xlarge

    32

    64

    Nur EBS

    15

    10

    c7g.12xlarge

    48

    96

    Nur EBS

    22,5

    15

    c7g.16xlarge

    64

    128

    Nur EBS

    30

    20

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    High Performance Computing (HPC), Batch-Verarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analysen und CPU-basierte Machine-Learning-Inferenz.

  • C6g
  • Amazon-EC2-C6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei rechenintensiven Anwendungen eine bis zu 40 % bessere Preisleistung als die aktuelle Generation der C5-Instances.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Mit den C6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    c6g.medium 1 2 Nur EBS Bis zu 10 Bis zu 4 750
    c6g.large 2 4 Nur EBS Bis zu 10 Bis zu 4 750
    c6g.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 4 750
    c6g.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 4 750
    c6g.4xlarge 16 32 Nur EBS Bis zu 10 4.750
    c6g.8xlarge 32 64 Nur EBS 12 9.000
    c6g.12xlarge 48 96 Nur EBS 20 13.500
    c6g.16xlarge 64 128 Nur EBS 25 19.000
    c6g.metal 64 128 Nur EBS 25 19.000
    c6gd.medium 1 2 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750
    c6gd.large 2 4 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750
    c6gd.xlarge 4 8 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750
    c6gd.2xlarge 8 16 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750
    c6gd.4xlarge 16 32 1 x 950 NVMe-SSD Bis zu 10 4.750
    c6gd.8xlarge 32 64 1 x 1.900 NVMe-SSD 12 9.000
    c6gd.12xlarge 48 96 2 x 1.425 NVMe-SSD 20 13.500
    c6gd.16xlarge 64 128 2 x 1.900 NVMe-SSD 25 19.000
    c6gd.metal 64 128 2 x 1.900 NVMe-SSD 25 19.000

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    High Performance Computing (HPC), Batch-Verarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analysen und CPU-basierte Machine Learning-Inferenz.

  • C6gn
  • Amazon-EC2-C6gn-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten eine um bis zu 40 % bessere Preisleistung als C5n-Instances der aktuellen Generation und bieten bis zu 100 Gbit/s Netzwerk und Unterstützung für Elastic Fabric Adapter (EFA) für Anwendungen, die einen höheren Netzwerkdurchsatz benötigen, wie z. B. High Performance Computing (HPC), Netzwerkgeräte, Echtzeit-Videokommunikation und Datenanalyse.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Support für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 100 Gbit/s
    • EFA-Support auf c6gn.16xlarge-Instances
    • Standardmäßig EBS-optimiert, 2x EBS-Bandbreite im Vergleich zu C5n-Instances
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)

    c6gn.medium

    1

    2

    Nur EBS

    Bis zu 25

    Bis zu 9,5

    c6gn.large

    2

    4

    Nur EBS

    Bis zu 25

    Bis zu 9,5

    c6gn.xlarge

    4

    8

    Nur EBS

    Bis zu 25

    Bis zu 9,5

    c6gn.2xlarge

    8

    16

    Nur EBS

    Bis zu 25

    Bis zu 9,5

    c6gn.4xlarge

    16

    32

    Nur EBS

    25

    9,5

    c6gn.8xlarge

    32

    64

    Nur EBS

    50

    19

    c6gn.12xlarge

    48

    96

    Nur EBS

    75

    28,5

    c6gn.16xlarge

    64

    128

    Nur EBS

    100

    38

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Hochleistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung.

  • C6i
  • Amazon-EC2-C6i-Instances werden von Intel-Xeon-Scalable-Prozessoren der 3. Generation angetrieben und sind die ideale Lösung für rechenintensive Workloads.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 15 % bessere Rechenpreisleistung gegenüber C5-Instances
    • Bis zu 9 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu C5-Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 256 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    • Bei C6id-Instances sind bis zu 7,6 TB an lokalen NVMe-basierten SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der C6i-Instance gekoppelt ist
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)

    c6i.large

    2

    4

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c6i.xlarge

    4

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c6i.2xlarge

    8

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c6i.4xlarge

    16

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c6i.8xlarge

    32

    64

    Nur EBS

    12,5

    10

    c6i.12xlarge

    48

    96

    Nur EBS

    18,75

    15

    c6i.16xlarge

    64

    128

    Nur EBS

    25

    20

    c6i.24xlarge

    96

    192

    Nur EBS

    37,5

    30

    c6i.32xlarge

    128

    256

    Nur EBS

    50

    40

    c6i.metal 128 256 Nur EBS 50 40

    c6id.large

    2

    4

    1 x 118 NVMe SSD

    Bis zu 12,5

    Bis zu 10

    c6id.xlarge

    4

    8

    1 x 237 NVMe SSD

    Bis zu 12,5

    Bis zu 10

    c6id.2xlarge

    8

    16

    1 x 474 NVMe SSD

    Bis zu 12,5

    Bis zu 10

    c6id.4xlarge

    16

    32

    1 x 950 NVMe SSD

    Bis zu 12,5

    Bis zu 10

    c6id.8xlarge

    32

    64

    1 x 1900 NVMe SSD

    12,5

    10

    c6id.12xlarge

    48

    96

    2 x 1425 NVMe SSD

    18,75

    15

    c6id.16xlarge

    64

    128

    2x1900 NVMe SSD

    25

    20

    c6id.24xlarge

    96

    192

    4 x 1425 NVMe SSD

    37,5

    30

    c6id.32xlarge

    128

    256

    4 x 1900 NVMe SSD

    50

    40

    c6id.metal 128 256 4 x 1900 NVMe SSD 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analytik, High Performance Computing (HPC), Ad Serving, hochskalierbare Multiplayer-Spiele und Videocodierung.

  • C6a
  • Amazon-C6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind ideal für rechenintensive Workloads geeignet.

    Funktionen:

    • Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Bis zu 15 % bessere Rechenpreisleistung gegenüber C5a- Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Bis zu 192 vCPUs und 384 GiB Speicher in der maximalen Größe
    • SAP-zertifizierte Instances
    • Unterstützt Elastic Fabric Adapter in der 48xlarge-Größe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)
    • Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    c6a.large 2 4 Nur EBS Bis zu 12,5 Bis zu 6,6
    c6a.xlarge 4 8 Nur EBS Bis zu 12,5 Bis zu 6,6
    c6a.2xlarge 8 16 Nur EBS Bis zu 12,5 Bis zu 6,6
    c6a.4xlarge 16 32 Nur EBS Bis zu 12,5 Bis zu 6,6
    c6a.8xlarge 32 64 Nur EBS 12,5 6.6
    c6a.12xlarge 48 96 Nur EBS 18,75 10
    c6a.16xlarge 64 128 Nur EBS 25 13,3
    c6a.24xlarge 96 192 Nur EBS 37,5 20
    c6a.32xlarge 128 256 Nur EBS 50 26,6
    c6a.48xlarge 192 384 Nur EBS 50 40
    c6a.metal 192 384 Nur EBS 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analytik, High Performance Computing (HPC), Ad Serving, hochskalierbare Multiplayer-Spiele und Videocodierung.

  • Hpc6a
  • Amazon-Hpc6a-Instances sind für eng gekoppelte, rechenintensive Hochleistungs-Rechenlasten optimiert und bieten kosteneffiziente Leistung. Hpc6a-Instanzen sind für Workloads wie computergestützte Flüssigkeitsdynamik, Molekulardynamik und Wettervorhersage sowie für andere Workloads konzipiert, die von der verbesserten Netzwerkdurchsatz- und Paketratenleistung profitieren können.

    Funktionen:

    • Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 100 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
    • Simultanes Multi-Threading ist deaktiviert, um Leistung und Cluster-Management zu optimieren
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe Kerne Arbeitsspeicher (GiB) EFA-Netzwerkbandbreite (Gbps) Netzwerkbandbreite (GBit/s)*
    Hpc6a.48xlarge 96 384 100 25


    *25 Gbit/s Netzwerkbandbreite außerhalb der VPC, S3 oder EBS.

  • C5
  • Amazon-EC2-C5-Instances sind für rechenintensive Workloads optimiert und bieten kosteneffiziente hohe Leistung zu einem niedrigen Preis pro Rechenleistung..

    Funktionen:

    • C5-Instances bieten eine Auswahl an Prozessoren, die auf der Größe der Instance basieren.
    • Die Instance-Größen C5 und C5d 12xlarge, 24xlarge und Metal verfügen über benutzerdefinierte skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8275CL) mit einer anhaltenden All-Core-Turbofrequenz von 3,6 GHz und einer Single-Core-Turbofrequenz von bis zu 3,9 GHz. 
    • Andere C5-Instance-Größen werden auf skalierbaren Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8223CL) oder Intel Xeon Platinum 8000-Prozessoren der 1. Generation (Skylake 8124M) mit einer anhaltenden All-Core-Turbo-Frequenz von bis zu 3,4 GHz und Single-Core-Turbo-Frequenz eingeführt von bis zu 3,5 GHz.
    • Neue, größere 24xlarge-Instance-Größe bietet 96 vCPUs, 192 GiB Arbeitsspeicher und optionale 3,6 TB lokale NVMe-basierte SSDs
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Mit den C5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der C5-Instance verknüpft ist
    • Elastic Network Adapter (ENA) bietet C5-Instances mit einer Netzwerkbandbreite von bis zu 25 Gbit/ und bis zu 19 Gbit/s dedizierter Bandbreite für Amazon EBS.
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    c5.large 2 4 Nur EBS Bis zu 10 Bis zu 4.750
    c5.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 4.750
    c5.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 4.750
    c5.4xlarge 16 32 Nur EBS Bis zu 10 4.750
    c5.9xlarge 36 72 Nur EBS 10 9.500
    c5.12xlarge 48 96 Nur EBS 12 9.500
    c5.18xlarge 72 144 Nur EBS 25 19.000
    c5.24xlarge 96 192 Nur EBS 25 19.000
    c5.metal 96 192 Nur EBS 25 19.000
    c5d.large 2 4 1 x 50 NVMe-SSD Bis zu 10 bis zu 4.750
    c5d.xlarge 4 8 1 x 100 NVMe-SSD Bis zu 10 Bis zu 4.750
    c5d.2xlarge 8 16 1 x 200 NVMe-SSD Bis zu 10 Bis zu 4.750
    c5d.4xlarge 16 32 1 x 400 NVMe-SSD Bis zu 10 4.750
    c5d.9xlarge 36 72 1 x 900 NVMe-SSD 10 9.500
    c5d.12xlarge 48 96 2 x 900 NVMe-SSD 12 9.500
    c5d.18xlarge 72 144 2 x 900 NVMe-SSD 25 19.000
    c5d.24xlarge 96 192 4 x 900 NVMe-SSD 25 19.000
    c5d.metal 96 192 4 x 900 NVMe-SSD 25 19.000

    C5- und C5d-Instances der Größen 12xlarge, 24xlarge und Metal haben die folgenden Spezifikationen:

    Alle C5- und C5d-Instances haben die folgenden Spezifikationen:

    • Benutzerdefinierte Intel Xeon Scalable-Prozessoren der 2. Generation (Cascade Lake) mit einer dauerhaften Turbofrequenz von 3,6 GHz für alle Kerne und einer Turbofrequenz von bis zu 3,9 GHz für einen Kern oder Intel Xeon Platinum 8000-Prozessoren der 1. Generation (Skylake-SP) mit einer dauerhaften Turbofrequenz von bis zu 3,4 GHz für alle Kerne und einer Turbofrequenz von bis zu 3,5 GHz für einen Kern.
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
    • EBS-optimiert
    • Enhanced Networking†

    Anwendungsfälle

    Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung

  • C5a
  • Amazon-EC2-C5a-Instances bieten ein führendes x86-Preis-Leistungs-Verhältnis für eine breite Palette rechenintensiver Workloads.

    Funktionen:

    • Prozessoren der AMD EPYC 7002-Serie der 2. Generation (AMD EPYC 7R32) mit einer Frequenz von bis zu 3,3 GHz
    • Elastic Network Adapter (ENA) bietet C5a-Instances bis zu 20 Gbit/s Netzwerkbandbreite und bis zu 9,5 Gbit/s dedizierte Bandbreite für Amazon EBS
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Mit den C5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der C5a-Instance verknüpft ist.
    Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    c5a.large 2 4 Nur EBS Bis zu 10
    Bis zu 3 170
    c5a.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 3 170
    c5a.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 3 170
    c5a.4xlarge 16 32 Nur EBS Bis zu 10 Bis zu 3 170
    c5a.8xlarge 32 64
    Nur EBS 10 3 170
    c5a.12xlarge 48 96 Nur EBS 12 4.750
    c5a.16xlarge 64 128 Nur EBS 20 6 300
    c5a.24xlarge 96 192 Nur EBS 20 9.500
    c5ad.large 2 4 1 x 75 NVMe-SSD Bis zu 10 Bis zu 3 170
    c5ad.xlarge 4 8 1 x 150 NVMe-SSD Bis zu 10 Bis zu 3 170
    c5ad.2xlarge 8 16 1 x 300 NVMe-SSD Bis zu 10 Bis zu 3 170
    c5ad.4xlarge 16 32 2 x 300 NVMe-SSD Bis zu 10 Bis zu 3 170
    c5ad.8xlarge 32 64 2 x 600 NVMe-SSD 10 3 170
    c5ad.12xlarge 48 96 2 x 900 NVMe-SSD 12 4.750
    c5ad.16xlarge 64 128 2 x 1200 NVMe-SSD 20 6 300
    c5ad.24xlarge 96 192 2 x 1.900 NVMe-SSD 20 9.500

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    C5a-Instances eignen sich hervorragend für Workloads, die eine hohe vCPU-Rechenleistung und Speicherbandbreite erfordern. Dazu gehören Stapelverarbeitungsvorgänge, verteilte Analysen, Datenumwandlungsaufgaben, Gaming, Protokollanalysen, Webanwendungen und andere rechenintensive Workloads.

  • C5n
  • Amazon-EC2-C5n-Instances eigenen sich am besten für hochgradig rechenintensive Anwendungen (einschließlich High Performance Computing (HPC)-Workloads, Data Lakes und Netzwerkanwendungen, wie Firewalls und Router), die einen verbesserten Netzwerkdurchsatz und eine bessere Paketrate für Leistung nutzen können. C5n-Instances bieten eine Netzwerkbandbreite von bis zu 100 Gbit/s und mehr Speicher im Vergleich zu C5-Instances. C5n.18xlarge-Instances unterstützen Elastic Fabric Adapter (EFA), eine Netzwerkschnittstelle für Amazon-EC2-Instances, mit der Kunden Anwendungen ausführen können, die eine hohe Kommunikation zwischen Knoten erfordern, z. B. High Performance Computing (HPC)-Anwendungen mit Hilfe von Message Passing Interface (MPI) in großem Maßstab auf AWS.

    Funktionen:

    • 3,0 GHz Intel Xeon Platinum Prozessoren (Skylake 8124) mit Intel Advanced Vector Extension 512 (AVX-512) Befehlssatz
    • Anhaltende All-Core-Turbofrequenz von bis zu 3,4 GHz und Single-Core-Turbofrequenz von bis zu 3,5 GHz
    • Die höhere Instance-Größe c5n.18xlarge bietet 72 vCPUs und 192 GiB Arbeitsspeicher
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Netzwerkbandbreite erhöht sich um bis zu 100 Gbit/s und liefert so eine bessere Netzwerkleistung für netzwerkintensive Anwendungen.
    • EFA-Support auf c5n.18xlarge-Instances
    • 33 % höherer Speicherbedarf als C5-Instances
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    c5n.large 2 5.25 Nur EBS Bis zu 25
    Bis zu 4.750
    c5n.xlarge 4 10.5 Nur EBS Bis zu 25 Bis zu 4.750
    c5n.2xlarge 8 21 Nur EBS Bis zu 25 Bis zu 4.750
    c5n.4xlarge 16 42 Nur EBS Bis zu 25 4.750
    c5n.9xlarge 36 96
    Nur EBS 50 9.500
    c5n.18xlarge 72 192 Nur EBS 100 19.000
    c5n.metal 72 192 Nur EBS 100 19.000

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung

  • C4
  • C4-Instances sind für rechenintensive Workloads optimiert und liefern Datenverarbeitung auf höchstem Niveau zu einem äußerst günstigen Preis.

    Funktionen:

    • Bis zu 2,9 GHz skalierbarer Intel Xeon-Prozessor (Haswell E5-2666 v3)
    • Hochfrequenz Intel Xeon E5-2666 v3 (Haswell) Prozessoren, die speziell für EC2 optimiert wurden
    • Standardmäßig EBS-optimiert für eine höhere Speicherleistung ohne zusätzliche Kosten
    • Höhere Netzwerkleistung durch Enhanced Networking mit Intel 82599 VF-Unterstützung
    • Erfordert Amazon VPC, Amazon EBS und 64-Bit-HVM-AMIs
    Instance vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung
    c4.large 2 3,75 Nur EBS 500 Mittel
    c4.xlarge 4 7,5 Nur EBS 750 Hoch
    c4.2xlarge 8 15 Nur EBS 1.000 Hoch
    c4.4xlarge 16 30 Nur EBS 2.000 Hoch
    c4.8xlarge 36 60 Nur EBS 4.000 10 Gigabit

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Front-End-Serverfarmen mit hoher Leistung, Webserver, Batch-Verarbeitung, verteilte Analysen, wissenschaftliche und technische Anwendungen mit hoher Leistung, Ad-Serving, MMO-Gaming und Videocodierung.

Jede vCPU auf C7g-Instances ist der Kern eines AWS-Graviton3-Prozessors.

Jede vCPU auf C6g- und C6gn-Instances ist der Kern eines AWS-Graviton2-Prozessors.

† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Arbeitsspeicheroptimiert

Arbeitsspeicheroptimierte Instances bieten eine schnelle Leistung für Workloads, die große Datenmengen im Speicher verarbeiten.

  • R6a
  • Amazon-EC2-R6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind ideal für speicherintensive Workloads geeignet.

    Funktionen:

    • Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Bis zu 35 % bessere Rechenpreisleistung gegenüber R5a-Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Instance-Größe mit bis zu 192 vCPUs und 1,536 GB Speicher
    • SAP-zertifizierte Instances
    • Unterstützt Elastic Fabric Adapter in der 48xlarge- und Metal-Größen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)
    • Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    r6a.large 2 16 Nur EBS Bis zu 12,5 Bis zu 6,6
    r6a.xlarge 4 32 Nur EBS Bis zu 12,5 Bis zu 6,6
    r6a.2xlarge 8 64 Nur EBS Bis zu 12,5 Bis zu 6,6
    r6a.4xlarge 16 128 Nur EBS Bis zu 12,5 Bis zu 6,6
    r6a.8xlarge 32 256 Nur EBS 12,5 6.6
    r6a.12xlarge 48 384 Nur EBS 18,75 10
    r6a.16xlarge 64 512 Nur EBS 25 13,3
    r6a.24xlarge 96 768 Nur EBS 37,5 20
    r6a.32xlarge 128 1024 Nur EBS 50 26,6
    r6a.48xlarge 192 1 536 Nur EBS 50 40
    r6a.metal 192 1 536 Nur EBS 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Speicherintensive Workloads wie SAP-, SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches wie Memcached und Redis, In-Memory-Datenbanken und Big-Data-Analysen in Echtzeit wie Hadoop- und Spark-Cluster, sowie andere Unternehmensanwendungen

  • R6g
  • Amazon-EC2-R6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei arbeitsspeicherintensiven Anwendungen eine bis zu 40 % bessere Preisleistung als die aktuelle Generation der R5-Instances.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Mit den R6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    r6g.medium 1 8 Nur EBS Bis zu 10 Bis zu 4 750
    r6g.large 2 16 Nur EBS Bis zu 10 Bis zu 4 750
    r6g.xlarge 4 32 Nur EBS Bis zu 10 Bis zu 4 750
    r6g.2xlarge 8 64 Nur EBS Bis zu 10 Bis zu 4 750
    r6g.4xlarge 16 128 Nur EBS Bis zu 10 4.750
    r6g.8xlarge 32 256 Nur EBS 12 9.000
    r6g.12xlarge 48 384 Nur EBS 20 13.500
    r6g.16xlarge 64 512 Nur EBS 25 19.000
    r6g.metal 64 512 Nur EBS 25 19.000
    r6gd.medium 1 8 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750
    r6gd.large 2 16 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750
    r6gd.xlarge 4 32 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750
    r6gd.2xlarge 8 64 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750
    r6gd.4xlarge 16 128 1 x 950 NVMe-SSD Bis zu 10 4.750
    r6gd.8xlarge 32 256 1 x 1.900 NVMe-SSD 12 9.000
    r6gd.12xlarge 48 384 2 x 1.425 NVMe-SSD 20 13.500
    r6gd.16xlarge 64 512 2 x 1.900 NVMe-SSD 25 19.000
    r6gd.metal 64 512 2 x 1.900 NVMe-SSD 25 19.000

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Arbeitsspeicherintensive Anwendungen wie Open-Source-Datenbanken, In-Memory-Caches und Big Data-Analysen in Echtzeit

  • R6i
  • Amazon-R6i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) angetrieben und eignen sich ideal für speicherintensive Workloads.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 15 % bessere Rechenpreisleistung gegenüber R5-Instances
    • Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu R5-Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 1.024 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    • Bei R6id-Instances sind bis zu 7,6 TB lokaler NVMe-basierter SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der R6i-Instance gekoppelt ist.
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    r6i.large 2 16 Nur EBS Bis zu 12,5 Bis zu 10
    r6i.xlarge 4 32 Nur EBS Bis zu 12,5 Bis zu 10
    r6i.2xlarge 8 64 Nur EBS Bis zu 12,5 Bis zu 10
    r6i.4xlarge 16 128 Nur EBS Bis zu 12,5 Bis zu 10
    r6i.8xlarge 32 256 Nur EBS 12,5 10
    r6i.12xlarge 48 384 Nur EBS 18,75 15
    r6i.16xlarge 64 512 Nur EBS 25 20
    r6i.24xlarge 96 768 Nur EBS 37,5 30
    r6i.32xlarge 128 1.024 Nur EBS 50 40
    r6i.metal 128 1.024 Nur EBS 50 40
    r6id.large 2 16 1 x 118 NVMe SSD Bis zu 12,5 Bis zu 10
    r6id.xlarge 4 32 1 x 237 NVMe SSD Bis zu 12,5 Bis zu 10
    r6id.2xlarge 8 64 1 x 474 NVMe SSD Bis zu 12,5 Bis zu 10
    r6id.4xlarge 16 128 1 x 950 NVMe SSD Bis zu 12,5 Bis zu 10
    r6id.8xlarge 32 256 1 x 1900 NVMe SSD 12,5 10
    r6id.12xlarge 48 384 2 x 1425 NVMe SSD 18,75 15
    r6id.16xlarge 64 512 2 x 1900 NVMe SSD 25 20
    r6id.24xlarge 96 768 4 x 1425 NVMe SSD 37,5 30
    r6id.32xlarge 128 1 024 4 x 1900 NVMe SSD 50 40
    r6id.metal 128 1 024 4 x 1900 NVMe SSD 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Speicherintensive Workloads wie SAP-, SQL- und NoSQL-Datenbanken, verteilte Web-Scale-In-Memory-Caches wie Memcached und Redis, In-Memory-Datenbanken wie SAP HANA und Big-Data-Analysen in Echtzeit wie Hadoop- und Spark-Cluster.

  • R5
  • Amazon-EC2-R5-Instances liefern 5 % zusätzlichen Arbeitsspeicher pro vCPU als R4 und die umfangreichste Größe hat 768 GiB Arbeitsspeicher. Außerdem bieten R5-Instances eine Verbesserung von 10 % beim Preis pro GiB und eine etwa 20 % höhere CPU-Leistung gegenüber R4.

    Funktionen:

    • Prozessoren der Intel Xeon® Platinum 8000-Serie mit bis zu 3,1 GHz (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512)-Befehlssatz
    • Bis zu 768 GiB Arbeitsspeicher pro Instance
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Mit den R5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
    • Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
    Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    r5.large 2 16 Nur EBS Bis zu 10 Bis zu 4.750
    r5.xlarge 4 32 Nur EBS Bis zu 10 Bis zu 4.750
    r5.2xlarge 8 64 Nur EBS Bis zu 10 Bis zu 4.750
    r5.4xlarge 16 128 Nur EBS Bis zu 10 4.750
    r5.8xlarge 32 256 Nur EBS 10 6.800
    r5.12xlarge 48 384 Nur EBS 10 9.500
    r5.16xlarge 64 512 Nur EBS 20 13.600
    r5.24xlarge 96 768 Nur EBS 25 19.000
    r5.metal 96* 768 Nur EBS 25 19.000
    r5d.large 2 16 1 x 75 NVMe-SSD Bis zu 10 Bis zu 4.750
    r5d.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 10 Bis zu 4.750
    r5d.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 10 Bis zu 4.750
    r5d.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 10 4.750
    r5d.8xlarge 32 256 2 x 600 NVMe-SSD 10 6.800
    r5d.12xlarge 48 384 2 x 900 NVMe-SSD 10 9.500
    r5d.16xlarge 64 512 4 x 600 NVMe-SSD 20 13.600
    r5d.24xlarge 96 768 4 x 900 NVMe-SSD 25 19.000
    r5d.metal 96* 768 4 x 900 NVMe-SSD 25 19.000

    * r5.metal und r5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    R5-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.

  • R5a
  • Amazon-EC2-R5a-Instances sind die neueste Generation der arbeitsspeicheroptimierten Instances. Sie sind ideal für arbeitsspeicherbasierte Workloads und verwenden Prozessoren der AMD-EPYC-7000-Serie. R5a-Instances bieten um bis zu 10 % günstigere Kosten pro GiB als vergleichbare Instances.

    Funktionen:

    • Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
    • Bis zu 20 Gbit/s Netzwerkbandbreite mit Enhanced Networking
    • Bis zu 768 GiB Arbeitsspeicher pro Instance
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den R5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Host-Server verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5a-Instance gekoppelt ist
    Instance-Größe
    vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    r5a.large 2 16
    Nur EBS Bis zu 10 
    Bis zu 2.880
    r5a.xlarge 4 32 Nur EBS Bis zu 10  Bis zu 2.880
    r5a.2xlarge 8 64 Nur EBS Bis zu 10  Bis zu 2.880
    r5a.4xlarge 16 128 Nur EBS Bis zu 10  2.880
    r5a.8xlarge 32 256 Nur EBS Bis zu 10 4.750
    r5a.12xlarge 48 384 Nur EBS 10 6.780
    r5a.16xlarge 64 512 Nur EBS 12 9.500
    r5a.24xlarge 96 768 Nur EBS 20 13 570
    r5ad.large 2 16 1 x 75 NVMe-SSD Bis zu 10
    Bis zu 2.880
    r5ad.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 10
    Bis zu 2.880
    r5ad.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 10
    Bis zu 2.880
    r5ad.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 10
    2.880
    r5ad.8xlarge 32 256 2 x 600 NVMe-SSD Bis zu 10 4.750
    r5ad.12xlarge 48 384 2 x 900 NVMe-SSD 10 6.780
    r5ad.16xlarge 64 512 4 x 600 NVMe-SSD 12 9.500
    r5ad.24xlarge 96 768 4 x 900 NVMe-SSD 20 13 570

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    R5a-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.

  • R5b
  • Amazon-EC2-R5b-Instances sind EBS-optimierte Varianten speicheroptimierter R5-Instances. R5b-Instances erhöhen die EBS-Leistung im Vergleich zu R5-Instances gleicher Größe um das Dreifache. R5b-Instances bieten eine Bandbreite von bis zu 60 Gbit/s und eine EBS-Leistung von 260K IOPS – die höchste Blockspeicherleistung in EC2.

    Funktionen:

    • Benutzerdefinierte skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
    • Bis zu 96 vCPUs, bis zu 768 GiB Arbeitsspeicher
    • Bis zu 25 Gbit/s Netzwerkbandbreite
    • Bis zu 60 Gbit/s an EBS-Bandbreite
    Instance-Größe
    vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s)

    r5b.large

    2

    16

    Nur EBS

    Bis zu 10

    Bis zu 10 000

    r5b.xlarge

    4

    32

    Nur EBS

    Bis zu 10

    Bis zu 10 000

    r5b.2xlarge

    8

    64

    Nur EBS

    Bis zu 10

    Bis zu 10 000

    r5b.4xlarge

    16

    128

    Nur EBS

    Bis zu 10

    10 000

    r5b.8xlarge

    32

    256

    Nur EBS

    10

    20 000

    r5b.12xlarge

    48

    384

    Nur EBS

    10

    30 000

    r5b.16xlarge

    64

    512

    Nur EBS

    20

    40 000

    r5b.24xlarge

    96

    768

    Nur EBS

    25

    60 000

    r5b.metal

    96*

    768

    Nur EBS

    25

    60.000

    Anwendungsfälle

    Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webmaßstab, mittelgroße In-Memory-Datenbanken und Echtzeit-Big-Data-Analysen.

  • R5n
  • Amazon-EC2-R5-Instances sind ideal für speichergebundene Workloads, einschließlich Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webumfang, mittelgroße In-Memory-Datenbanken, Big-Data-Analysen in Echtzeit und andere Unternehmensanwendungen. Die Instance-Varianten mit größerer Bandbreite R5n und R5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.

    Funktionen:

    • Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
    • Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
    • 25 GBit/s Spitzenbandbreite auf kleineren Instance-Größen
    • 100 GBit/s Netzwerkbandbreite auf den größten Instance-Größen
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den R5dn-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
    Instance-Größe
    vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    r5n.large 2 16 Nur EBS Bis zu 25 bis zu 4.750
    r5n.xlarge 4 32 Nur EBS Bis zu 25 bis zu 4.750
    r5n.2xlarge 8 64 Nur EBS Bis zu 25 Bis zu 4.750
    r5n.4xlarge 16 128 Nur EBS Bis zu 25 4.750
    r5n.8xlarge 32 256 Nur EBS 25 6.800
    r5n.12xlarge 48 384 Nur EBS 50 9.500
    r5n.16xlarge 64 512 Nur EBS 75 13.600
    r5n.24xlarge 96 768 Nur EBS 100 19.000
    r5n.metal 96* 768 Nur EBS 100 19.000
    r5dn.large 2 16 1 x 75 NVMe-SSD Bis zu 25 bis zu 4.750
    r5dn.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 25 Bis zu 4.750
    r5dn.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 25 Bis zu 4.750
    r5dn.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 25 4.750
    r5dn.8xlarge 32 256 2 x 600 NVMe-SSD 25 6.800
    r5dn.12xlarge 48 384 2 x 900 NVMe SSD 50 9.500
    r5dn.16xlarge 64 512 4 x 600 NVMe-SSD 75 13.600
    r5dn.24xlarge 96 768 4 x 900 NVMe-SSD 100 19.000
    r5dn.metal 96* 768 4 x 900 NVMe-SSD 100 19.000

    * r5n.metal und r5dn.metal bieten 96 logische Prozessoren auf 48 physischen Kernen.

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen

  • R4
  • Amazon-EC2-R4-Instances sind für speicherintensive Anwendungen optimiert und stellen ein besseres RAM-Preisangebot pro GiB als R3 dar.

    Funktionen:

    • Skalierbare Hochfrequenz Intel Xeon (Broadwell E5-2686 v4) Prozessoren
    • DDR4 Speicher
    • Unterstützung für Enhanced Networking
    Instance vCPU Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)***
    r4.large 2 15,25 Nur EBS Bis zu 10
    r4.xlarge 4 30,5 Nur EBS Bis zu 10
    r4.2xlarge 8 61 Nur EBS Bis zu 10
    r4.4xlarge 16 122 Nur EBS Bis zu 10
    r4.8xlarge 32 244 Nur EBS 10
    r4.16xlarge 64 488 Nur EBS 25

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Hochleistungsdatenbanken, Data-Mining & -Analyse, In-Memory-Datenbanken, dezentrale Web-In-Memory-Caches, Anwendungen, die unstrukturierte Big Data in Echtzeit verarbeiten, Hadoop-/Spark-Cluster und andere Unternehmensanwendungen.

  • X2gd
  • Amazon-EC2-X2gd-Instances werden von Arm-basierten AWS-Graviton2-Prozessoren angetrieben und bieten die niedrigsten Kosten pro GiB Speicher in Amazon EC2. Sie bieten eine bis zu 55 % bessere Preisleistung im Vergleich zu X1-Instances der aktuellen Generation.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
    • Lokaler NVMe-basierter SSD-Speicher bietet Hochgeschwindigkeitszugriff mit geringer Latenz auf In-Memory-Daten
    • Standardmäßig für EBS optimiert

    Instance-Größe

    vCPU

    Arbeitsspeicher (RAM) (GiB)

    Instance-Speicher (GB)

    Netzwerkbandbreite (Gbit/s)***

    EBS-Bandbreite (Gbit/s)

    x2gd.medium

    1

    16

    1x59 NVMe SSD

    Bis zu 10

    Bis zu 4,75

    x2gd.large

    2

    32

    1x118 NVMe SSD

    Bis zu 10

    Bis zu 4,75

    x2gd.xlarge

    4

    64

    1x237 NVMe SSD

    Bis zu 10

    Bis zu 4,75

    x2gd.2xlarge

    8

    128

    1x475 NVMe SSD

    Bis zu 10

    Bis zu 4,75

    x2gd.4xlarge

    16

    256

    1x950 NVMe SSD

    Bis zu 10

    4,75

    x2gd.8xlarge

    32

    512

    1x1900 NVMe SSD

    12

    9,5

    x2gd.12xlarge

    48

    768

    2x1425 NVMe SSD

    20

    14,25

    x2gd.16xlarge

    64

    1024

    2x1900 NVMe SSD

    25

    19

    x2gd.metal

    64

    1024

    2x1900 NVMe SSD

    25

    19

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Speicherintensive Workloads wie Open-Source-Datenbanken (MySQL, MariaDB und PostgreSQL), In-Memory-Caches (Redis, KeyDB, Memcached), EDA-Workloads (Electronic Design Automation), Echtzeit-Analysen und Echtzeit-Caching-Server.

  • X2idn
  • Amazon-EC2-X2idn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation mit einer Turbofrequenz von bis zu 3,5 GHz für alle Kerne angetrieben und sind eine gute Wahl für eine Vielzahl von speicherintensiven Anwendungen.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • 16:1-Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
    • Bis zu 50 % bessere Preisleistung als X1-Instances
    • Bis zu 100 GBit/s Netzwerkdurchsatz
    • Bis zu 80 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen

    Instance-Größe

    vCPU

    Arbeitsspeicher (RAM) (GiB)

    Instance-Speicher (GB)

    Netzwerkbandbreite (GBit/s)

    EBS-Bandbreite (Gbit/s)

    x2idn.16xlarge

    64

    1 024

    1 x 1 900 NVMe-SSD

    50

    40

    x2idn.24xlarge

    96 1 536

    2 x 1 425 NVMe-SSD

    75

    60

    x2idn.32xlarge

    128

    2 048

    2 x 1 900 NVMe-SSD

    100

    80

    x2idn.metal

    128

    2 048

    2 x 1 900 NVMe-SSD

    100

    80

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    In-Memory-Datenbanken (z. B. SAP HANA, Redis), traditionelle Datenbanken (z. B. Oracle DB, Microsoft SQL Server) und In-Memory-Analytik (z. B. SAS, Aerospike).

  • X2iedn
  • AmazonEC2-X2iedn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) mit einer Turbofrequenz von bis zu 3,5 GHz für alle Kerne angetrieben und sind eine gute Wahl für eine breite Palette von speicherintensiven Anwendungen in großem Umfang.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • 32:1 Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
    • Bis zu 50 % bessere Preisleistung als X1-Instances
    • Bis zu 100 GBit/s Netzwerkdurchsatz
    • Bis zu 80 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen

    Instance-Größe

    vCPU

    Arbeitsspeicher (RAM) (GiB)

    Instance-Speicher (GB)

    Netzwerkbandbreite (Gbit/s)***

    EBS-Bandbreite (Gbit/s)

    x2iedn.xlarge

    4

    128

    1 x 118 NVMe-SSD

    Bis zu 25

    Bis zu 20

    x2iedn.2xlarge

    8

    256

    1 x 237 NVMe-SSD

    Bis zu 25

    Bis zu 20

    x2iedn.4xlarge

    16

    512

    1 x 475 NVMe-SSD

    Bis zu 25

    Bis zu 20

    x2iedn.8xlarge

    32

    1 024

    1 x 950 NVMe-SSD

    25

    20

    x2iedn.16xlarge

    64

    2 048

    1 x 1 900 NVMe-SSD

    50

    40

    x2iedn.24xlarge

    96

    3 072

    2 x 1 425 NVMe-SSD

    75

    60

    x2iedn.32xlarge

    128

    4 096

    2 x 1 900 NVMe-SSD

    100

    80

    x2iedn.metal

    128

    4 096

    2 x 1 900 NVMe-SSD

    100

    80

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Große In-Memory-Datenbanken (z. B. SAP HANA, Redis), traditionelle Datenbanken (z. B. Oracle DB, Microsoft SQL Server) und In-Memory-Analysen (z. B. SAS, Aerospike).

  • X2iezn
  • Amazon-EC2-X2iezn-Instances werden von den schnellsten Intel-Xeon-Scalable-Prozessoren (Codename Cascade Lake) in der Cloud angetrieben, mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz und sind eine gute Wahl für speicherintensive Electronic Design Automation (EDA)-Workloads.

    Funktionen:

    • Bis zu 4,5 GHz skalierbare Intel Xeon Prozessoren der 2. Generation (Cascade Lake 8252C)
    • 32:1 Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
    • Bis zu 55 % bessere Preisleistung als X1e-Instances
    • Bis zu 100 GBit/s Netzwerkdurchsatz
    • Bis zu 19 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Unterstützt Elastic Fabric Adapter in 12xlarge- und Metal-Größen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    x2iezn.2xlarge 8 256 Nur EBS Bis zu 25 3,17
    x2iezn.4xlarge 16 512 Nur EBS Bis zu 25 4,75
    x2iezn.6xlarge 24 768 Nur EBS 50 9,5
    x2iezn.8xlarge 32 1 024 Nur EBS 75 12
    x2iezn.12xlarge 48 1 536 Nur EBS 100 19
    x2iezn.metal 48 1 536 Nur EBS 100 19

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Elektronische Design-Automatisierung (EDA) wie physikalische Verifikation, statische Timing-Analyse, Leistungssignierung und vollständige Chip-Gate-Level-Simulation.

  • X1e
  • Amazon-EC2-X1e-Instances sind für große Datenbanken, In-Memory-Datenbanken und andere speicherintensive Unternehmensanwendungen optimiert.

    Funktionen:

    • Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
    • Einer der günstigsten Preise pro GiB RAM
    • Bis zu 3.904 GiB DRAM-basierter Instance-Speicher
    • SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
    • Möglichkeit zur Kontrolle von C-State- und P-State-Prozessorkonfigurationen auf Instances vom Typ x1e.32xlarge, x1e.16xlarge und x1e.8xlarge
    Instance vCPU Arbeitsspeicher (GiB) SSD-Speicher (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s)***
    x1e.xlarge 4 122 1 x 120 500 Bis zu 10
    x1e.2xlarge 8 244 1 x 240 1.000 Bis zu 10
    x1e.4xlarge 16 488 1 x 480 1.750 Bis zu 10
    x1e.8xlarge 32 976 1 x 960 3.500 Bis zu 10
    x1e.16xlarge 64 1.952 1 x 1.920 7.000 10
    x1e.32xlarge 128 3.904 2 x 1.920 14.000 25

    Alle Instances haben die folgenden Spezifikationen:

    Zusätzlich haben x1e.16xlarge und x1e.32xlarge

    Anwendungsfälle

    Hochleistungsdatenbanken, In-Memory-Datenbanken (z. B. SAP HANA) und speicherintensive Anwendungen. x1e.32xlarge-Instance ist von SAP für die Ausführung von Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) und Data Mart Solutions on HANA der nächsten Generation in der AWS Cloud zertifiziert.

  • X1
  • Amazon-EC2-X1-Instances sind für Datenbanken der Unternehmensklasse und In-Memory-Anwendungen optimiert. 

    Funktionen:

    • Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
    • Einer der günstigsten Preise pro GiB RAM
    • Bis zu 1.952 GiB DRAM-basierter Instance-Speicher
    • SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
    • Steuerung der C- und P-State-Prozessorkonfiguration
    Instance vCPU Arbeitsspeicher (GiB) SSD-Speicher (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s)
    x1.16xlarge 64 976 1 x 1.920 7.000 10
    x1.32xlarge 128 1.952 2 x 1.920 14.000 25

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    In-Memory-Datenbanken (wie SAP HANA), Engines zur Big Data-Verarbeitung (wie Apache Spark oder Presto) und High Performance Computing (HPC). Anwendungen, die von SAP zur Ausführung von Business Warehouse on HANA (BW), Data Mart Solutions on HANA, Business Suite on HANA (SoH) und Business Suite S/4HANA zertifiziert sind.

  • High Memory
  • High-Memory-Instances von Amazon EC2 wurden speziell für die Ausführung großer In-Memory-Datenbanken, einschließlich Produktionsimplementierungen von SAP HANA, in der Cloud entwickelt.

    Funktionen:

    • Jetzt mit Bare-Metal- oder virtualisiertem Speicher verfügbar
    • Zwischen 3 und 24 TiB Instance-Speicher
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Virtualisierte Instances sind mit On-Demand- sowie mit ein- und dreijährigen Savings-Plan-Kaufoptionen erhältlich
    Name Logische Prozessoren* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbps)  EBS-Bandbreite (GBit/s)
    u-3tb1.56xlarge 224 3 072 Nur EBS 50 19
    u-6tb1.56xlarge 224 6.144 Nur EBS 100 38
    u-6tb1.112xlarge 448 6.144 Nur EBS 100 38
    u-6tb1.metal** 448 6.144 Nur EBS 100 38
    u-9tb1.112xlarge 448 9.216 Nur EBS 100 38
    u-9tb1.metal** 448 9.216 Nur EBS 100 38
    u-12tb1.112xlarge 448 12.288 Nur EBS 100 38
    u-12tb1.metal** 448 12.288 Nur EBS 100 38
    u-18tb1.112xlarge 448 18.432 Nur EBS 100 38
    u-18tb1.metal 448 18.432 Nur EBS 100 38
    u-24tb1.112xlarge 448 24.576 Nur EBS 100 38
    u-24tb1.metal 448 24.576 Nur EBS 100 38

     

    **Einige Instances, die vor dem 12. März 2020 gestartet wurden, weisen möglicherweise eine geringere Leistung auf. Wenden Sie sich an Ihr Kundenteam, um für Ihre Instanz ein Upgrade auf die höhere Leistungsstufe vornehmen zu lassen (ohne zusätzliche Kosten).

    * Jeder logische Prozessor ist ein Hyperthread auf 224 Kernen

    • 6-TB-, 9-TB- und 12-TB-Instances werden von 2,1 GHz (mit Turbo Boost auf 3,80 GHz) skalierbaren Intel Xeon Prozessoren (Skylake 8176M) oder 2,7 GHz (mit Turbo Boost auf 4,0 GHz) skalierbaren Intel Xeon Prozessoren der 2. Generation (Cascade Lake 8280L) betrieben
    • 18-TB- und 24-TB-Instances werden von skalierbaren Intel Xeon-Prozessoren der 2. Generation mit 2,7 GHz (mit Turbo Boost auf 4,0 GHz) (Cascade Lake 8280L) betrieben

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Ideal für die Ausführung großer Unternehmensdatenbanken, einschließlich Produktionsinstallationen der In-Memory-Datenbank SAP HANA in der Cloud. Von SAP zertifiziert für Business Suite auf HANA, Business Suite S / 4HANA der nächsten Generation, Data Mart Solutions auf HANA, Business Warehouse auf HANA und SAP BW / 4HANA in Produktionsumgebungen.

  • z1d
  • Amazon-EC2-z1d-Instances bieten sowohl hohe Rechenkapazität als auch großen Arbeitsspeicher. Hochfrequenz-z1d-Instances bieten eine gleichbleibende Kernfrequenz von bis zu 4,0 GHz, die schnellste aller Cloud-Instances.

    Funktionen:

    • Spezieller skalierbarer Intel® Xeon® Prozessor (Skylake 8151) mit einer dauerhaften Frequenz von bis zu 4,0 GHz für alle Kerne und dem neuen Befehlssatz Intel Advanced Vector Extension (AVX-512)
    • Bis zu 1,8 TB Instance-Speicher
    • Großer Arbeitsspeicher mit bis zu 384 GiB RAM
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Mit z1d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der z1d-Instance verknüpft ist
    Instance vCPU Arbeitsspeicher (GiB) Netzwerkleistung (Gbit/s)*** SSD-Speicher (GB)
    z1d.large 2 16 Bis zu 10 1 x 75 NVMe-SSD
    z1d.xlarge 4 32 Bis zu 10 1 x 150 NVMe-SSD
    z1d.2xlarge 8 64 Bis zu 10 1 x 300 NVMe-SSD
    z1d.3xlarge 12 96 Bis zu 10 1 x 450 NVMe-SSD
    z1d.6xlarge 24 192 10 1 x 900 NVMe SSD
    z1d.12xlarge 48 384 25 2 x 900 NVMe SSD
    z1d.metal 48* 384 25 2 x 900 NVMe SSD

    * z1d.metal bietet 48 logische Prozessoren auf 24 physischen Kernen

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Ideal für Electronic Design Automation (EDA) und bestimmte relationale Datenbank-Workloads mit hohen Lizenzierungskosten pro Kern.

Jede vCPU auf R6g- und X2gd-Instances ist ein Kern eines AWS Graviton2-Prozessors.

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Accelerated Computing

Beschleunigte Computing-Instances verwenden Hardwarebeschleuniger oder Co-Prozessoren, um Funktionen wie Gleitkomma-Berechnungen, Grafikverarbeitung oder Datenmusterabgleich effizienter auszuführen, als dies bei auf CPUs laufender Software möglich ist.

  • P4
  • Amazon-EC2-P4-Instances sind die neueste Generation von GPU-basierten Instances und bieten höchste Leistung für Machine-Learning-Training und Hochleistungsdatenverarbeitung in der Cloud.

    Funktionen:

    • 3,0 GHz skalierbare Intel Xeon Prozessoren der 2. Generation (Cascade Lake P-8275CL)
    • Bis zu 8 NVIDIA A100 Tensor Core GPUs
    • 400-Gbit/s-Instance-Netzwerk mit Unterstützung für Elastic Fabric Adapter (EFA) und NVIDIA GPUDirect RDMA (Remote Direct Memory Access)
    • Peer-to-Peer-GPU-Kommunikation mit 600 GB/s via NVIDIA NVSwitch
    • Bereitgestellt in EC2 UltraClustern, welche aus mehr als 4 000 NVIDIA A100 Tensor Core-GPUs bestehen, einem Petabit-Netzwerk sowie einem skalierbaren Speicher mit geringer Latenz und Amazon FSx for Lustre
    Instance GPUs vCPUs Instance
    Arbeitsspeicher (GiB)
    GPU
    Arbeitsspeicher 
    Netzwerkbandbreite GPUDirect RDMA GPU-Peer-to-Peer Instance-Speicher (GB) EBS-Bandbreite (GBit/s)
    p4d.24xlarge 8 96 1152 320 GB HBM2 400 ENA und EFA Ja 600 GB/s NVSwitch 8 x 1000 NVMe-SSD 19
    p4de.24xlarge
    (als Vorversion)
    8 96 1152 640 GB HBM2e 400 ENA und EFA Ja 600 GB/s NVSwitch 8 x 1000 NVMe-SSD 19

    Alle P4d-Instances haben die folgenden Spezifikationen:

     

    Anwendungsfälle

    Machine Learning, High Performance Computing (HPC), numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, Spracherkennung, Entwicklung autonomer Fahrzeuge und Arzneimittelforschung.

  • P3
  • Amazon-EC2-P3-Instances bieten Hochleistungsberechnungen in der Cloud mit bis zu 8 NVIDIA®-V100-Tensor-Core-GPUs und einem Netzwerkdurchsatz von bis zu 100 Gbit/s für Machine Learning- und HPC-Anwendungen.

    Funktionen:

    • Bis zu 8 NVIDIA Tesla V100-GPUs mit jeweils 5.120 CUDA-Kernen und 640 Tensor-Kernen
    • Skalierbarer Hochfrequenz-Prozessor Intel Xeon (Broadwell E5-2686 v4) für p3.2xlarge, p3.8xlarge und p3.16xlarge. 
    • Skalierbarer Hochfrequenz-Prozessor Intel-Xeon (Skylake 8175) mit 2,5 GHz (Basis) für p3dn.24xlarge.
    • Unterstützt NVLink für die Peer-to-Peer-GPU-Kommunikation
    • Bietet eine Gesamtnetzwerkbandbreite von bis zu 100 GBit/s
    • EFA-Support auf p3dn.24xlarge-Instances
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) GPU P2P Speicher (GB) Dedizierte EBS-Bandbreite (GBit/s) Netzwerkleistung (Gbit/s)***
    p3.2xlarge 1 8 61 16 - Nur EBS 1,5  Bis zu 10
    p3.8xlarge 4 32 244 64 NVLink Nur EBS 10
    p3.16xlarge 8 64 488 128 NVLink Nur EBS 14  25 
    p3dn.24xlarge 8 96 768 256 NVLink 2 x 900 NVMe SSD 19 100 

    Alle Instances haben die folgenden Spezifikationen:

     
    p3.2xlarge, p3.8xlarge und p3.16xlarge verfügen über Intel Xeon E5-2686-v4-Prozessoren mit 2,3 GHz (Basis) und 2,7 GHz (Turbo).  
     
    p3dn.24xlarge verfügt über Intel Xeon 8175M Prozessoren mit 2,5 GHz (Basis) und 3,1 GHz (sustained all-core turbo) und unterstützt Intel AVX-512. p3dn.24xlarge Instanzen unterstützen auch den Elastic Fabric Adapter (EFA), mit dem High Performance Computing (HPC )-Anwendungen, die das Message Passing Interface (MPI) verwenden, und Machine Learning (ML)-Anwendungen, die die NVIDIA Collective Communications Library (NCCL) nutzen, auf Tausende von GPUs skaliert werden können.

    Anwendungsfälle

    Machine/Deep Learning, High Performance Computing (HPC), numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, Spracherkennung, Entwicklung autonomer Fahrzeuge, Arzneimittelforschung.

  • P2
  • P2-Instances eignen sich für allgemeine GPU-Datenverarbeitungsanwendungen.

    Funktionen:

    • Skalierbarer Hochfrequenz Intel Xeon Prozessor (Broadwell E5-2686 v4)
    • Leistungsstarke NVIDIA K80-GPUs mit jeweils 2.496 Parallelverarbeitungskernen und 12 GiB GPU-Speicher
    • Unterstützt GPUDirect™ für Peer-to-Peer-GPU-Kommunikation
    • bietet erweiterte Vernetzung durch den Elastic Network Adaptor (ENA) an, mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Platzierungsgruppe
    • Standardmäßig und ohne Zusatzkosten für EBS optimiert
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung (Gbit/s)
    p2.xlarge 1 4 61 12 Hoch
    p2.8xlarge 8 32 488 96 10
    p2.16xlarge 16 64 732 192 25 

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Machine Learning, Hochleistungsdatenbanken, numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, molekulare Modellierung, Genome, Rendering und andere serverseitige GPU-Datenverarbeitungs-Workloads.

  • DL1
  • Amazon-EC2-DL1-Instances werden von Gaudi-Beschleunigern von Habana Labs (einem Intel-Unternehmen) angetrieben. Diese neuen Instances liefern eine bis zu 40-prozentige Preis-Leistungs-Verbesserung im Vergleich zu aktuellen GPU-basierten EC2-Instances zum Trainieren von Deep-Learning-Modellen.

    Funktionen:

    • Skalierbarer Intel-Xeon-Prozessor der 2. Generation (Cascade Lake P-8275CL)
    • Bis zu 8 Gaudi-Beschleuniger mit 32 GB Speicher mit hoher Bandbreite (HBM) pro Beschleuniger
    • Bis zu 400 GBit/s Netzwerkdurchsatz
    • 4 TB lokaler NVMe-Speicher

    Instance-Größe

    vCPU

    Gaudi-Beschleuniger

    Instance-Arbeitsspeicher (GiB)

    Instance-Speicher (GB)

    Beschleuniger Peer-to-Peer Bidirektional
    (Gbit/s)

    Netzwerkbandbreite (Gbps)

    EBS-Bandbreite (GBit/s)

    dl1.24xlarge

    96

    8

    768

    4 x 1 000 NVMe-SSD

    100

    400

    19


    DL1-Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Deep-Learning-Training, Objekterkennung, Bilderkennung, Verarbeitung natürlicher Sprache und Empfehlungsmaschinen.

  • Tm1
  • Amazon EC2-Trn1-Instances, die von AWS Trainium-Chips angetrieben werden, sind speziell für leistungsstarkes Deep-Learning-Training konzipiert und bieten Einsparungen von bis zu 50 % bei den Trainingskosten gegenüber vergleichbaren GPU-basierten Instances.

    Funktionen:

    • 16 AWS Trainium-Beschleuniger
    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation (Ice Lake SP)
    • Bis zu 800 Gbit/s Elastic Fabric Adapter (EFA)-Netzwerkbandbreite
    • Bis zu 8 TB lokaler NVMe-Speicher
    • Hochgeschwindigkeitsbandbreite, innerhalb einer Instance mit NeuronLink
    • Bereitgestellt in EC2-UltraClustern, die eine Skalierung auf bis zu 30.000-plus AWS Trainium-Beschleuniger ermöglichen, verbunden mit nicht-blockierenden Netzwerken im Petabit-Bereich und skalierbarem Speicher mit geringer Latenz mit Amazon FSx für Lustre
    • Amazon-EBS-optimiert
    • Verbessertes Netzwerk
    Instance-Größe Trainium-Beschleuniger Accelerator Memory (GB) vCPUs Arbeitsspeicher (GiB)

    Instance
    Speicher (GB)

    Netzwerk
    Bandbreite (Gbps)

    EBS-Bandbreite
    (Gbit/s)

    trn1.2xl 1 32 8 32 1 x 500 NVMe SSD
    Bis zu 12,5 Bis zu 20
    trn1.32xl 16 512 128 512 4 x 2000 NVMe SSD
    8 x 100 80

    Anwendungsfälle

    Deep-Learning-Training für natürliche Sprachverarbeitung (NLP), Computer Vision, Suche, Empfehlung, Ranking und mehr

  • Inf1
  • Amazon-EC2-Inf1-Instances sind von Grund auf neu entwickelt worden, um Inferenzanwendungen für Machine Learning zu unterstützen.

    Funktionen:

    • Bis zu 16 AWS Inferentia-Chips
    • AWS Neuron SDK
    • Hochfrequente skalierbare Intel Xeon Prozessoren der 2. Generation (Cascade Lake P-8259L)
    • Bis zu 100 Gbit/s Netzwerk
    Instance-Größe vCPUs Arbeitsspeicher (GiB) Instance-Speicher Inferentia-Chips Inferentia Chip-to-Chip Interconnect Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite
    inf1.xlarge 4 8 Nur EBS 1 Bis zu 25 Bis zu 4,75
    inf1.2xlarge 8 16 Nur EBS 1 Bis zu 25 Bis zu 4,75
    inf1.6xlarge 24 48 Nur EBS 4 Ja 25 4,75
    inf1.24xlarge 96 192 Nur EBS 16 Ja 100 19

    Anwendungsfälle

    Empfehlungsmodule, Prognosen, Bild- und Videoanalyse, erweiterte Textanalytik, Dokumentenanalyse, Sprache, Gesprächsagenten, Übersetzung, Transkription und Betrugserkennung.

  • G5
  • Amazon-EC2-G5-Instances wurden entwickelt, um grafikintensive Anwendungen und Machine-Learning-Inferenz zu unterstützen. Sie können auch verwendet werden, um einfache bis mittelmäßig komplexe Machine-Learning-Modelle zu trainieren.

    Funktionen:

    • AMD EPYC Prozessoren der 2. Generation (AMD EPYC 7R32)
    • Bis zu 8 NVIDIA A10G Tensor-Core-GPUs
    • Bis zu 100 Gbit/s Netzwerkbandbreite
    • Bis zu 7,6 TB lokaler NVMe-Speicher
    Instance-Größe GPU GPU-Speicher (GiB) vCPUs Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    g5.xlarge 1 24 4 16 1 x 250 NVMe-SSD Bis zu 10 Bis zu 3,5
    g5.2xlarge 1 24 8 32 1 x 450 NVMe-SSD Bis zu 10 Bis zu 3,5
    g5.4xlarge 1 24 16 64 1 x 600 NVMe-SSD Bis zu 25 8
    g5.8xlarge 1 24 32 128 1 x 900 NVMe-SSD 25 16
    g5.16xlarge 1 24 64 256 1 x 1 900 NVMe-SSD 25 16
    g5.12xlarge 4 96 48 192 1 x 3 800 NVMe-SSD 40 16
    g5.24xlarge 4 96 96 384 1 x 3 800 NVMe-SSD 50 19
    g5.48xlarge 8 192 192 768 2x 3800 NVME SSD 100 19

    G5-Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Grafikintensive Anwendungen wie Remote-Workstations, Videorendering und Cloud-Gaming für die Erstellung von erstklassiger Grafik in Echtzeit. Trainings- und Inferenz-Deep-Learning-Modelle für Machine Learning nutzen Anwendungsfälle wie die natürliche Sprachverarbeitung, Computervision und Empfehlungsengines.

  • G5g
  • Amazon-EC2-G5g-Instances Powered-by-AWS-Graviton2-Prozessoren und verfügen über NVIDIA-T4G-Tensor-Core-GPUs, um die beste Preisleistung in Amazon EC2 für Grafik-Workloads wie beispielsweise Android-Spiele-Streaming zu bieten. Sie sind die ersten Arm-basierten Instances in einer großen Cloud, die über GPU-Beschleunigung verfügen. Kunden können G5g-Instances auch für kostengünstige ML-Inferenz verwenden.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Bis zu 2 NVIDIA-T4G-Tensor-Core-GPUs
    • Bis zu 25 Gbps Netwerkbandbreite
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    Instance-Name vCPUs Arbeitsspeicher (RAM) (GiB) NVIDIA-T4G-Tensor-Core-GPU GPU-Speicher (GiB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    g5g.xlarge 4 8 1 16 Bis zu 10 Bis zu 3,5
    g5g.2xlarge 8 16 1 16 Bis zu 10 Bis zu 3,5
    g5g.4xlarge 16 32 1 16 Bis zu 10 Bis zu 3,5
    g5g.8xlarge 32 64 1 16 12 9
    g5g.16xlarge 64 128 2 32 25 19
    g5g.metal 64 128 2 32 25 19

    Anwendungsfälle

    Streaming von Android-Spielen, Inferenz für Machine Learning, Grafik-Rendering, Simulationen von autonomen Fahrzeugen

  • G4dn
  • Amazon-EC2-G4dn-Instances wurden zur Beschleunigung von Machine-Learning-Inferenz und grafikintensiven Workloads entwickelt.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259L)
    • Bis zu 8 NVIDIA T4 Tensor Core GPUs
    • Bis zu 100 GBit/s Netzwerkdurchsatz
    • Bis zu 1,8 TB lokaler NVMe-Speicher
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (GBit/s)
    g4dn.xlarge 1 4 16 16 1 x 125 NVMe-SSD Bis zu 25 Bis zu 3,5
    g4dn.2xlarge 1 8
    32 16 1 x 225 NVMe-SSD Bis zu 25 Bis zu 3,5
    g4dn.4xlarge 1 16 64 16 1 x 225 NVMe-SSD Bis zu 25 4,75
    g4dn.8xlarge 1 32 128 16 1 x 900 NVMe-SSD 50 9,5
    g4dn.16xlarge 1 64 256 16 1 x 900 NVMe-SSD 50 9,5
    g4dn.12xlarge 4 48 192 64 1 x 900 NVMe-SSD 50 9,5
    g4dn.metal 8 96 384 128 2 x 900 NVMe-SSD 100 19


    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Machine Learning-Inferenz für Anwendungen wie dem Hinzufügen von Bild-Metadaten, Objektdetektion, Ratgebersysteme, automatische Spracherkennung und Übersetzungen. G4-Instances bieten zudem eine kostengünstige Plattform für die Entwicklung und Ausführung grafikintensiver Anwendungen wie externe Grafik-Workstations, Videotranscodierung, fotorealistisches Design und Game-Streaming in der Cloud.  

  • G4ad
  • Amazon-EC2-G4ad-Instances bieten die beste Preisleistung für grafikintensive Anwendungen in der Cloud.

    Funktionen:

    • AMD-EPYC-Prozessoren der 2. Generation (AMD EPYC 7R32)
    • AMD Radeon Pro V520 GPUs
    • Bis zu 2,4 TB lokaler NVMe-Speicher
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    g4ad.xlarge 1 4 16 8 1 x 150 NVMe-SSD Bis zu 10 Bis zu 3
    g4ad.2xlarge 1 8 32 8 1 x 300 NVMe-SSD Bis zu 10 Bis zu 3
    g4ad.4xlarge 1 16 64 8 1 x 600 NVMe-SSD Bis zu 10 Bis zu 3
    g4ad.8xlarge 2 32 128 16 1 x 1 200 NVMe-SSD 15 3
    g4ad.16xlarge 4 64 256 32 1 x 2 400 NVMe-SSD 25 6


    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Grafikintensive Anwendungen wie Remote-Grafik-Workstations, Video-Transcodierung, fotorealistisches Design und Game-Streaming in der Cloud.

  • G3
  • Amazon-EC2-G3-Instances sind für grafikintensive Anwendungen optimiert.

    Funktionen:

    • Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4)
    • NVIDIA Tesla M60 GPUs mit jeweils 2048 Parallelverarbeitungskernen und 8 GiB Videospeicher
    • Ermöglicht NVIDIA GRID Virtual Workstation-Funktionen, einschließlich Unterstützung für 4 Monitore mit Auflösung von bis zu 4096 x 2160 Jede in Ihrer Instance enthaltene GPU ist für genau einen „gleichzeitig verbundenen Benutzer“ lizenziert
    • Bietet NVIDIA GRID Virtual Application-Funktionen für Anwendungsvirtualisierungssoftware wie Citrix XenApp Essentials und VMware Horizon und unterstützt dabei bis zu 25 gleichzeitig verbundene Benutzer pro GPU
    • Jede GPU kennzeichnet einen integrierten Hardware Videoencoder, welcher konzipiert ist um bis zu 10 H.265 (HEVC) 1080p30 Datenströme und bis zu 18 H.264 1080p30 Datenströme zu unterstützen – dies ermöglicht Frame-Erfassung und -Codierung mit geringer Latenz und hochwertiges interaktives Streaming
    • Enhanced Networking mit Elastic Network Adaptor (ENA) mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Placement-Gruppe
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung (Gbit/s)***
    g3s.xlarge 1 4 30,5 8 Bis zu 10
    g3.4xlarge 1 16 122 8 Bis zu 10
    g3.8xlarge 2 32 244 16 10
    g3.16xlarge 4 64 488 32 25

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Verarbeitungslasten.

  • F1
  • Amazon-EC2-F1-Instances bieten anpassbare Hardwarebeschleunigung mit Field Programmable Gate Arrays (FPGAs).

    Instance-Funktionen:

    • Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4)
    • NVMe-SSD-Speicher
    • Unterstützung für Enhanced Networking

    FPGA-Funktionen:

    • Xilinx Virtex UltraScale+ VU9P FPGAs
    • 64 GiB ECC-geschützter Speicher auf 4 DDR4
    • Dedizierte PCI-Express x16-Schnittstelle
    • Ca. 2,5 Millionen logische Elemente
    • Ca. 6.800 digitale Signalverarbeitungsmodule
    • FPGA Developer AMI
    Instance FPGAs vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)***
    f1.2xlarge 1 8 122 1 x 470 Bis zu 10
    f1.4xlarge 2 16 244 1 x 940 Bis zu 10
    f1.16xlarge 8 64 976 4 x 940 25

    Bei f1.16xgroßen Instanzen ermöglicht die dedizierte PCI-e-Fabric den FPGAs die gemeinsame Nutzung desselben Speicherplatzes und die Kommunikation untereinander über die Fabric mit bis zu 12 Gbit/s in jeder Richtung.

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Genomforschung, Finanzanalysen, Videoverarbeitung in Echtzeit, Big Data-Suche und -Analyse und Sicherheit.

  • VT1
  • Amazon-EC2-VT1-Instances sind für die kostengünstige Echtzeit-Videotranskodierung mit Unterstützung für eine UHD-Auflösung von bis zu 4K ausgelegt.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
    • Bis zu 8 Xilinx U30 Medienbeschleunigerkarten mit beschleunigten H.264/AVC- und H.265/HEVC-Codecs
    • Bis zu 25 GBit/s verstärkter Netzwerkdurchsatz
    • Bis zu 19 Gbit/s an EBS-Bandbreite

    Instance-Größe

    U30 Accelerators

    vCPU

    Arbeitsspeicher (GiB)

    Netzwerkbandbreite (Gbps)

    EBS-Bandbreite
    (Gbit/s)

    1080p60 Streams

    4Kp60 Streams

    vt1.3xlarge

    1

    12

    24

    3 125

    Bis zu 4,75

    8

    2

    vt1.6xlarge

    2

    24

    48

    6,25

    4,75

    16

    4

    vt1.24xlarge

    8

    96

    192

    25

    19

    64

    16

     

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Live-Übertragung von Veranstaltungen, Videokonferenzen und Just-in-Time-Transkodierung.

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Speicheroptimiert

Speicherplatzoptimierte Instances sind für Workloads konzipiert, die einen hohen, sequentiellen Lese- und Schreibzugriff auf sehr große Datenmengen im lokalen Speicher erfordern. Sie sind so optimiert, dass sie Anwendungen Zehntausende von zufälligen E/A-Vorgängen mit geringer Latenz pro Sekunde (IOPS) ermöglichen.

  • Im4gn
  • Amazon-EC2-Im4gn-Instances Powered-by-AWS-Graviton2-Prozessoren und bieten die beste Preisleistung für speicherintensive Arbeitslasten in Amazon EC2. Sie bieten eine bis zu 40 % bessere Preisleistung und bis zu 44 % niedrigere Kosten pro TB Speicherplatz als I3-Instances.

    Funktionen:

    • Powered-by-AWS-Graviton2-Prozessoren, die die beste Preisleistung für Workloads in Amazon EC2 ermöglichen
    • Mit bis zu 30 TB NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs, die im Vergleich zu I3- und I3en-Instances eine um bis zu 60 % niedrigere E/A-Latenz und eine um bis zu 75 % reduzierte Latenzschwankung bieten und über eine ständig aktive Verschlüsselung verfügen
    • Optimiert für Workloads, die 4 GB Speicher pro vCPU abbilden
    • Zweifache NVMe-SSD-Speicherdichte pro vCPU im Vergleich zu I3-Instances
    • Bis zu 100 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
    • Uterstützung für Elastic Fabric Adapter auf im4gn.16xlarge
    • Bis zu 38 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    Im4gn.large 2 8 1 x 937 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Im4gn.xlarge 4 16 1 x 1 875 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Im4gn.2xlarge 8 32 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Im4gn.4xlarge 16 64 1 x 7 500 AWS Nitro SSD 25 9,5
    Im4gn.8xlarge 32 128 2 x 7 500 AWS Nitro SSD 50 19
    Im4gn.16xlarge 64 256 4 x 7 500 AWS Nitro SSD 100 38

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Diese Instances maximieren die Anzahl der pro Sekunde verarbeiteten Transaktionen (TPS) für E/A-intensive und geschäftskritische Workloads mit mittelgroßen Datensätzen, die von einer hohen Rechenleistung und einem hohen Netzwerkdurchsatz profitieren können, wie beispielsweise relationale Datenbanken (MySQL, MariaDB und PostgreSQL) und NoSQL-Datenbanken (KeyDB, ScyllaDB und Cassandra). Sie eignen sich auch ideal für Workloads, die einen sehr schnellen Zugriff auf mittelgroße Datensätze auf lokalem Speicher benötigen, wie zum Beispiel Suchmaschinen und Workloads zur Datenanalytik.

  • Is4gen
  • Amazon-EC2-Is4gen-Instances Powered-by-AWS-Graviton2-Prozessoren und bieten die niedrigsten Kosten pro TB SSD-Speicher und die höchste Dichte an SSD-Speicher pro vCPU in Amazon EC2 für speicherintensive Workloads. Diese Instances ermöglichen 15 % niedrigere Kosten pro TB Speicher und eine bis zu 48 % bessere Rechenleistung im Vergleich zu I3en-Instances.

    Funktionen:

    • Powered-by-AWS-Graviton2-Prozessoren, die die beste Preisleistung für Workloads in Amazon EC2 ermöglichen
    • Mit bis zu 30 TB NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs, die im Vergleich zu I3- und I3en-Instances eine um bis zu 60 % niedrigere E/A-Latenz und eine um bis zu 75 % reduzierte Latenzschwankung bieten und über eine ständig aktive Verschlüsselung verfügen
    • Optimiert für Workloads, die bis zu 6 GB Speicher pro vCPU abbilden
    • 50 % mehr NVMe-SSD-Speicher pro vCPU im Vergleich zu I3en
    • Bis zu 50 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
    • Bis zu 19 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    Is4gen.medium 1 6 1 x 937 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Is4gen.large 2 12 1 x 1 875 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Is4gen.xlarge 4 24 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Is4gen.2xlarge 8 48 1 x 7 500 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Is4gen.4xlarge 16 96 2 x 7 500 AWS Nitro SSD 25 9,5
    Is4gen.8xlarge 32 192 4 x 7 500 AWS Nitro SSD 50 19

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Diese Instances maximieren die Anzahl der pro Sekunde verarbeiteten Transaktionen (TPS) für E/A-fordernde Arbeitslasten, die große Datensätze aufweisen und die höchste NVMe-Speicherdichte pro vCPU abbilden können, wie beispielsweise NoSQL-Datenbanken (KeyDB, MongoDB, ScyllaDB und Cassandra), die große Datensätze aufweisen und die höchste NVMe-Speicherdichte pro vCPU abbilden können. Sie sind auch ideal für Workloads, die eine höhere Speicherdichte und einen sehr schnellen Zugriff auf große Datenmengen auf lokalem Speicher erfordern, wie Suchmaschinen (Splunk und Elasticsearch), Daten-Streaming und große verteilte Dateisysteme.

  • I4i
  • Amazon EC2-I4i-Instances arbeiten mit skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Ice Lake) und bieten die höchste lokale Speicherleistung innerhalb von Amazon EC2 unter Verwendung von AWS-Nitro-NVMe-SSDs.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 30 % bessere Rechenpreisleistung als I3-Instances
    • Bis zu 30 TB NVMe-Speicher von AWS Nitro SSDs, die eine um bis zu 60 % niedrigere E/A-Speicherlatenz und eine um bis zu 75 % niedrigere E/A-Speicherlatenzschwankung im Vergleich zu I3-Instances bieten
    • Bis zu 75 GBit/s Netzwerkgeschwindigkeit
    • Bis zu 40 GBit/s Bandbreite zum Amazon Elastic Block Store
    • Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 1 024 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in der 32xlarge-Größe
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    i4i.large 2 16 1 x 468 AWS Nitro SSD Bis zu 10 Bis zu 10
    i4i.xlarge 4 32 1 x 937 AWS Nitro SSD Bis zu 10 Bis zu 10
    i4i.2xlarge 8 64 1 x 1 875 AWS Nitro SSD Bis zu 12 Bis zu 10
    i4i.4xlarge 16 128 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 10
    i4i.8xlarge 32 256 2 x 3 750 AWS Nitro SSD 18,75 10
    i4i.16xlarge 64 512 4 x 3 750 AWS Nitro SSD 37,5 20
    i4i.32xlarge 128 1 024 8 x 3 750 AWS Nitro SSD 75 40
    i4i.metal 128 1 024 8 x 3 750 AWS Nitro SSD 75 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Diese Instances wurden entwickelt, um die Transaktionen pro Sekunde (TPS) für E/A-lastige Workloads zu maximieren, die einen sehr schnellen Zugriff auf kleine bis mittelgroße Datensätze auf lokalem Speicher wie transaktionalen Datenbanken (z. B. MySQL, Oracle DB und Microsoft SQL Server) und NoSQL-Datenbanken (z. B. MongoDB, Couchbase, Aerospike und Redis) erfordern. I4i-Instances eignen sich auch ideal für Workloads, die von einer hohen Rechenleistung pro TB Speicherplatz profitieren, wie z. B. Datenanalyse und Suchmaschinen.

  • I3
  • Diese Instance-Familie bietet Non-Volatile Memory Express (NVMe)-Schnittstellen für SSD-gestützten Instance-Speicher und sind so optimiert für geringe Latenz, sehr hohe Random-E/A-Leistung, hohen sequentiellen Durchsatz und hohe IOPS bei niedrigen Kosten. I3 bietet ebenfalls Bare-Metal-Instances (i3.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.

    Funktionen:

    • Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4) mit einer Basisfrequenz von 2,3 GHz
    • Bis zu 25 Gbit/s Netzwerkbandbreite mit ENA-basiertem Enhanced Networking (Elastic Network Adapter).
    • Hohe zufällige I/O-Leistung und hoher sequenzieller Lesedurchsatz
    • Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
    Instance vCPU* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)***
    i3.large 2 15,25 1 x 475 NVMe-SSD Bis zu 10
    i3.xlarge 4 30,5 1 x 950 NVMe-SSD Bis zu 10
    i3.2xlarge 8 61 1 x 1 900 NVMe-SSD Bis zu 10
    i3.4xlarge 16 122 2 x 1 900 NVMe-SSD Bis zu 10
    i3.8xlarge 32 244 4 x 1 900 NVMe-SSD 10
    i3.16xlarge 64 488 8 x 1 900 NVMe-SSD 25
    i3.metal 72** 512 8 x 1 900 NVMe-SSD 25

     

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine bis mittelgroße NoSQL-Datenbanken (z. B. Cassandra, MongoDB, Aerospike), In-Memory-Datenbanken (z. B. Redis), skalierbare Transaktionsdatenbanken, Data Warehousing, Elasticsearch, analytische Workloads.

  • I3en
  • Diese Instance-Familie bietet einen dichten, Non-Volatile Memory Express (NVMe) SSD-Instance-Speicher, der für niedrige Latenzzeiten, hohe zufällige I/O-Leistung, hohen sequentiellen Festplattendurchsatz optimiert ist, und bietet den niedrigsten Preis pro GB SSD-Instance-Speicher auf Amazon EC2. I3en bietet ebenfalls Bare Metal-Instances (i3en.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.

    Funktionen:

    • Bis zu 60 TB NVMe SSD Instance-Speicher
    • Bis zu 100 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
    • Hohe zufällige E/A-Leistung und hoher sequentieller Festplattendurchsatz
    • Skalierbare Intel® Xeon® Prozessoren mit bis zu 3,1 GHz (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512)-Befehlssatz
    • Angetrieben durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
    • Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
    • Unterstützung für Elastic Fabric Adapter auf i3en.24xlarge
    Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
    i3en.large 2 16 1 x 1 250 NVMe-SSD
    Bis zu 25
    i3en.xlarge 4 32 1 x 2 500 NVMe-SSD
    Bis zu 25
    i3en.2xlarge 8 64 2 x 2 500 NVMe-SSD
    Bis zu 25
    i3en.3xlarge 12 96 1 x 7 500 NVMe-SSD
    Bis zu 25
    i3en.6xlarge 24 192 2 x 7 500 NVMe-SSD
    25
    i3en.12xlarge 48 384 4 x 7 500 NVMe-SSD
    50
    i3en.24xlarge
    96 768 8 x 7 500 NVMe-SSD
    100
    i3en.metal 96 768 8 x 7 500 NVMe-SSD 100

    Alle Instances haben die folgenden Spezifikationen:

    • 3.1 GHz all core turbo Intel® Xeon® Scalable (Skylake)-Prozessoren
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo 
    • EBS-optimiert
    • Enhanced Networking

    Anwendungsfälle

    Kleine bis große NoSQL-Datenbanken (z. B. Cassandra, MongoDB, Aerospike), In-Memory-Datenbanken (z. B. Redis), skalierbare Transaktionsdatenbanken, verteilte Dateisysteme, Data Warehousing, Elasticsearch, Analyse-Workloads.

  • D2
  • Amazon-EC2-D2-Instances bieten bis zu 48 TB lokale Speicherung auf HDD, hohen Datenträgerdurchsatz und den niedrigsten Preis pro Datenträger-Durchsatzleistung auf Amazon EC2.

    Funktionen:

    • Skalierbare Hochfrequenz-Intel Xeon-Prozessoren (Haswell E5-2676 v3)
    • HDD-Speicher
    • Kontinuierlich hohe Leistung beim Start
    • Hoher Datenträgerdurchsatz
    • Unterstützung für Enhanced Networking
    Instance vCPU* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung
    d2.xlarge 4 30,5 3 x 2.000 HDD Mittel
    d2.2xlarge 8 61 6 x 2 000 HDD Hoch
    d2.4xlarge 16 122 12 x 2 000 HDD Hoch
    d2.8xlarge 36 244 24 x 2 000 HDD 10 GBit/s

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Data Warehousing mit massiver Parallelverarbeitung (MPP), verteiltes Computing mit MapReduce und Hadoop, verteilte Dateisysteme, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen.

  • D3
  • Amazon-EC2-D3-Instances sind für Anwendungen optimiert, die eine hohe sequentielle I/O-Leistung und einen hohen Festplattendurchsatz erfordern. D3-Instances stellen einen optimalen Upgrade-Pfad für Workloads dar, die auf D2-Instances ausgeführt werden und zusätzliche Rechen- und Netzwerkleistung zu einem niedrigeren Preis/TB benötigen.

    Funktionen:

    • Bis zu 3,1 GHz skalierbare Intel® Xeon® Prozessoren der 2. Generation (Intel Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
    • Bis zu 48 TB HDD-Instance-Speicher
    • Bis zu 45 % höherer Lese- und Schreibdurchsatz als bei EC2 D2-Instances
    • AWS Nitro-System-basiert

    Instance-Größe

    vCPU

    Arbeitsspeicher (GiB)

    Instance-Speicher (TB)

    Aggregierter Festplattendurchsatz (MiB/s)

    Netzwerkbandbreite (Gbit/s)***

    EBS-Bandbreite (Mbit/s)

    d3.xlarge

    4

    32

    3 x 2 HDD

    580

    Bis zu 15

    850

    d3.2xlarge

    8

    64

    6 x 2 HDD

    1.100

    Bis zu 15

    1.700

    d3.4xlarge

    16

    128

    12 x 2 HDD

    2.300

    Bis zu 15

    2.800

    d3.8xlarge

    32

    256

    24 x 2 HDD

    4.600

    25

    5.000

    *128.000 Blockgrößen, sequentielles Lesen und Schreiben (auf 100 gerundet, außer xlarge)

    Alle Instances haben die folgenden Spezifikationen:

    • Bis zu 3,1 GHz Intel® Xeon® Scalable (Cascade Lake)-Prozessoren der 2. Generation
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
    • Enhanced Networking

    Anwendungsfälle

    Verteilte Dateisysteme (z. B. HDFS, MapReduce-Dateisysteme), analytische Big-Data-Arbeitslasten (z. B. Elastic MapReduce, Spark, Hadoop), massiv parallele Verarbeitung (MPP), Datenlager (z. B. Redshift, HP Vertica), Protokoll- oder Datenverarbeitungsanwendungen (z. B. Kafka, Elastic Search)

  • D3en
  • Amazon-EC2-D3en-Instances sind für Anwendungen optimiert, die eine hohe sequentielle E/A-Leistung, einen hohen Festplattendurchsatz und einen kostengünstigen Speicher für sehr große Datenmengen erfordern. D3en-Instances bieten die niedrigsten Speicherkosten unter allen Cloud-Angeboten.

    Funktionen:

    • Bis zu 3,1 GHz skalierbare Intel® Xeon® Prozessoren der 2. Generation (Intel Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
    • Bis zu 336 TB HDD-Instance-Speicher
    • Bis zu 75 Gbit/s Netzwerkbandbreite
    • Bis zu 2x höherer Lese- und Schreibdurchsatz als bei EC2 D2-Instances
    • AWS Nitro-System-basiert

    Instance-Größe

    vCPU

    Arbeitsspeicher (GiB)

    Instance-Speicher (TB)

    Aggregierter Festplattendurchsatz (MiB/s)

    Netzwerkbandbreite (Gbit/s)***

    EBS-Bandbreite (Mbit/s)

    d3en.xlarge

    4

    16

    2 x 14 HDD

    500

    Bis zu 25

    850

    d3en.2xlarge

    8

    32

    4 x 14 HDD

    1.000

    Bis zu 25

    1.700

    d3en.4xlarge

    16

    64

    8 x 14 HDD

    2.000

    25

    2.800

    d3en.6xlarge

    24

    96

    12 x 14 HDD

    3.100

    40

    4.000

    d3en.8xlarge

    32

    128

    16 x 14 HDD

    4.100

    50

    5.000

    d3en.12xlarge

    48

    192

    24 x 14 HDD

    6.200

    75

    7.000

    *128.000 Blockgrößen, sequentielles Lesen und Schreiben (auf 100 gerundet)

    Alle Instances haben die folgenden Spezifikationen:

    • 3,1 GHz All Core Turbo Intel® Xeon® Scalable (Cascade Lake)-Prozessoren der 2. Generation
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
    • Enhanced Networking

    Anwendungsfälle

    Dateispeichersysteme mit mehreren Knoten wie Lustre, BeeGFS, GPFS, VxCFS und GFS2. Data Lakes mit hoher Kapazität und konsistenter sequentieller E-/A-Leistung

  • H1
  • Amazon-EC2-H1-Instances haben bis zu 16 TB lokalen, HDD-basierten Festplattenspeicher, liefern hohen Datenträgerdurchsatz und bieten ein Gleichgewicht zwischen Rechenleistung und Arbeitsspeicher.

    Funktionen:

    • Angetrieben von einem skalierbaren Intel Xeon-Prozessor mit 2,3 GHz (Broadwell E5 2686 v4)
    • Bis zu 16 TB HDD-Speicher
    • Hoher Datenträgerdurchsatz
    • Enhanced Networking von bis zu 25 Gbit/s dank ENA
    Instance vCPU* Arbeitsspeicher (GiB) Netzwerkleistung (Gbit/s)*** Instance-Speicher (GB)
    h1.2xlarge 8 32 Bis zu 10 1 x 2 000 HDD
    h1.4xlarge 16 64 Bis zu 10 2 x 2 000 HDD
    h1.8xlarge 32 128 10 4 x 2 000 HDD
    h1.16xlarge 64 256 25 8 x 2 000 HDD

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Auf MapReduce basierende Workloads, verteilte Dateisysteme wie HDFS und MapR-FS, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen wie Apache Kafka und Big Data-Workloadcluster.

** i3.metal bietet 72 logische Prozessoren auf 36 physischen Kernen.

Suchen Sie Instances früherer Generationen, die hier nicht aufgelistet sind? Lesen Sie hierzu die Seite Instances der vorherigen Generation.

Jede vCPU ist ein Thread entweder eines Intel Xeon-Kern oder eines AMD EPYC-Kern, mit Ausnahme von T2 und m3.medium.

† AVX, AVX2, AVX-512 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Instances-Funktionen

Amazon EC2-Instances bieten eine Vielzahl weiterer Funktionen, mit deren Hilfe Sie Ihre Anwendungen bereitstellen, verwalten und skalieren können.

Instances mit Spitzenlastleistung

Amazon EC2 bietet Ihnen die Wahl zwischen Instance-Serien mit gleichbleibender Leistung (z. B. M6, C6 und R6) und Instances mit Spitzenlastleistung (z. B. T3). Instances mit Spitzenlastleistung bieten eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.

T Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Der Stundenpreis der T-Instance deckt automatisch alle zwischenzeitlichen Auslastungsspitzen ab, wenn die durchschnittliche CPU-Auslastung einer T-Instance im Laufe eines 24-Stunden-Fensters der Basisleistung entspricht oder diese unterschreitet. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.

Bei T-Instances werden die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten per CPU-Guthaben verwaltet. Jede T-Instance erhält fortlaufend CPU-Guthaben. Die Rate hängt von der Instance-Größe ab. T-Instances sammeln im Leerlauf CPU-Guthaben und verbrauchen CPU-Guthaben, wenn sie aktiv sind. Ein CPU-Guthaben stellt die Leistung eines gesamten CPU-Kerns für eine Minute zur Verfügung.

Beispielsweise erhält eine Instance vom Typ t2.small fortlaufend Guthaben mit einer Rate von 12 CPU-Guthaben pro Stunde. Diese Fähigkeit stellt eine Basisleistung bereit, die 20 % eines CPU-Kerns entspricht (20 % x 60 Min. = 12 Min.). Wenn die Instance das erhaltene Guthaben nicht verbraucht, werden bis zu 288 CPU-Guthaben im CPU-Guthabensaldo aufbewahrt. Wenn die t2.small-Instance Spitzenlasten mit mehr als 20 % der Leistung eines Kerns verarbeiten muss, wird das vom CPU-Guthabensaldo abgezogen, um die Lastspitze nahtlos zu verarbeiten.

Wenn T2 Unlimited aktiviert ist, kann die t2.small-Instance über den Ausgangswert hinausgehen, selbst wenn ihr CPU-Guthaben auf Null gesunken ist. Bei einem Großteil der Verarbeitungslasten für allgemeine Zwecke, bei denen die durchschnittliche CPU-Auslastung der Basisleistung entspricht oder darunter liegt, deckt der Basisstundenpreis für t2.small alle CPU-Bursts ab. Wenn die Instance über einen Zeitraum von 24 Stunden, nachdem der CPU-Guthabensaldo auf Null gesunken ist, mit durchschnittlich 25 % CPU-Auslastung (5 % über der Basisleistung) ausgeführt wird, werden zusätzlich 6 Cent in Rechnung gestellt (5 Cent/vCPU-Stunde x 1 vCPU x 5 % x 24 Stunden).

Viele Anwendungen wie Webserver, Entwicklungsumgebungen und kleine Datenbanken benötigen keine gleichbleibend hohe CPU-Leistung, profitieren aber stark von schnellen CPUs, wenn sie die Leistung benötigen. T-Instances sind besonders für diese Anwendungsfälle ausgelegt. Wenn Sie gleichbleibend hohe CPU-Leistung für Anwendungen wie Videocodierung, Websites mit hohem Durchsatz oder HPC-Anwendungen benötigen, verwenden Sie Instances mit konstanter Leistung. T-Instances sind so konzipiert, als stünden ihnen dedizierte Hochgeschwindigkeits-Prozessor-Kerne zur Verfügung, wenn Ihre Anwendung CPU-Leistung benötigt. Außerdem schützen sie zugleich vor der schwankenden Leistung und anderen häufigen Nebeneffekten, die in anderen Umgebungen i. d. R. bei zu vielen Abonnements auftreten.

Mehrere Speicheroptionen

Je nach Anforderungen bietet Amazon EC2 Ihnen die Wahl zwischen mehreren Speicheroptionen. Amazon EBS ist ein stabiles Speichervolume auf Blockebene, das Sie einer einzelnen ausgeführten Amazon EC2-Instance zuordnen können. Sie können Amazon EBS als primäres Speichermedium für Daten nutzen, die häufig und detailliert aktualisiert werden. Amazon EBS wird beispielsweise als Speicher empfohlen, wenn Sie eine Datenbank in Amazon EC2 ausführen. Amazon EBS-Volumes bleiben unabhängig von der Betriebsdauer einer einzelnen Amazon EC2-Instance erhalten. Sobald ein Volume einer Instance zugeordnet wurde, können Sie es wie ein physisches Festplattenlaufwerk nutzen. Amazon EBS bietet drei Volumetypen zum Erfüllen der Anforderungen Ihrer Workloads: Standard (SSD), bereitgestellte IOPS (SSD) und Magnetfestplatten. Standardvolumes (SSD) sind der neue SSD-gestützte EBS-Volumetyp für allgemeine Zwecke, den wir Kunden als Standardoption empfehlen. Standardvolumes (SSD) sind für ein breites Spektrum von Workloads einschließlich kleiner und mittelgroßer Datenbanken sowie Entwicklungs- und Testumgebungen geeignet und ideal für Startvolumes. Bereitgestellte IOPS-Volumes (SSD) bieten Speicher mit konsistenter Leistung sowie geringer Latenz und eignen sich für E/A-intensive Anwendungen wie große relationale oder NoSQL-Datenbanken. Magnetfestplattenvolumes verursachen von allen EBS-Volumetypen die niedrigsten Kosten pro GB. Magnetfestplatten-Volumes sind ideal für Workloads mit seltenen Datenzugriffen und Szenarien, bei denen die Speicherkosten so niedrig wie möglich sein sollen.

Viele Amazon-EC2-Instances können auch Speicher von Geräten beinhalten, die sich innerhalb des Hostcomputers befinden, der als Instance-Speicher bezeichnet wird. Instance-Speicher bietet Amazon-EC2-Instances temporären Speicher auf Blockebene. Die Daten auf Instance-Speichern bleiben nur für die Nutzungsdauer der zugehörigen Amazon-EC2-Instance erhalten.

Zusätzlich zu Speicher auf Blockebene mithilfe von Amazon-EBS- oder Instance-Speicher können Sie auch Amazon S3 als sehr robusten und hoch verfügbaren Objektspeicher nutzen. Weitere Informationen zu den Speicheroptionen von Amazon EC2 finden Sie in der Amazon-EC2-Dokumentation.

EBS-optimierte Instances

Gegen eine geringe zusätzliche Stundengebühr können Kunden bestimmte Amazon-EC2-Instance-Typen als EBS-optimierte Instances starten. Mit EBS-optimierten Instances können EC2-Instances die auf einem EBS-Volume bereitgestellte IOPS in vollem Umfang nutzen. EBS-optimierte Instances liefern einen dedizierten Durchsatz zwischen Amazon EC2 und Amazon EBS, mit Optionen zwischen 500 Megabit pro Sekunde (Mbit/s) und 80 Gigabit pro Sekunde (Gbit/s) und das je nach verwendetem Instance-Typ. Durch den dedizierten Durchsatz werden Konflikte zwischen I/O-Vorgängen von Amazon EBS und anderem Datenverkehr Ihrer EC2-Instance minimiert, wodurch Ihre EBS-Volumes eine optimale Leistung liefern können. EBS optimierte Instances sind für die Nutzung mit allen EBS-Volumen konzipiert. Bei Anbindung an EBS-optimierte Instances können bereitgestellte IOPS-Volumes Latenzen im einstelligen Millisekundenbereich erreichen. Außerdem sind sie so konzipiert, dass sie mindestens 10 % der bereitgestellten IOPS-Leistung in 99,9 % der Fälle liefern. Wir empfehlen bereitgestellte IOPS-Volumes mit EBS-optimierten Instances bzw. Instances, die Clusternetzwerke für Anwendungen mit hohen Speicher-E/A-Anforderungen unterstützen.

Clusternetzwerke

Ausgewählte EC2-Instances unterstützen Clusternetzwerke, wenn diese in einer gebräuchlichen Clusterplatzierungsgruppe ausgeführt werden. Eine Clusterplatzierungsgruppe ermöglicht einen Netzwerkbetrieb mit geringer Latenz zwischen allen Instances und Clustern. Die von einer EC2-Instance nutzbare Bandbreite richtet sich nach dem Instance-Typ und dessen Netzwerkleistung. Der Datenverkehr zwischen Instances in derselben Region kann bei einseitiger Übertragung bis zu 5 GBit/s und bei beidseitiger Übertragung bis zu 100 GBit/s in jede Richtung (Vollduplex) betragen. Der Datenverkehr von und zu S3-Buckets in derselben Region kann ebenfalls die gesamte verfügbare Aggregatsbandbreite von Instances verwenden. Instances, die in einer Platzierungsgruppe gestartet werden, können für einseitigen Datenverkehr Geschwindigkeiten von bis zu 10 GBit/s und für beidseitigen Datenverkehr Geschwindigkeiten von bis zu 100 GBit/s generieren. Der Netzwerkdatenverkehr ins Internet ist auf 5 GBit/s (Vollduplex) beschränkt. Clusternetzwerke eignen sich ideal für Hochleistungsanalysesysteme und viele wissenschaftliche und Konstruktionsanwendungen, insbesondere für diejenigen, die den MPI-Bibliotheksstandard für Parallelprogrammierung nutzen.

Intel-Prozessorfunktionen

Amazon EC2-Instanzen, die über einen Intel-Prozessor verfügen, können den Zugriff auf die folgenden Prozessorfunktionen ermöglichen:

  • Intel AES New Instructions (AES-NI): Der Befehlssatz für Intel AES-NI-Verschlüsselung verbessert den Originalalgorithmus Advanced Encryption Standard (AES) in Hinblick auf schnelleren Datenschutz und bessere Sicherheit. Alle EC2-Instances der aktuellen Generation unterstützten diese Prozessorfunktion.
  • Intel Advanced Vector Extensions (Intel AVX, Intel AVX2 und Intel AVX-512): Intel AVX und Intel AVX2 sind Erweiterungen des 256-Bit-Befehlssatzes und Intel AVX-512 ist eine Erweiterung des 512-Bit-Befehlssatzes für Anwendungen mit vielen Gleitkommaoperationen. Intel AVX-Befehle verbessern die Leistung von Anwendungen für beispielsweise Bild-, Audio- und Videobearbeitung, wissenschaftliche Simulationen, Finanzanalysen sowie 3D-Modellierung und -Analysen. Diese Funktionen stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
  • Intel Turbo-Boost-Technik: Die Intel Turbo-Boost-Technik bietet bei Bedarf mehr Leistung. Der Prozessor ist in der Lage, Kerne schneller auszuführen als die Basisbetriebsfrequenz, damit Sie schneller arbeiten können.
  • Intel Deep Learning Boost (Intel DL Boost): Eine neue Reihe integrierter Prozessortechnologien, die auf die Beschleunigung von AI Deep Learning-Anwendungsfälle ausgelegt sind. Intel Xeon Scalable-Prozessoren der 2. Generation erweitern Intel AVX-512 mit einer neuen Vector Neural Network Instruction (VNNI/INT8), welche die Deep Learning-Inferenzleistung im Vergleich zur vorherigen Generation von Intel Xeon Scalable-Prozessoren (mit FP32) deutlich übertrifft. Dies ist unter anderem für die Bereiche Bilderkennung/-segmentierung, Objekterkennung, Spracherkennung, Sprachübersetzung, Empfehlungssysteme und Reinforcement Learning vorgesehen. VNNI ist möglicherweise nicht mit allen Linux-Verteilungen kompatibel. Bitte überprüfen Sie die Dokumentation vor der Verwendung. 

Nicht alle Prozessorfunktionen sind für alle Instance-Typen verfügbar. In der detaillierten Übersicht über die Instance-Typen erfahren Sie, welche Funktionen von welchen Instance-Typen verfügbar sind.

Messen der Instance-Leistung

Warum sollten Sie die Leistung von Instances messen?

Amazon EC2 ermöglicht Ihnen die Bereitstellung einer Vielzahl von Instance-Typen, die verschiedene Kombinationen von CPU-, Arbeitsspeicher-, Datenträger- und Netzwerkfunktionen bieten. Das Starten neuer Instances und das parallele Ausführen von Tests ist einfach. Wir empfehlen die Leistung von Anwendungen zu messen, um geeignete Instance-Typen zu bestimmen und die Anwendungsarchitektur zu überprüfen. Außerdem können umfassende Auslastungs- und Skalierungstests nützlich sein, um zu prüfen, ob Anwendungen wie gewünscht skaliert werden können.

Amazon-EC2-Leistungsbewertung

Amazon EC2 bietet zahlreiche Optionen für zehn verschiedene Instance-Typen mit jeweils mindestens einer Größenoption, die in unterschiedliche Instance-Familien unterteilt sind, die für diverse Anwendungen optimiert sind. Wir empfehlen, die Anforderungen Ihrer Anwendungen zu analysieren und die geeignete Instance-Familie als Ausgangspunkt für das Testen der Anwendungsleistung auszuwählen. Gehen Sie zum Bewerten der Anwendungsleistung so vor: (1.) Bestimmen Sie Ihre Anwendungsanforderungen im Vergleich zu verschiedenen Instance-Familien (ist die Anwendung beispielsweise mehr von Rechenleistung oder Arbeitsspeicher abhängig?). (2.) Ermitteln Sie die Größe Ihrer Workloads, um die geeignete Instance-Größe zu bestimmen. Für das Messen der Leistung der gesamten Anwendung gibt es keinen Ersatz, da die Anwendungsleistung von der zugrunde liegenden Infrastruktur oder durch Software- und Architektureinschränkungen beeinträchtigt werden kann. Wir empfehlen Tests auf Anwendungsebene, einschließlich der Nutzung von Tools und Services für Auslastungstests und die Erstellung von Anwendungsprofilen. Wenn Sie weitere Informationen benötigen, dann öffnen Sie einen Support-Fall und fordern Sie Netzwerkleistungsspezifikationen für die Instance-Typen an, an denen Sie interessiert sind.