Allgemeine Zwecke

Allzweck-Instances bieten ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkressourcen und können für eine Vielzahl unterschiedlicher Workloads verwendet werden. Diese Instances eignen sich ideal für Anwendungen, die diese Ressourcen zu gleichen Anteilen verwenden, z B. Webserver und Code-Repositorys. 

  • M7g
  • Amazon-EC2-M7g-Instances werden mit Arm-basierten AWS-Graviton3-Prozessoren betrieben. Sie bieten die beste Preisleistung in Amazon EC2 für allgemeine Anwendungen.

    Features:

    • Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
    • Verfügt über den neuesten DDR5-Speicher, der im Vergleich zu DDR4 50% mehr Bandbreite bietet
    • 20 % höhere Netzwerkbandbreite im Vergleich zu M6g-Instances
    • Standardmäßig für EBS optimiert
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den M7gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
    • Basierend auf AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)

    m7g.medium

    1

    4

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7g.large

    2

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7g.xlarge

    4

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7g.2xlarge

    8

    32

    Nur EBS

    Bis zu 15

    Bis zu 10

    m7g.4xlarge

    16

    64

    Nur EBS

    Bis zu 15

    Bis zu 10

    m7g.8xlarge

    32

    128

    Nur EBS

    15

    10

    m7g.12xlarge

    48

    192

    Nur EBS

    22,5

    15

    m7g.16xlarge

    64

    256

    Nur EBS

    30

    20

    m7g.metal

    64

    256

    Nur EBS

    30

    20

    m7gd.medium

    1

    4

    1 x 59 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    m7gd.large

    2

    8

    1 x 118 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    m7gd.xlarge

    4

    16

    1 x 237 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    m7gd.2xlarge

    8

    32

    1 x 474 NVMe-SSD

    Bis zu 15

    Bis zu 10

    m7gd.4xlarge

    16

    64

    1 x 950 NVMe-SSD

    Bis zu 15

    Bis zu 10

    m7gd.8xlarge

    32

    128

    1 x 1 900 NVMe-SSD

    15

    10

    m7gd.12xlarge

    48

    192

    2 x 1 425 NVMe-SSD

    22,5

    15

    m7gd.16xlarge

    64

    256

    2 x 1 900 NVMe-SSD

    30

    20

    m7gd.metal

    64

    256

    2 x 1 900 NVMe-SSD

    30

    20

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Anwendungen, die auf Open-Source-Software basieren, z. B. Anwendungsserver, Microservices, Spieleserver, mittelgroße Datenspeicher und Caching-Flotten.

  • M7i
  • Amazon-EC2-M7i-Instances werden von Intel Xeon-Scalable-Prozessoren der 4. Generation angetrieben und bieten eine 15 % bessere Preisleistung als M6i-Instances.

    Features:

    • Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
    • Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
    • 2 Metal-Größen: m7i.metal-24xl und m7i.metal-48xl
    • Separate integrierte Beschleuniger (nur für M7i-Bare-Metal-Größen verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Auslagerung und Beschleunigung von Datenoperationen, die die Leistung von Datenbanken, Verschlüsselungs- und Komprimierungs- sowie Warteschlangenmanagement-Workloads optimieren
    • Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
    • Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
    • Bis zu 192 vCPUs und 768 GiB Arbeitsspeicher
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)

    m7i.large

    2

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7i.xlarge

    4

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7i.2xlarge

    8

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7i.4xlarge

    16

    64

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7i.8xlarge

    32

    128

    Nur EBS

    12,5

    10

    m7i.12xlarge

    48

    192

    Nur EBS

    18,75

    15

    m7i.16xlarge

    64

    256

    Nur EBS

    25

    20

    m7i.24xlarge

    96

    384

    Nur EBS

    37,5

    30

    m7i.48xlarge

    192

    768

    Nur EBS

    50

    40

    m7i.metal-24xl

    96

    384

    Nur EBS

    37,5

    30

    m7i.metal-48xl

    192

    768

    Nur EBS

    50

    40

    Anwendungsfälle

    M7i-Instances eignen sich ideal für allgemeine Workloads, insbesondere solche, die größere Abmessungen oder eine hohe kontinuierliche CPU-Auslastung erfordern, einschließlich großer Anwendungsserver, großer Datenbanken, Gaming-Server, CPU-gestütztes Machine Learning und Videostreaming.

  • M7i-flex
  • M7i-flex-Instances von Amazon EC2 werden von skalierbaren Intel-Xeon-Prozessoren der 4. Generation angetrieben und bieten ein um 19 % besseres Preis-Leistungs-Verhältnis als M6i-Instances.

    Features:

    • Der einfachste Weg für Sie, für einen Großteil Ihrer allgemeinen Workloads Preis-Leistungs- und Kostenvorteile in der Cloud zu erzielen
    • Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
    • Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
    • Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)

    m7i-flex.large

    2

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7i-flex.xlarge

    4

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7i-flex.2xlarge

    8

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7i-flex.4xlarge

    16

    64

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7i-flex.8xlarge

    32

    128

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    Anwendungsfälle

    M7i-flex-Instances sind eine hervorragende erste Wahl für die nahtlose Ausführung einer Vielzahl von Allzweck-Workloads, einschließlich Web- und Anwendungsservern, virtuellen Desktops, Batch-Verarbeitung, Microservices, Datenbanken und Unternehmensanwendungen.

  • M7a
  • Amazon-EC2-M7a-Instances, die von AMD-EPYC-Prozessoren der 4. Generation angetrieben werden, bieten eine bis zu 50 % höhere Leistung im Vergleich zu M6a-Instances.

    Features:

    • Bis zu 3,7-GHz-AMD-EPYC-Prozessoren der 4. Generation (AMD EPYC 9R14)
    • Bis zu 50 Gbit/s Netzwerkbandbreite
    • Bis zu 40 Gbit/s Bandbreite zu Amazon Elastic Block Store (Amazon EBS)
    • Instance-Größe mit bis zu 192 vCPUs und 768 GB Arbeitsspeicher
    • SAP-zertifizierte Instances
    • Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
    • Unterstützung für permanente Speicherverschlüsselung mit AMD Secure Memory Encryption (SME)
    • Unterstützung für neue Prozessorfunktionen wie AVX3-512, VNNI und bfloat16.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s)

    m7a.medium

    1

    4

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7a.large

    2

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7a.xlarge

    4

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7a.2xlarge

    8

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7a.4xlarge

    16

    64

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    m7a.8xlarge

    32

    128

    Nur EBS

    12,5

    10

    m7a.12xlarge

    48

    192

    Nur EBS

    18,75

    15

    m7a.16xlarge

    64

    256

    Nur EBS

    25

    20

    m7a.24xlarge

    96

    384

    Nur EBS

    37,5

    30

    m7a.32xlarge

    128

    512

    Nur EBS

    50

    40

    m7a.48xlarge

    192

    768

    Nur EBS

    50

    40

    m7a.metal-48xl

    192

    768

    Nur EBS

    50

    40

    Anwendungsfälle

    Anwendungen, die von hoher Leistung und hohem Durchsatz profitieren, wie Finanzanwendungen, Anwendungsserver, Simulationsmodellierung, Spiele, mittelgroße Datenspeicher, Umgebungen für die Anwendungsentwicklung und Caching-Flotten.

  • Mac
  • Amazon-EC2-Mac-Instances ermöglichen Ihnen die bedarfsgerechte Ausführung von macOS-Workloads in der Cloud und machen die Flexibilität, Skalierbarkeit und Kostenvorteile von AWS für alle Apple-Entwickler zugänglich. Mithilfe von EC2-Mac-Instances können Sie Apps für iPhone, iPad, Mac, Vision Pro, Apple Watch, Apple TV und Safari erstellen. Diese Instances geben Entwicklern Zugriff auf macOS, damit sie Anwendungen entwickeln, erstellen, testen und signieren können, die die Xcode IDE benötigen. EC2-Mac-Instances sind dedizierte Bare-Metal-Instances, auf die in der EC2-Konsole und über die AWS-Befehlszeilenschnittstelle als Dedicated Hosts zugegriffen werden kann.

    x86-basierte EC2-Mac-Instances werden von einer Kombination aus Mac-Mini-Computern angetrieben – mit:

    • Intels Core i7-Prozessoren der 8. Generation mit 3,2 GHz (4,6 GHz Turbo)
    • 6 physische und 12 logische Kerne
    • 32 GiB Speicher
    • Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)
    mac1.metal 12 32 Nur EBS 10 8

    EC2-M1-Mac-Instances werden von einer Kombination aus Apple-Silizium-Mac-Mini-Computern angetrieben – mit:

    • Apple M1-Chip mit 8 CPU-Kernen
    • 8 GPU-Kerne
    • 16 GiB Speicher
    • Apple Neural Engine mit 16 Kernen
    • Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)
    mac2.metal 8 16 Nur EBS 10 8

    EC2 M2 Mac-Instances werden von einer Kombination aus Apple Silicon Mac Mini-Computern angetrieben – mit:

    • Apple M2-Chip mit 8 CPU-Kernen
    • 10 GPU-Kerne
    • 24 GiB Arbeitsspeicher
    • Apple Neural Engine mit 16 Kernen
    • Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)
    mac2-m2.metal 8 24 Nur EBS 10 8

    EC2 M2 Pro Mac-Instances werden von einer Kombination von Apple-Silicon-Mac-Minicomputern mit folgenden Funktionen betrieben:

    • Apple M2 Pro-Chip mit 12 CPU-Kernen
    • 19 GPU-Kerne
    • 32 GiB Speicher
    • Apple Neural Engine mit 16 Kernen
    • Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)
    mac2-m2pro.metal 12 32 Nur EBS 10 8

    Anwendungsfälle

    Entwickeln, Erstellen, Testen und Signieren von iOS-, iPadOS-, macOS-, visionOS-, WatchOS- und tvOS-Anwendungen in der Xcode IDE

  • M6g
  • Amazon-EC2-M6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten im Vergleich zu M5-Instanzen der aktuellen Generation ein um bis zu 40 % günstigeres Preis-Leistungs-Verhältnis und bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen für eine breite Palette von Workloads.

    Features:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den M6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    m6g.medium 1 4 Nur EBS Bis zu 10 Bis zu 4.750
    m6g.large 2 8 Nur EBS Bis zu 10 Bis zu 4.750
    m6g.xlarge 4 16 Nur EBS Bis zu 10 Bis zu 4.750
    m6g.2xlarge 8 32 Nur EBS Bis zu 10 Bis zu 4.750
    m6g.4xlarge 16 64 Nur EBS Bis zu 10 4.750
    m6g.8xlarge 32 128 Nur EBS 12 9.000
    m6g.12xlarge 48 192 Nur EBS 20 13.500
    m6g.16xlarge 64 256 Nur EBS 25 19.000
    m6g.metal 64 256 Nur EBS 25 19.000
    m6gd.medium 1 4 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750
    m6gd.large 2 8 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750
    m6gd.xlarge 4 16 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750
    m6gd.2xlarge 8 32 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750
    m6gd.4xlarge 16 64 1 x 950 NVMe-SSD Bis zu 10 4.750
    m6gd.8xlarge 32 128 1 x 1.900 NVMe-SSD 12 9.000
    m6gd.12xlarge 48 192 2 x 1.425 NVMe-SSD 20 13.500
    m6gd.16xlarge 64 256 2 x 1.900 NVMe-SSD 25 19.000
    m6gd.metal 64 256 2 x 1.900 NVMe-SSD 25 19.000

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Anwendungen, die auf Open-Source-Software basieren, z. B. Anwendungsserver, Microservices, Spieleserver, mittelgroße Datenspeicher und Caching-Flotten.

  • M6i
  • Amazon-EC2-M6i-Instances werden mit skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Ice Lake) betrieben. Diese Familie bietet eine ausgewogene Kombination von Computer-, Speicher- und Netzwerkressourcen und ist für viele Anwendungen eine gute Wahl.

    Features:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 15 % bessere Rechenpreisleistung gegenüber M5-Instances
    • Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu M5-Instances
    • Bis zu 50 Gbit/s Netzwerkgeschwindigkeit
    • Bis zu 40 Gbit/s Bandbreite zu Amazon Elastic Block Store (EBS)
    • Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 512 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Unterstützung für die neuen Intel Advanced Vector Extensions (AVX 512)-Befehle zur schnelleren Verarbeitung kryptografischer Algorithmen
    • Bei M6id Instances sind bis zu 7,6 TB lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M6i-Instance gekoppelt ist
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)
    m6i.large 2 8 Nur EBS Bis zu 12,5 Bis zu 10
    m6i.xlarge 4 16 Nur EBS Bis zu 12,5 Bis zu 10
    m6i.2xlarge 8 32 Nur EBS Bis zu 12,5 Bis zu 10
    m6i.4xlarge 16 64 Nur EBS Bis zu 12,5 Bis zu 10
    m6i.8xlarge 32 128 Nur EBS 12,5 10
    m6i.12xlarge 48 192 Nur EBS 18,75 15
    m6i.16xlarge 64 256 Nur EBS 25 20
    m6i.24xlarge 96 384 Nur EBS 37,5 30
    m6i.32xlarge 128 512 Nur EBS 50 40
    m6i.metal 128 512 Nur EBS 50 40
    m6id.large 2 8 1 x 118 NVMe SSD Bis zu 12,5 Bis zu 10
    m6id.xlarge 4 16 1 x 237 NVMe SSD Bis zu 12,5 Bis zu 10
    m6id.2xlarge 8 32 1 x 474 NVMe SSD Bis zu 12,5 Bis zu 10
    m6id.4xlarge 16 64 1x950 NVMe SSD Bis zu 12,5 Bis zu 10
    m6id.8xlarge 32 128 1 x 1900 NVMe SSD 12,5 10
    m6id.12xlarge 48 192 2 x 1425 NVMe SSD 18,75 15
    m6id.16xlarge 64 256 2x1900 NVMe SSD 25 20
    m6id.24xlarge 96 384 4 x 1425 NVMe SSD 37,5 30
    m6id.32xlarge 128 512 4 x 1900 NVMe SSD 50 40
    m6id.metal 128 512 4 x 1900 NVMe SSD 50 40

    Anwendungsfälle

    Diese Instances sind SAP-zertifiziert und eignen sich ideal für Workloads wie Backend-Server, die Unternehmensanwendungen unterstützen (z. B. Datenbanken von Microsoft Exchange, SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server und PostgreSQL), Spiele-Server, Caching-Flotten sowie für Anwendungs-Entwicklungsumgebungen.

  • M6in
  • Amazon-EC2-M6in- und M6idn-Instances sind ideal für netzwerkintensive Workloads wie Backend-Server, Enterprise-Server, Gaming-Server und Flotten-Anwendungen für Caching. Angetrieben von Intel-Xeon-Scalable-Prozessoren der 3. Generation (Ice Lake) mit einer All-Core-Turbofrequenz von 3,5 GHz bieten sie eine Netzwerkbandbreite von bis zu 200 Gbit/s und eine Amazon EBS-Bandbreite von bis zu 80 Gbit/s.

    Features:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu M5n und M5dn-Instances
    • Bis zu 200 Gbit/s Netzwerkgeschwindigkeit, das ist bis zu zweimal schneller als bei M5n- und M5dn-Instances
    • Bis zu 100 Gbit/s EBS-Bandbreite, das ist bis zu 5,2 Mal mehr als bei M5n- und M5dn-Instances
    • EFA-Unterstützung für die Größen 32xlarge und metal
    • Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Unterstützung für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    • Mit M6idn Instances sind bis zu 7,6 TB lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M6idn-Instance gekoppelt ist
    • Angetrieben vom AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s)
    m6in.large 2 8 Nur EBS
    Bis zu 25 Bis zu 25
    m6in.xlarge 4 16 Nur EBS Bis zu 30 Bis zu 25
    m6in.2xlarge 8 32 Nur EBS Bis zu 40 Bis zu 25
    m6in.4xlarge 16 64 Nur EBS Bis zu 50 Bis zu 25
    m6in.8xlarge 32 128 Nur EBS 50 25
    m6in.12xlarge 48 192 Nur EBS 75 37,5
    m6in.16xlarge 64 256 Nur EBS 100 50
    m6in.24xlarge 96 384 Nur EBS 150 75
    m6in.32xlarge 128 512 Nur EBS 200**** 100
    m6in.metal 128 512 Nur EBS 200**** 100
    m6idn.large 2 8

    1x118-NVMe-SSD

    Bis zu 25 Bis zu 25
    m6idn.xlarge 4 16 1x237-NVMe-SSD Bis zu 30 Bis zu 25
    m6idn.2xlarge 8 32 1x474-NVMe-SSD Bis zu 40 Bis zu 25
    m6idn.4xlarge 16 64

    1x950-NVMe-SSD

    Bis zu 50 Bis zu 25
    m6idn.8xlarge 32 128

    1x1900-NVMe-SSD

    50 25
    m6idn.12xlarge 48 192 2x1425-NVMe-SSD 75 37,5
    m6idn.16xlarge 64 256 2x1900-NVMe-SSD 100 50
    m6idn.24xlarge 96 384 4x1425-NVMe-SSD 150 75
    m6idn.32xlarge 128 512 4x1900-NVMe-SSD 200**** 100
    m6idn.metal 128 512 4x1900-NVMe-SSD 200**** 100

    ****Für die Größen 32xlarge und Metal sind in der Instance mindestens zwei elastische Netzwerkschnittstellen erforderlich, die jeweils mit einer anderen Netzwerkkarte verbunden sind, um einen Durchsatz von 200 Gbit/s zu erreichen. Jede Netzwerkschnittstelle, die an eine Netzwerkkarte angeschlossen ist, kann maximal 170 Gbit/s erreichen. Weitere Informationen finden Sie unter Netzwerkkarten

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Diese Instances sind SAP-zertifiziert und ideal für Workloads, die einen hohen Netzwerkdurchsatz benötigen. Zu den Workloads gehören hochleistungsfähige Dateisysteme, verteilte Memory-Caches zur Web-Abskalierung, Flotten-Caching, Big-Data-Analysen in Echtzeit, Telekommunikationsanwendungen wie 5G User Plane Function (UPF), sowie Umgebungen zur Anwendungsentwicklung.

  • M6a
  • Amazon-EC2-M6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind ideal für allgemeine Workloads geeignet.

    Features:

    • Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Bis zu 35 % bessere Rechenpreisleistung gegenüber M5a-Instances
    • Bis zu 50 Gbit/s Netzwerkdurchsatz
    • Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Instance-Größe mit bis zu 192 vCPUs und 768 GiB Speicher
    • SAP-zertifizierte Instances
    • Unterstützt Elastic Fabric Adapter in der 48xlarge-Größe
    • Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)   
    • Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s)
    m6a.large 2 8 Nur EBS Bis zu 12,5 Bis zu 10
    m6a.xlarge 4 16 Nur EBS Bis zu 12,5 Bis zu 10
    m6a.2xlarge 8 32 Nur EBS Bis zu 12,5 Bis zu 10
    m6a.4xlarge 16 64 Nur EBS Bis zu 12,5 Bis zu 10
    m6a.8xlarge 32 128 Nur EBS 12,5 10
    m6a.12xlarge 48 192 Nur EBS 18,75 15
    m6a.16xlarge 64 256 Nur EBS 25 20
    m6a.24xlarge 96 384 Nur EBS 37,5 30
    m6a.32xlarge 128 512 Nur EBS 50 40
    m6a.48xlarge 192 768 Nur EBS 50 40
    m6a.metal 192 768 Nur EBS 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Diese Instances sind SAP-zertifiziert und eignen sich ideal für Workloads wie Backend-Server zur Unterstützung von Unternehmensanwendungen (z. B. Microsoft Exchange und SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server und PostgreSQL-Datenbanken), Multiplayer-Gaming-Server, Caching-Flotten sowie für Anwendungsentwicklungsumgebungen.

  • M5
  • Amazon-EC2-M5-Instances sind die neueste Generation von Allzweck-Instances, die von Intel Xeon®-Platinum-8175M- oder 8259CL-Prozessoren angetrieben werden. Diese Instances bieten ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen und eignen sich für zahlreiche Anwendungen.

    Features:

    • Bis zu 3,1 GHz Intel Xeon Scalable Prozessor (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
    • Neue größere Instance-Größe, m5.24xlarge, mit 96 vCPUs und 384 GiB Speicher
    • Bis zu 25 Gbit/s Netzwerkbandbreite über Enhanced Networking
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Bei M5d Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
    • Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
    Instance-Größe
    vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher
    (GB)
    Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    m5.large 2 8 Nur EBS Bis zu 10 Bis zu 4.750
    m5.xlarge 4 16 Nur EBS Bis zu 10 bis zu 4.750
    m5.2xlarge 8 32 Nur EBS Bis zu 10 bis zu 4.750
    m5.4xlarge 16 64 Nur EBS Bis zu 10 4 750
    m5.8xlarge 32 128 Nur EBS 10 6.800
    m5.12xlarge 48 192 Nur EBS 12 9 500
    m5.16xlarge 64 256 Nur EBS 20 13.600
    m5.24xlarge 96 384 Nur EBS 25 19.000
    m5.metal 96* 384 Nur EBS 25 19.000
    m5d.large 2 8 1 x 75 NVMe-SSD Bis zu 10 Bis zu 4.750
    m5d.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 10 Bis zu 4.750
    m5d.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 10 Bis zu 4.750
    m5d.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 10 4 750
    m5d.8xlarge 32 128 2 x 600 NVMe-SSD 10 6.800
    m5d.12xlarge 48 192 2 x 900 NVMe-SSD 12 9 500
    m5d.16xlarge 64 256 4 x 600 NVMe-SSD 20 13.600
    m5d.24xlarge 96 384 4 x 900 NVMe-SSD 25 19.000
    m5d.metal 96* 384 4 x 900 NVMe-SSD 25 19.000

    * m5.metal und m5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Backend-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • M5n
  • Amazon-EC2-M5-Instances sind für Workloads ideal, die ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkleistung einschließlich Web- und Anwendungsservern, kleinen und mittleren Datenbankgrößen, Cluster Computing, Gaming-Servern und Cache-Flotten erfordern. Die Instance-Varianten mit größerer Bandbreite M5n und M5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.
    Feature:

    • Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
    • Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
    • 25 Gbit/s Spitzenbandbreite auf kleineren Instance-Größen 
    • 100 Gbit/s Netzwerkbandbreite auf den größten Instance-Größen
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor 
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind 
    • Bei M5dn-Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
    Instance-Größe
    vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher
    (GB)
    Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    m5n.large 2 8 Nur EBS Bis zu 25 Bis zu 4.750
    m5n.xlarge 4 16 Nur EBS Bis zu 25 bis zu 4.750
    m5n.2xlarge 8 32 Nur EBS Bis zu 25 Bis zu 4.750
    m5n.4xlarge 16 64 Nur EBS Bis zu 25 4 750
    m5n.8xlarge 32 128 Nur EBS 25 6.800
    m5n.12xlarge 48 192 Nur EBS 50 9 500
    m5n.16xlarge 64 256 Nur EBS 75 13.600
    m5n.24xlarge 96 384 Nur EBS 100 19.000
    m5n.metal 96* 384 Nur EBS 100 19.000
    m5dn.large 2 8 1 x 75 NVMe-SSD Bis zu 25 Bis zu 4.750
    m5dn.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 25 Bis zu 4.750
    m5dn.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 25 Bis zu 4.750
    m5dn.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 25 4 750
    m5dn.8xlarge 32 128 2 x 600 NVMe-SSD 25 6.800
    m5dn.12xlarge 48 192 2 x 900 NVMe-SSD 50 9 500
    m5dn.16xlarge 64 256 4 x 600 NVMe-SSD 75 13.600
    m5dn.24xlarge 96 384 4 x 900 NVMe-SSD 100 19.000
    m5dn.metal 96* 384 4 x 900 NVMe-SSD 100 19.000

    *m5n.metal und m5dn.metal bieten 96 logische Prozessoren auf 48 physischen Kernen.

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Web- und Anwendungsserver, kleine und mittlere Datenbankgrößen, Cluster Computing, Spieleservern, Cachefarmen und andere Unternehmensanwendungen

  • M5zn
  • Amazon-EC2-M5zn-Instances liefern die schnellsten Intel Xeon Scalable Prozessoren in der Cloud, mit einer Turbofrequenz von bis zu 4,5 GHz für alle Kerne.

    Features:

    • Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8252C) mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz
    • Bis zu 100 Gbit/s Netzwerkbandbreite bei der größten Instance-Größe und Bare-Metal-Variante
    • Bis zu 19 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • 12-fache und Metallgrößen von M5zn-Instances nutzen die neueste Generation des Elastic Network Adapters und ermöglichen mit dem Elastic Fabric Adapter eine gleichbleibend niedrige Latenz
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB)
    Instance-Speicher
    (GB)

    Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    m5zn.large 2 8 Nur EBS Bis zu 25 Bis zu 3 170
    m5zn.xlarge 4 16 Nur EBS Bis zu 25 Bis zu 3 170
    m5zn.2xlarge 8 32 Nur EBS Bis zu 25 3 170
    m5zn.3xlarge 12 48 Nur EBS Bis zu 25 4 750
    m5zn.6xlarge 24 96 Nur EBS 50 9 500
    m5zn.12xlarge 48 192 Nur EBS 100 19.000
    m5zn.metal 48 192 Nur EBS 100 19.000
    2 x 300 NVMe-SSD
    2 x 300 NVMe-SSD

    Anwendungsfälle

    M5zn-Instanzen eignen sich ideal für Anwendungen, die von einer extrem hohen Single-Thread-Leistung und einem Netzwerk mit hohem Durchsatz und geringer Latenz profitieren, wie z. B. Spiele, High Performance Computing und Simulationsmodellierung für die Automobil-, Luft- und Raumfahrt-, Energie- und Telekommunikationsindustrie.

  • M5a
  • Bei Amazon-EC2-M5a-Instances handelt es sich um Allzweck-Instances der neuesten Generation mit Prozessoren der AMD-EPYC-7000-Serie. M5a-Instances sind um bis zu 10 % günstiger als vergleichbare Instance-Typen. Bei den M5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden. Außerdem wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.

    Features:

    • Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
    • Bis zu 20 Gbit/s Netzwerkbandbreite mit Enhanced Networking
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit M5ad-Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M5a-Instance gekoppelt ist
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB)
    Instance-Speicher
    (GB)

    Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    m5a.large 2 8 Nur EBS Bis zu 10 Bis zu 2.880
    m5a.xlarge 4 16 Nur EBS Bis zu 10 Bis zu 2.880
    m5a.2xlarge 8 32 Nur EBS Bis zu 10 Bis zu 2.880
    m5a.4xlarge 16 64 Nur EBS Bis zu 10 2.880
    m5a.8xlarge 32 128 Nur EBS Bis zu 10 4 750
    m5a.12xlarge 48 192 Nur EBS 10 6.780
    m5a.16xlarge 64 256 Nur EBS 12 9 500
    m5a.24xlarge 96 384 Nur EBS 20 13 570
    m5ad.large 2 8 1 x 75 NVMe-SSD Bis zu 10 Bis zu 2.880
    m5ad.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 10 Bis zu 2.880
    m5ad.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 10 Bis zu 2.880
    m5ad.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 10 2.880
    m5ad.8xlarge 32 128 2 x 600 NVMe-SSD Bis zu 10 4 750
    m5ad.12xlarge 48 192 2 x 900 NVMe-SSD 10 6.870
    m5ad.16xlarge 64 256 4 x 600 NVMe-SSD 12 9 500
    m5ad.24xlarge 96 384 4 x 900 NVMe-SSD 20 13 570

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Back-End-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • M4
  • Die Amazon-EC2-M4-Instances bieten ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen und eignen sich für zahlreiche Anwendungen.

    Features:

    • Bis zu 2,4 GHz skalierbarer Intel Xeon-Prozessor (Broadwell E5-2686 v4 oder Haswell E5-2676 v3)
    • EBS-optimiert standardmäßig ohne zusätzliche Kosten
    • Unterstützung für Enhanced Networking
    • Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen
    Instance vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung***
    m4.large 2 8 Nur EBS 450 Mittel
    m4.xlarge 4 16 Nur EBS 750 Hoch
    m4.2xlarge 8 32 Nur EBS 1.000 Hoch
    m4.4xlarge 16 64 Nur EBS 2.000 Hoch
    m4.10xlarge 40 160 Nur EBS 4.000 10 Gigabit
    m4.16xlarge 64 256 Nur EBS 10 000 25 Gigabit

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben mit höherem Arbeitsspeicherbedarf, Caching-Flotten und die Ausführung von Backend-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.

  • T4g
  • Amazon-EC2-T4g-Instances werden von speziell entwickelten Arm-basierten AWS-Graviton2-Prozessoren betrieben und bieten ein bis zu 40 % besseres Preis-Leistungs-Verhältnis als T3-Instances für eine breite Palette von spitzenlastfähigen universellen Workloads.

    T4g-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T4g-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu verbessern. T4g-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.

    Features:

    • Kostenlose Testversion von t4g.small-Instances für bis zu 750 Stunden pro Monat bis zum 31. Dezember 2024. Einzelheiten finden Sie in den häufig gestellten Fragen.
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Basisleistung / vCPU CPU-Guthaben verdient / Stunde Spitzenleistung der Netzwerkbandbreite (Gbit/s)*** Spitzenleistung der EBS-Bandbreite (Mbit/s)
    t4g.nano 2 0,5 5 % 6 Bis zu 5 Bis zu 2 085
    t4g.micro 2 1 10 % 12 Bis zu 5 Bis zu 2 085
    t4g.small 2 2 20 % 24 Bis zu 5 Bis zu 2 085
    t4g.medium 2 4 20 % 24 Bis zu 5 Bis zu 2 085
    t4g.large 2 8 30 % 36 Bis zu 5 Bis zu 2 780
    t4g.xlarge 4 16 40 % 96 Bis zu 5 Bis zu 2 780
    t4g.2xlarge 8 32 40 % 192 Bis zu 5 Bis zu 2 780

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen.

  • T3
  • Amazon-EC2-T3-Instances sind die nächste Generation von Instance-Typen mit Spitzenleistung, die für allgemeine Zwecke verwendet werden können, eine CPU-Basisleistung sowie die Möglichkeit bieten, die CPU-Auslastung jederzeit für den Spitzenlastleistungsverkehr so lange wie nötig zu erhöhen. T3-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen.

    T3-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu nutzen. T3-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.

    Features:

    • Bis zu 3,1 GHz skalierbarer Intel Xeon-Prozessor (Skylake 8175M oder Cascade Lake 8259CL)
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • AWS Nitro System und Intel-Xeon-Scalable-Hochfrequenzprozessoren führen zu einer bis zu 30-prozentigen Preis-Leistungs-Verbesserung gegenüber T2-Instances
    Instance vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)***
    t3.nano 2
    6
    0,5 Nur EBS Bis zu 5
    t3.micro 2
    12
    1 Nur EBS
    Bis zu 5
    t3.small 2
    24
    2 Nur EBS
    Bis zu 5
    t3.medium 2 24
    4 Nur EBS
    Bis zu 5
    t3.large 2 36
    8 Nur EBS Bis zu 5
    t3.xlarge 4 96
    16 Nur EBS Bis zu 5
    t3.2xlarge 8 192
    32 Nur EBS Bis zu 5

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen

  • T3a
  • Amazon-EC2-T3a-Instances sind die nächste Generation von Instance-Typen mit Spitzenleistung, die für allgemeine Zwecke verwendet werden können, eine CPU-Basisleistung sowie die Möglichkeit bieten, die CPU-Auslastung jederzeit für den Spitzenlastleistungsverkehr so lange wie nötig zu erhöhen. T3a-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Arbeitsspeicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen. T3a-Instances sind um bis zu 10 % günstiger als vergleichbare Instance-Typen.

    T3a-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3a-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu verbessern. T3a-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.

    Features:

    • Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)***
    t3a.nano 2
    6
    0,5 Nur EBS Bis zu 5
    t3a.micro 2
    12
    1 Nur EBS
    Bis zu 5
    t3a.small 2
    24
    2 Nur EBS
    Bis zu 5
    t3a.medium 2 24
    4 Nur EBS
    Bis zu 5
    t3a.large 2 36
    8 Nur EBS Bis zu 5
    t3a.xlarge 4 96
    16 Nur EBS Bis zu 5
    t3a.2xlarge 8 192
    32 Nur EBS Bis zu 5

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle:

    Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen

  • T2
  • Amazon-EC2-T2-Instances sind Instances mit Spitzenlastleistung, die eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.

    T2-Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T2 Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.

    Die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten werden über CPU-Guthaben verwaltet. T2-Instances erhalten je nach Instance-Größe kontinuierlich CPU-Guthaben mit einer festgelegten Rate, wobei sie CPU-Guthaben sammeln, wenn sie im Leerlauf sind, bzw. Guthaben verbrauchen, wenn sie aktiv sind. T2-Instances eignen sich ideal für eine breite Palette an Verarbeitungslasten für allgemeine Zwecke wie Microservices, interaktive Anwendungen mit geringer Latenz, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungs-, Build- und Stagingumgebungen, Code-Repositorys und Produktprototypen. Weitere Informationen finden Sie unter Instances mit Spitzenlastleistung.

    Features:

    • Bis zu 3,3 GHz skalierbarer Intel Xeon-Prozessor (Haswell E5 - 2676 v3 oder Broadwell E5-2686 v4)
    • Hochfrequenz Intel Xeon Prozessoren
    • Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
    • Preiswerter Instance-Typ für allgemeine Zwecke mit wahlweise erhältlichem kostenlosem Kontingent*
    • Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen

    * nur t2.micro Bei einer Konfiguration als T2 Unlimited-Instance fallen möglicherweise Gebühren an, wenn die CPU-Nutzung die Basisleistung der Instance überschreitet. Weitere Informationen finden Sie in der Dokumentation.

    Instance vCPU* CPU-Guthaben / Stunde
    Arbeitsspeicher (GiB)  Speicher
    Netzwerkleistung
    t2.nano 1 3 0,5 Nur EBS Gering
    t2.micro 1 6 1 Nur EBS
    Gering bis mittel
    t2.small 1 12 2 Nur EBS
    Gering bis mittel
    t2.medium 2 24 4 Nur EBS
    Gering bis mittel
    t2.large 2 36 8 Nur EBS Gering bis mittel
    t2.xlarge 4 54 16 Nur EBS Mittel
    t2.2xlarge 8 81 32 Nur EBS Mittel

    Alle Instances haben die folgenden Spezifikationen:

    • Intel AVX†, Intel Turbo†
    • t2.nano, t2.micro, t2.small, t2.medium verfügen über einen skalierbaren Intel Xeon Prozessor mit bis zu 3,3 GHz
    • t2.large, t2.xlarge und t2.2xlarge verfügen über einen skalierbaren Intel-Prozessor mit bis zu 3,0 GHz

    Anwendungsfälle

    Websites und Webanwendungen, Entwicklungsumgebungen, Buildserver, Code-Repositorys, Microservices, Test- und Stagingumgebungen sowie Branchenanwendungen.  

Jede vCPU auf Graviton-basierten Amazon-EC2-Instances ist ein Kern des AWS-Graviton-Prozessors.

Jede vCPU auf Amazon EC2-Instances, die nicht auf Graviton basieren, ist ein Thread eines x86-basierten Prozessors, mit Ausnahme von M7a-Instances, T2-Instances und m3.medium.

† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in dieses Feature erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

** Diese M4-Instances können auf einem Intel Xeon E5-2686 v4-Prozessor (Broadwell) gestartet werden.  

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Für Datenverarbeitung optimiert

Rechenoptimierte Instances sind ideal für rechnergebundene Anwendungen, die von Hochleistungsprozessoren profitieren. Instances dieser Kategorie eignen sich gut für Stapelverarbeitungsaufgaben, Medientranskodierung, Hochleistungs-Webserver, High Performance Computing (HPC), wissenschaftliche Modellierung, dedizierte Spieleserver und Anzeigenserver-Engines, Machine Learning-Inferenzen und andere rechenintensive Anwendungen.

  • C7g
  • Amazon-EC2-C7g-Instances werden mit Arm-basierten AWS-Graviton3-Prozessoren betrieben. Sie bieten die beste Preisleistung in Amazon EC2 für rechenintensive Anwendungen.

    Funktionen:

    • Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
    • Mit dem neuesten DDR5-Speicher ausgestattet, der im Vergleich zu DDR4 50 % mehr Bandbreite bietet
    • 20 % höhere Netzwerkbandbreite im Vergleich zu C6g-Instances
    • Standardmäßig für EBS optimiert
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den C7gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
    • Unterstützt Elastic Fabric Adapter auf c7g.16xlarge-, c7g.metal-, c7gd.16xlarge- nud c7gd.metal-Instances
    • Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)

    c7g.medium

    1

    2

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7g.large

    2

    4

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7g.xlarge

    4

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7g.2xlarge

    8

    16

    Nur EBS

    Bis zu 15

    Bis zu 10

    c7g.4xlarge

    16

    32

    Nur EBS

    Bis zu 15

    Bis zu 10

    c7g.8xlarge

    32

    64

    Nur EBS

    15

    10

    c7g.12xlarge

    48

    96

    Nur EBS

    22,5

    15

    c7g.16xlarge

    64

    128

    Nur EBS

    30

    20

    c7g.metal 64 128 Nur EBS 30 20

    c7gd.medium

    1

    2

    1 x 59 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    c7gd.large

    2

    4

    1 x 118 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    c7gd.xlarge

    4

    8

    1 x 237 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    c7gd.2xlarge

    8

    16

    1 x 474 NVMe-SSD

    Bis zu 15

    Bis zu 10

    c7gd.4xlarge

    16

    32

    1 x 950 NVMe-SSD

    Bis zu 15

    Bis zu 10

    c7gd.8xlarge

    32

    64

    1 x 1 900 NVMe-SSD

    15

    10

    c7gd.12xlarge

    48

    96

    2 x 1 425 NVMe-SSD

    22,5

    15

    c7gd.16xlarge

    64

    128

    2 x 1 900 NVMe-SSD

    30

    20

    c7gd.metal

    64

    128

    2 x 1 900 NVMe-SSD

    30

    20

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    High Performance Computing (HPC), Batch-Verarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analytik und CPU-basierte Machine-Learning-Inferenz.

  • C7gn
  • Amazon-EC2-C7gn-Instances werden von Arm-basierten AWS-Graviton3E-Prozessoren angetrieben. Sie bieten bis zu 200 Gbit/s Netzwerkbandbreite und eine bis zu dreimal höhere Paketverarbeitungsleistung pro vCPU im Vergleich zu vergleichbaren x86-basierten netzwerkoptimierten Instances der aktuellen Generation.

    Funktionen:

    • Angetrieben von speziell entwickelten AWS-Graviton3E-Prozessoren
    • Ausgestattet mit dem neuesten Double Data Rate 5 (DDR5)-Speicher, der im Vergleich zu DDR4 eine um 50 % höhere Bandbreite bereitstellt
    • Bis zu 200 GBit/s Netwerkbandbreite
    • Bis zu 40 GBit/s Bandbreite zu Amazon Elastic Block Store (EBS)
    • Zweifach erhöhte Netzwerkbandbreite im Vergleich zu C6gn-Instances
    • Standardmäßig für EBS optimiert
    • Unterstützt Elastic Fabric Adapter (EFA) auf den c7gn.16xlarge-Instances
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)

    c7gn.medium

    1

    2

    Nur EBS

    Bis zu 25

    Bis zu 10

    c7gn.large

    2

    4

    Nur EBS

    Bis zu 30

    Bis zu 10

    c7gn.xlarge

    4

    8

    Nur EBS

    Bis zu 40

    Bis zu 10

    c7gn.2xlarge

    8

    16

    Nur EBS

    Bis zu 50

    Bis zu 10

    c7gn.4xlarge

    16

    32

    Nur EBS

    50

    Bis zu 10

    c7gn.8xlarge

    32

    64

    Nur EBS

    100

    Bis zu 20

    c7gn.12xlarge

    48

    96

    Nur EBS

    150

    Bis zu 30

    c7gn.16xlarge

    64

    128

    Nur EBS

    200

    Bis zu 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle
    Netzwerkintensive Workloads, wie z. B. virtuelle Netzwerkanwendungen, Datenanalyse und CPU-basierte künstliche Intelligenz und Machine Learning (AI/ML)-Inferenz

  • C7i
  • Amazon EC2 C7i-Instances werden von skalierbaren Intel Xeon Prozessoren der 4. Generation betrieben und bieten ein um 15 % besseres Preis-Leistungs-Verhältnis als C6i-Instances.

    Features:

    • Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
    • Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
    • 2 Metal-Größen: c7i.metal-24xl und c7i.metal-48xl
    • Diskrete integrierte Beschleuniger (nur für Bare-Metal-Größen C7i verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Übertragung und Beschleunigung von Datenoperationen, wodurch die Leistung von Datenbanken-, Verschlüsselungs- und Komprimierungs- sowie Warteschlangenmanagement-Workloads optimiert wird
    • Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
    • Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
    • Bis zu 192 vCPUs und 384 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in den Größen 48xlarge und metal-48xl
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s)

    c7i.large

    2

    4

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7i.xlarge

    4

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7i.2xlarge

    8

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7i.4xlarge

    16

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7i.8xlarge

    32

    64

    Nur EBS

    12,5

    10

    c7i.12xlarge

    48

    96

    Nur EBS

    18,75

    15

    c7i.16xlarge

    64

    128

    Nur EBS

    25

    20

    c7i.24xlarge

    96

    192

    Nur EBS

    37,5

    30

    c7i.48xlarge

    192

    384

    Nur EBS

    50

    40

    c7i.metal-24xl

    96

    192

    Nur EBS

    37,5

    30

    c7i.metal-48xl

    192

    384

    Nur EBS

    50

    40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    C7i-Instances eignen sich ideal für rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analysen, High Performance Computing (HPC), Ad-Serving, hochskalierbares Multiplayer-Gaming und Videokodierung.

  • C7a
  • Amazon EC2 C7a-Instances, die von AMD EPYC-Prozessoren der 4. Generation angetrieben werden, bieten im Vergleich zu C6a-Instances eine um bis zu 50 % höhere Leistung.

    Features:

    • Bis zu 3,7-GHz-AMD-EPYC-Prozessoren der 4. Generation (AMD EPYC 9R14)
    • Bis zu 50 Gbit/s Netzwerkbandbreite
    • Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store (Amazon EBS)
    • Instance-Größen mit bis zu 192 vCPUs und 384 GiB Arbeitsspeicher
    • Basiert auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
    • Unterstützung für permanente Speicherverschlüsselung mit AMD Secure Memory Encryption (SME)
    • Unterstützung für neue Prozessorfunktionen wie AVX-512, VNNI und bfloat16
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)

    c7a.medium

    1

    2

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7a.large

    2

    4

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7a.xlarge

    4

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7a.2xlarge

    8

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7a.4xlarge

    16

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c7a.8xlarge

    32

    64

    Nur EBS

    12,5

    10

    c7a.12xlarge

    48

    96

    Nur EBS

    18,75

    15

    c7a.16xlarge

    64

    128

    Nur EBS

    25

    20

    c7a.24xlarge

    96

    192

    Nur EBS

    37,5

    30

    c7a.32xlarge

    128

    256

    Nur EBS

    50

    40

    c7a.48xlarge

    192

    384

    Nur EBS

    50

    40

    c7a.metal-48xl

    192

    384

    Nur EBS

    50

    40

    Anwendungsfälle

    Rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analytik, High Performance Computing (HPC), Ad Serving, hochskalierbare Multiplayer-Spiele und Videocodierung.
     

  • C6g
  • Amazon-EC2-C6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei rechenintensiven Anwendungen eine bis zu 40 % bessere Preisleistung als die aktuelle Generation der C5-Instances.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Mit den C6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    c6g.medium 1 2 Nur EBS Bis zu 10 Bis zu 4 750
    c6g.large 2 4 Nur EBS Bis zu 10 Bis zu 4 750
    c6g.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 4 750
    c6g.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 4 750
    c6g.4xlarge 16 32 Nur EBS Bis zu 10 4.750
    c6g.8xlarge 32 64 Nur EBS 12 9.000
    c6g.12xlarge 48 96 Nur EBS 20 13.500
    c6g.16xlarge 64 128 Nur EBS 25 19.000
    c6g.metal 64 128 Nur EBS 25 19.000
    c6gd.medium 1 2 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750
    c6gd.large 2 4 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750
    c6gd.xlarge 4 8 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750
    c6gd.2xlarge 8 16 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750
    c6gd.4xlarge 16 32 1 x 950 NVMe-SSD Bis zu 10 4.750
    c6gd.8xlarge 32 64 1 x 1.900 NVMe-SSD 12 9.000
    c6gd.12xlarge 48 96 2 x 1.425 NVMe-SSD 20 13.500
    c6gd.16xlarge 64 128 2 x 1.900 NVMe-SSD 25 19.000
    c6gd.metal 64 128 2 x 1.900 NVMe-SSD 25 19.000

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    High Performance Computing (HPC), Batch-Verarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analysen und CPU-basierte Machine Learning-Inferenz.

  • C6gn
  • Amazon-EC2-C6gn-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten eine um bis zu 40 % bessere Preisleistung als C5n-Instances der aktuellen Generation und bieten bis zu 100 Gbit/s Netzwerk und Unterstützung für Elastic Fabric Adapter (EFA) für Anwendungen, die einen höheren Netzwerkdurchsatz benötigen, wie z. B. High Performance Computing (HPC), Netzwerkgeräte, Echtzeit-Videokommunikation und Datenanalyse.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Support für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 100 Gbit/s
    • EFA-Support auf c6gn.16xlarge-Instances
    • Standardmäßig EBS-optimiert, 2x EBS-Bandbreite im Vergleich zu C5n-Instances
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)

    c6gn.medium

    1

    2

    Nur EBS

    Bis zu 16

    Bis zu 9,5

    c6gn.large

    2

    4

    Nur EBS

    Bis zu 25

    Bis zu 9,5

    c6gn.xlarge

    4

    8

    Nur EBS

    Bis zu 25

    Bis zu 9,5

    c6gn.2xlarge

    8

    16

    Nur EBS

    Bis zu 25

    Bis zu 9,5

    c6gn.4xlarge

    16

    32

    Nur EBS

    Bis zu 25

    9,5

    c6gn.8xlarge

    32

    64

    Nur EBS

    50

    19

    c6gn.12xlarge

    48

    96

    Nur EBS

    75

    28,5

    c6gn.16xlarge

    64

    128

    Nur EBS

    100

    38

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Hochleistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung.

  • C6i
  • Amazon-EC2-C6i-Instances werden von Intel-Xeon-Scalable-Prozessoren der 3. Generation angetrieben und sind die ideale Lösung für rechenintensive Workloads.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 15 % bessere Rechenpreisleistung gegenüber C5-Instances
    • Bis zu 9 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu C5-Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 256 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    • Bei C6id-Instances sind bis zu 7,6 TB an lokalen NVMe-basierten SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der C6i-Instance gekoppelt ist
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)

    c6i.large

    2

    4

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c6i.xlarge

    4

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c6i.2xlarge

    8

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c6i.4xlarge

    16

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    c6i.8xlarge

    32

    64

    Nur EBS

    12,5

    10

    c6i.12xlarge

    48

    96

    Nur EBS

    18,75

    15

    c6i.16xlarge

    64

    128

    Nur EBS

    25

    20

    c6i.24xlarge

    96

    192

    Nur EBS

    37,5

    30

    c6i.32xlarge

    128

    256

    Nur EBS

    50

    40

    c6i.metal 128 256 Nur EBS 50 40

    c6id.large

    2

    4

    1 x 118 NVMe SSD

    Bis zu 12,5

    Bis zu 10

    c6id.xlarge

    4

    8

    1 x 237 NVMe SSD

    Bis zu 12,5

    Bis zu 10

    c6id.2xlarge

    8

    16

    1 x 474 NVMe SSD

    Bis zu 12,5

    Bis zu 10

    c6id.4xlarge

    16

    32

    1 x 950 NVMe SSD

    Bis zu 12,5

    Bis zu 10

    c6id.8xlarge

    32

    64

    1 x 1900 NVMe SSD

    12,5

    10

    c6id.12xlarge

    48

    96

    2 x 1425 NVMe SSD

    18,75

    15

    c6id.16xlarge

    64

    128

    2x1900 NVMe SSD

    25

    20

    c6id.24xlarge

    96

    192

    4 x 1425 NVMe SSD

    37,5

    30

    c6id.32xlarge

    128

    256

    4 x 1900 NVMe SSD

    50

    40

    c6id.metal 128 256 4 x 1900 NVMe SSD 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analytik, High Performance Computing (HPC), Ad Serving, hochskalierbare Multiplayer-Spiele und Videocodierung.

  • C6in
  • Amazon-EC2-C6in-Instances eignen sich hervorragend für netzwerkintensive Workloads wie virtuelle Netzwerk-Appliances, Datenanalytik, High Performance Computing (HPC) und CPU-basierte KI/ML. Sie werden von Intel-Xeon-Scalable-Prozessoren der 3. Generation (Ice Lake) mit einer Turbofrequenz von 3,5 GHz für alle Kerne angetrieben. C6in-Instances bieten bis zu 200 Gbit/s Netzwerkbandbreite und bis zu 80 Gbit/s Amazon-Elastic-Block-Store-Bandbreite (EBS). Die Instances C6in.32xlarge und C6in.metal unterstützenElastic Fabric Adapter (EFA). EFA ist eine Netzwerkschnittstelle für Amazon-EC2-Instances, mit der Sie Anwendungen, die ein hohes Maß an Kommunikation zwischen Knoten erfordern, in größerem Umfang auf AWS ausführen können. Dazu gehören beispielsweise HPC-Anwendungen, die Message-Passing-Interface-Bibliotheken (MPI) verwenden.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 200 Gbit/s, bis zu zweimal mehr als bei C5n-Instances
    • Bis zu 100 Gbit/s EBS-Bandbreite, bis zu 5,2-mal mehr als bei C5n-Instances
    • EFA-Unterstützung für die Größen 32xlarge und metal
    • Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Unterstützung für die neuen Intel Advanced Vector Extensions (AVX-512)-Befehle zur schnelleren Verarbeitung kryptografischer Algorithmen
    • Angetrieben durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)

    c6in.large

    2

    4

    Nur EBS

    Bis zu 25

    Bis zu 25

    c6in.xlarge

    4

    8

    Nur EBS

    Bis zu 30

    Bis zu 25

    c6in.2xlarge

    8

    16

    Nur EBS

    Bis zu 40

    Bis zu 25

    c6in.4xlarge

    16

    32

    Nur EBS

    Bis zu 50

    Bis zu 25

    c6in.8xlarge

    32

    64

    Nur EBS

    50

    25

    c6in.12xlarge

    48

    96

    Nur EBS

    75

    37,5

    c6in.16xlarge

    64

    128

    Nur EBS

    100

    50

    c6in.24xlarge

    96

    192

    Nur EBS

    150

    75

    c6in.32xlarge 128 256 Nur EBS 200**** 100
    c6in.metal 128 256 Nur EBS 200**** 100


    ****Für die Größen 32xlarge und Metal sind mindestens 2 elastische Netzwerkschnittstellen in der Instance erforderlich, die jeweils mit einer anderen Netzwerkkarte verbunden sind, um einen Durchsatz von 200 Gbit/s zu erreichen. Jede Netzwerkschnittstelle, die an eine Netzwerkkarte angeschlossen ist, kann maximal 170 Gbit/s erreichen. Weitere Informationen finden Sie unter Netzwerkkarten

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Rechenintensive Workloads, die eine hohe Netzwerkbandbreite oder eine hohe Paketverarbeitungsleistung erfordern, wie z. B. verteilte Datenverarbeitungsanwendungen, virtuelle Netzwerkanwendungen, Datenanalyse, High Performance Computing (HPC) und CPU-basierte KI/ML.

  • C6a
  • Amazon-C6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind hervorragend für rechenintensive Workloads geeignet.

    Funktionen:

    • Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Bis zu 15 % bessere Rechenpreisleistung gegenüber C5a- Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Bis zu 192 vCPUs und 384 GiB Speicher in der maximalen Größe
    • SAP-zertifizierte Instances
    • Unterstützt Elastic Fabric Adapter in der 48xlarge-Größe
    • Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)
    • Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    c6a.large 2 4 Nur EBS Bis zu 12,5 Bis zu 10
    c6a.xlarge 4 8 Nur EBS Bis zu 12,5 Bis zu 10
    c6a.2xlarge 8 16 Nur EBS Bis zu 12,5 Bis zu 10
    c6a.4xlarge 16 32 Nur EBS Bis zu 12,5 Bis zu 10
    c6a.8xlarge 32 64 Nur EBS 12,5 10
    c6a.12xlarge 48 96 Nur EBS 18,75 15
    c6a.16xlarge 64 128 Nur EBS 25 20
    c6a.24xlarge 96 192 Nur EBS 37,5 30
    c6a.32xlarge 128 256 Nur EBS 50 40
    c6a.48xlarge 192 384 Nur EBS 50 40
    c6a.metal 192 384 Nur EBS 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analytik, High Performance Computing (HPC), Ad Serving, hochskalierbare Multiplayer-Spiele und Videocodierung.

  • C5
  • Amazon-EC2-C5-Instances sind für rechenintensive Workloads optimiert und bieten kosteneffiziente hohe Leistung zu einem niedrigen Preis pro Rechenleistung.

    Funktionen:

    • C5-Instances bieten eine Auswahl an Prozessoren, die auf der Größe der Instance basieren.
    • Die Instance-Größen C5 und C5d 12xlarge, 24xlarge und Metal verfügen über benutzerdefinierte skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8275CL) mit einer anhaltenden All-Core-Turbofrequenz von 3,6 GHz und einer Single-Core-Turbofrequenz von bis zu 3,9 GHz. 
    • Andere C5-Instance-Größen werden auf skalierbaren Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8223CL) oder Intel Xeon Platinum 8000-Prozessoren der 1. Generation (Skylake 8124M) mit einer anhaltenden All-Core-Turbo-Frequenz von bis zu 3,4 GHz und Single-Core-Turbo-Frequenz eingeführt von bis zu 3,5 GHz.
    • Neue, größere 24xlarge-Instance-Größe bietet 96 vCPUs, 192 GiB Arbeitsspeicher und optionale 3,6 TB lokale NVMe-basierte SSDs
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Mit den C5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der C5-Instance verknüpft ist
    • Elastic Network Adapter (ENA) bietet C5-Instances mit einer Netzwerkbandbreite von bis zu 25 Gbit/ und bis zu 19 Gbit/s dedizierter Bandbreite für Amazon EBS.
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    c5.large 2 4 Nur EBS Bis zu 10 Bis zu 4.750
    c5.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 4.750
    c5.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 4.750
    c5.4xlarge 16 32 Nur EBS Bis zu 10 4.750
    c5.9xlarge 36 72 Nur EBS 12 9.500
    c5.12xlarge 48 96 Nur EBS 12 9.500
    c5.18xlarge 72 144 Nur EBS 25 19.000
    c5.24xlarge 96 192 Nur EBS 25 19.000
    c5.metal 96 192 Nur EBS 25 19.000
    c5d.large 2 4 1 x 50 NVMe-SSD Bis zu 10 bis zu 4.750
    c5d.xlarge 4 8 1 x 100 NVMe-SSD Bis zu 10 Bis zu 4.750
    c5d.2xlarge 8 16 1 x 200 NVMe-SSD Bis zu 10 Bis zu 4.750
    c5d.4xlarge 16 32 1 x 400 NVMe-SSD Bis zu 10 4.750
    c5d.9xlarge 36 72 1 x 900 NVMe SSD 12 9.500
    c5d.12xlarge 48 96 2 x 900 NVMe-SSD 12 9.500
    c5d.18xlarge 72 144 2 x 900 NVMe-SSD 25 19.000
    c5d.24xlarge 96 192 4 x 900 NVMe-SSD 25 19.000
    c5d.metal 96 192 4 x 900 NVMe-SSD 25 19.000

    C5- und C5d-Instances der Größen 12xlarge, 24xlarge und Metal haben die folgenden Spezifikationen:

    Alle C5- und C5d-Instances haben die folgenden Spezifikationen:

    • Benutzerdefinierte Intel Xeon Scalable-Prozessoren der 2. Generation (Cascade Lake) mit einer dauerhaften Turbofrequenz von 3,6 GHz für alle Kerne und einer Turbofrequenz von bis zu 3,9 GHz für einen Kern oder Intel Xeon Platinum 8000-Prozessoren der 1. Generation (Skylake-SP) mit einer dauerhaften Turbofrequenz von bis zu 3,4 GHz für alle Kerne und einer Turbofrequenz von bis zu 3,5 GHz für einen Kern.
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
    • EBS-optimiert
    • Enhanced Networking†

    Anwendungsfälle

    Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung

  • C5n
  • Amazon-EC2-C5n-Instances eigenen sich am besten für hochgradig rechenintensive Anwendungen (einschließlich High Performance Computing (HPC)-Workloads, Data Lakes und Netzwerkanwendungen, wie Firewalls und Router), die einen verbesserten Netzwerkdurchsatz und eine bessere Paketrate für Leistung nutzen können. C5n-Instances bieten eine Netzwerkbandbreite von bis zu 100 Gbit/s und mehr Speicher im Vergleich zu C5-Instances. C5n.18xlarge-Instances unterstützen Elastic Fabric Adapter (EFA), eine Netzwerkschnittstelle für Amazon-EC2-Instances, mit der Kunden Anwendungen ausführen können, die eine hohe Kommunikation zwischen Knoten erfordern, z. B. Anwendungen von High Performance Computing (HPC) mit Hilfe von Message Passing Interface (MPI) in großem Maßstab auf AWS.

    Funktionen:

    • 3,0 GHz Intel Xeon Platinum Prozessoren (Skylake 8124) mit Intel Advanced Vector Extension 512 (AVX-512) Befehlssatz
    • Anhaltende All-Core-Turbofrequenz von bis zu 3,4 GHz und Single-Core-Turbofrequenz von bis zu 3,5 GHz
    • Die höhere Instance-Größe c5n.18xlarge bietet 72 vCPUs und 192 GiB Arbeitsspeicher
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Netzwerkbandbreite erhöht sich um bis zu 100 Gbit/s und liefert so eine bessere Netzwerkleistung für netzwerkintensive Anwendungen.
    • EFA-Support auf c5n.18xlarge-Instances
    • 33 % höherer Speicherbedarf als C5-Instances
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    c5n.large 2 5.25 Nur EBS Bis zu 25
    Bis zu 4.750
    c5n.xlarge 4 10.5 Nur EBS Bis zu 25 Bis zu 4.750
    c5n.2xlarge 8 21 Nur EBS Bis zu 25 Bis zu 4.750
    c5n.4xlarge 16 42 Nur EBS Bis zu 25 4.750
    c5n.9xlarge 36 96
    Nur EBS 50 9.500
    c5n.18xlarge 72 192 Nur EBS 100 19.000
    c5n.metal 72 192 Nur EBS 100 19.000

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung

  • C5a
  • Amazon-EC2-C5a-Instances bieten ein führendes x86-Preis-Leistungs-Verhältnis für eine breite Palette rechenintensiver Workloads.

    Funktionen:

    • Prozessoren der AMD EPYC 7002-Serie der 2. Generation (AMD EPYC 7R32) mit einer Frequenz von bis zu 3,3 GHz
    • Elastic Network Adapter (ENA) bietet C5a-Instances bis zu 20 Gbit/s Netzwerkbandbreite und bis zu 9,5 Gbit/s dedizierte Bandbreite für Amazon EBS
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Mit den C5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der C5a-Instance verknüpft ist.
    Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
    EBS-Bandbreite (Mbit/s)
    c5a.large 2 4 Nur EBS Bis zu 10
    Bis zu 3 170
    c5a.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 3 170
    c5a.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 3 170
    c5a.4xlarge 16 32 Nur EBS Bis zu 10 Bis zu 3 170
    c5a.8xlarge 32 64
    Nur EBS 10 3 170
    c5a.12xlarge 48 96 Nur EBS 12 4.750
    c5a.16xlarge 64 128 Nur EBS 20 6 300
    c5a.24xlarge 96 192 Nur EBS 20 9.500
    c5ad.large 2 4 1 x 75 NVMe-SSD Bis zu 10 Bis zu 3 170
    c5ad.xlarge 4 8 1 x 150 NVMe-SSD Bis zu 10 Bis zu 3 170
    c5ad.2xlarge 8 16 1 x 300 NVMe-SSD Bis zu 10 Bis zu 3 170
    c5ad.4xlarge 16 32 2 x 300 NVMe-SSD Bis zu 10 Bis zu 3 170
    c5ad.8xlarge 32 64 2 x 600 NVMe-SSD 10 3 170
    c5ad.12xlarge 48 96 2 x 900 NVMe-SSD 12 4.750
    c5ad.16xlarge 64 128 2 x 1200 NVMe-SSD 20 6 300
    c5ad.24xlarge 96 192 2 x 1.900 NVMe-SSD 20 9.500

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    C5a-Instances eignen sich hervorragend für Workloads, die eine hohe vCPU-Rechenleistung und Speicherbandbreite erfordern. Dazu gehören Stapelverarbeitungsvorgänge, verteilte Analysen, Datenumwandlungsaufgaben, Gaming, Protokollanalysen, Webanwendungen und andere rechenintensive Workloads.

  • C4
  • C4-Instances sind für rechenintensive Workloads optimiert und liefern Datenverarbeitung auf höchstem Niveau zu einem äußerst günstigen Preis.

    Funktionen:

    • Bis zu 2,9 GHz skalierbarer Intel Xeon-Prozessor (Haswell E5-2666 v3)
    • Hochfrequenz Intel Xeon E5-2666 v3 (Haswell) Prozessoren, die speziell für EC2 optimiert wurden
    • Standardmäßig EBS-optimiert für eine höhere Speicherleistung ohne zusätzliche Kosten
    • Höhere Netzwerkleistung durch Enhanced Networking mit Intel 82599 VF-Unterstützung
    • Erfordert Amazon VPC, Amazon EBS und 64-Bit-HVM-AMIs
    Instance vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung
    c4.large 2 3,75 Nur EBS 500 Mittel
    c4.xlarge 4 7,5 Nur EBS 750 Hoch
    c4.2xlarge 8 15 Nur EBS 1.000 Hoch
    c4.4xlarge 16 30 Nur EBS 2.000 Hoch
    c4.8xlarge 36 60 Nur EBS 4.000 10 Gigabit

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Front-End-Serverfarmen mit hoher Leistung, Webserver, Batch-Verarbeitung, verteilte Analysen, wissenschaftliche und technische Anwendungen mit hoher Leistung, Ad-Serving, MMO-Gaming und Videocodierung.

Jede vCPU auf Graviton-basierten Amazon-EC2-Instances ist ein Kern des AWS-Graviton-Prozessors.

Jede vCPU auf Amazon EC2-Instances, die nicht auf Graviton basieren, ist ein Thread eines x86-basierten Prozessors, mit Ausnahme von C7a-Instances.

† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Arbeitsspeicheroptimiert

Arbeitsspeicheroptimierte Instances bieten eine schnelle Leistung für Workloads, die große Datenmengen im Speicher verarbeiten.

  • R8g
  • Amazon-EC2-R8g-Instances, die jetzt in der Vorschau verfügbar sind, werden von AWS-Graviton4-Prozessoren angetrieben. Sie sind ideal für speicheroptimierte Anwendungen.

    Funktionen:

    • Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
    • Größere Instance-Größen mit bis zu 3x mehr vCPUs und Speicher als R7g-Instances
    • Mit dem neuesten DDR5-5600-Speicher
    • Standardmäßig für Amazon EBS optimiert
    • Angetrieben durch das AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Arbeitsspeicherintensive Workloads wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analytik in Echtzeit.

  • R7g
  • Amazon-EC2-R7g-Instances werden von AWS-Graviton3-Prozessoren angetrieben. Sie bieten eine hohe Preisleistung in Amazon EC2 für speicheroptimierte Anwendungen.

    Funktionen:

    • Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
    • Verfügt über DDR5-Speicher, der im Vergleich zu DDR4 50 % mehr Bandbreite bietet
    • 20 % höhere Netzwerkbandbreite im Vergleich zu R6g-Instances
    • Standardmäßig für EBS optimiert
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den R7gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist
    • Unterstützt Elastic Fabric Adapter (EFA) auf r7g.16xlarge-, r7g.metal-, r7gd.16xlarge- und r7gd.metal-Instances
    • Basierend auf AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (GBit/s)

    r7g.medium

    1

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7g.large

    2

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7g.xlarge

    4

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7g.2xlarge

    8

    64

    Nur EBS

    Bis zu 15

    Bis zu 10

    r7g.4xlarge

    16

    128

    Nur EBS

    Bis zu 15

    Bis zu 10

    r7g.8xlarge

    32

    256

    Nur EBS

    15

    10

    r7g.12xlarge

    48

    384

    Nur EBS

    22,5

    15

    r7g.16xlarge

    64

    512

    Nur EBS

    30

    20

    r7g.metal

    64

    512

    Nur EBS

    30

    20

    r7gd.medium

    1

    8

    1 x 59 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    r7gd.large

    2

    16

    1 x 118 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    r7gd.xlarge

    4

    32

    1 x 237 NVMe-SSD

    Bis zu 12,5

    Bis zu 10

    r7gd.2xlarge

    8

    64

    1 x 474 NVMe-SSD

    Bis zu 15

    Bis zu 10

    r7gd.4xlarge

    16

    128

    1 x 950 NVMe-SSD

    Bis zu 15

    Bis zu 10

    r7gd.8xlarge

    32

    256

    1 x 1 900 NVMe-SSD

    15

    10

    r7gd.12xlarge

    48

    384

    2 x 1 425 NVMe-SSD

    22,5

    15

    r7gd.16xlarge

    64

    512

    2 x 1 900 NVMe-SSD

    30

    20

    r7gd.metal

    64

    512

    2 x 1 900 NVMe-SSD

    30

    20

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Arbeitsspeicherintensive Workloads wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analytik in Echtzeit.

  • R7i
  • Amazon-EC2-R7i-Instances werden von Intel Xeon-Scalable-Prozessoren der 4. Generation angetrieben und bieten eine 15 % bessere Preisleistung als R6i-Instances.

    Features:

    • Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
    • Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
    • 2 Metal-Größen: r7i.metal-24xl und r7i.metal-48xl
    • Separate integrierte Beschleuniger (nur für R7i-Bare-Metal-Größen verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Auslagerung und Beschleunigung von Datenoperationen, die die Leistung von Datenbanken, Verschlüsselungs- und Komprimierungs- sowie Warteschlangenmanagement-Workloads optimieren
    • Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
    • Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
    • Bis zu 192 vCPUs und 1 536 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in den Größen 48xlarge und metal-48xl
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s)

    r7i.large

    2

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7i.xlarge

    4

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7i.2xlarge

    8

    64

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7i.4xlarge

    16

    128

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7i.8xlarge

    32

    256

    Nur EBS

    12,5

    10

    r7i.12xlarge

    48

    384

    Nur EBS

    18,75

    15

    r7i.16xlarge

    64

    512

    Nur EBS

    25

    20

    r7i.24xlarge

    96

    768

    Nur EBS

    37,5

    30

    r7i.48xlarge

    192

    1 536

    Nur EBS

    50

    40

    r7i.metal-24xl

    96

    768

    Nur EBS

    37,5

    30

    r7i.metal-48xl

    192

    1 536

    Nur EBS

    50

    40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    R7i-Instances sind SAP-zertifiziert und ideal für alle speicherintensiven Workloads (SQL- und NoSQL-Datenbanken), verteilte In-Memory-Caches im Webmaßstab (Memcached und Redis), In-Memory-Datenbanken (SAP HANA) und Big-Data-Analytik in Echtzeit (Apache Hadoop- und Apache Spark-Cluster).

  • R7iz
  • Amazon-EC2-R7iz-Instances werden von Intel-Xeon-Scalable-Prozessoren der 4. Generation angetrieben und sind die ideale Lösung für hohe CPU und arbeitsspeicherintensive Workloads.

    Features:

    • Skalierbare Intel-Xeon-Prozessoren der 4. Generation (Sapphire Rapids 6455B) mit einer Turbofrequenz von bis zu 3,9 GHz für alle Kerne
    • Bis zu 20 % höhere Rechenleistung als z1d-Instances
    • Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen – erhältlich in allen Größen
    • Diskrete integrierte Beschleuniger (nur für Bare-Metal-Größen von R7iz verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Übertragung und Beschleunigung von Datenoperationen, die zur Optimierung der Leistung von Datenbanken, Verschlüsselung und Komprimierung sowie Warteschlangenmanagement-Workloads beitragen
    • Bis zu 50 Gbit/s Netzwerkgeschwindigkeit
    • Bis zu 40 GBit/s Bandbreite zu Amazon Elastic Block Store (EBS)
    • Instance-Größe mit bis zu 128 vCPUs und 1 024 GB Speicher
    • Unterstützt Elastic Fabric Adapter in den Größen 32xlarge und metal-32xl
    • Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s)

    r7iz.large

    2

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7iz.xlarge

    4

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7iz.2xlarge

    8

    64

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7iz.4xlarge

    16

    128

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7iz.8xlarge

    32

    256

    Nur EBS

    12,5

    10

    r7iz.12xlarge

    48

    384

    Nur EBS

    25

    19

    r7iz.16xlarge

    64

    512

    Nur EBS

    25

    20

    r7iz.32xlarge

    128

    1.024

    Nur EBS

    50

    40

    r7iz.metal-16xl

    64

    512

    Nur EBS

    25

    20

    r7iz.metal-32xl

    128

    1.024

    Nur EBS

    50

    40

    Anwendungsfälle

    Rechenintensive und speicherintensive Workloads wie Front-End Electronic Design Automation (EDA), relationale Datenbank-Workloads mit hohen Lizenzgebühren pro Kern sowie Simulations-Workloads in den Bereichen Finanzen, Versicherungsmathematik und Datenanalyse.

  • R7a
  • Amazon-EC2-R7a-Instances, die von AMD EPYC-Prozessoren der 4. Generation angetrieben werden, bieten im Vergleich zu R6a-Instances eine um bis zu 50 % höhere Leistung.

    Funktionen:

    • Bis zu 3,7-GHz-AMD-EPYC-Prozessoren der 4. Generation (AMD EPYC 9R14)
    • Bis zu 50 Gbit/s Netzwerkbandbreite
    • Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Instance-Größen mit bis zu 192 vCPUs und 1.536 GB Arbeitsspeicher
    • SAP-zertifizierte Instances
    • Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
    • Unterstützung für permanente Speicherverschlüsselung mit AMD Secure Memory Encryption (SME)
    • Unterstützung für neue Prozessorfunktionen wie AVX3-512, VNNI und bfloat16.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s)

    r7a.medium

    1

    8

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7a.large

    2

    16

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7a.xlarge

    4

    32

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7a.2xlarge

    8

    64

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7a.4xlarge

    16

    128

    Nur EBS

    Bis zu 12,5

    Bis zu 10

    r7a.8xlarge

    32

    256

    Nur EBS

    12,5

    10

    r7a.12xlarge

    48

    384

    Nur EBS

    18,75

    15

    r7a.16xlarge

    64

    512

    Nur EBS

    25

    20

    r7a.24xlarge

    96

    768

    Nur EBS

    37,5

    30

    r7a.32xlarge

    128

    1.024

    Nur EBS

    50

    40

    r7a.48xlarge

    192

    1 536

    Nur EBS

    50

    40

    r7a.metal-48xl

    192

    1 536

    Nur EBS

    50

    40

    Anwendungsfälle

    Speicherintensive Workloads wie SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches im Webmaßstab, In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und Electronic Design Automation (EDA)

  • R6g
  • Amazon-EC2-R6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei arbeitsspeicherintensiven Anwendungen eine bis zu 40 % bessere Preisleistung als die aktuelle Generation der R5-Instances.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Mit den R6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    r6g.medium 1 8 Nur EBS Bis zu 10 Bis zu 4 750
    r6g.large 2 16 Nur EBS Bis zu 10 Bis zu 4 750
    r6g.xlarge 4 32 Nur EBS Bis zu 10 Bis zu 4 750
    r6g.2xlarge 8 64 Nur EBS Bis zu 10 Bis zu 4 750
    r6g.4xlarge 16 128 Nur EBS Bis zu 10 4.750
    r6g.8xlarge 32 256 Nur EBS 12 9.000
    r6g.12xlarge 48 384 Nur EBS 20 13.500
    r6g.16xlarge 64 512 Nur EBS 25 19.000
    r6g.metal 64 512 Nur EBS 25 19.000
    r6gd.medium 1 8 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750
    r6gd.large 2 16 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750
    r6gd.xlarge 4 32 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750
    r6gd.2xlarge 8 64 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750
    r6gd.4xlarge 16 128 1 x 950 NVMe-SSD Bis zu 10 4.750
    r6gd.8xlarge 32 256 1 x 1.900 NVMe-SSD 12 9.000
    r6gd.12xlarge 48 384 2 x 1.425 NVMe-SSD 20 13.500
    r6gd.16xlarge 64 512 2 x 1.900 NVMe-SSD 25 19.000
    r6gd.metal 64 512 2 x 1.900 NVMe-SSD 25 19.000

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Arbeitsspeicherintensive Anwendungen wie Open-Source-Datenbanken, In-Memory-Caches und Big Data-Analysen in Echtzeit

  • R6i
  • Amazon-R6i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) angetrieben und eignen sich ideal für speicherintensive Workloads.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 15 % bessere Rechenpreisleistung gegenüber R5-Instances
    • Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu R5-Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 1.024 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
    • Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    • Bei R6id-Instances sind bis zu 7,6 TB lokaler NVMe-basierter SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der R6i-Instance gekoppelt ist.
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    r6i.large 2 16 Nur EBS Bis zu 12,5 Bis zu 10
    r6i.xlarge 4 32 Nur EBS Bis zu 12,5 Bis zu 10
    r6i.2xlarge 8 64 Nur EBS Bis zu 12,5 Bis zu 10
    r6i.4xlarge 16 128 Nur EBS Bis zu 12,5 Bis zu 10
    r6i.8xlarge 32 256 Nur EBS 12,5 10
    r6i.12xlarge 48 384 Nur EBS 18,75 15
    r6i.16xlarge 64 512 Nur EBS 25 20
    r6i.24xlarge 96 768 Nur EBS 37,5 30
    r6i.32xlarge 128 1.024 Nur EBS 50 40
    r6i.metal 128 1.024 Nur EBS 50 40
    r6id.large 2 16 1 x 118 NVMe SSD Bis zu 12,5 Bis zu 10
    r6id.xlarge 4 32 1 x 237 NVMe SSD Bis zu 12,5 Bis zu 10
    r6id.2xlarge 8 64 1 x 474 NVMe SSD Bis zu 12,5 Bis zu 10
    r6id.4xlarge 16 128 1 x 950 NVMe SSD Bis zu 12,5 Bis zu 10
    r6id.8xlarge 32 256 1 x 1900 NVMe SSD 12,5 10
    r6id.12xlarge 48 384 2 x 1425 NVMe SSD 18,75 15
    r6id.16xlarge 64 512 2 x 1900 NVMe SSD 25 20
    r6id.24xlarge 96 768 4 x 1425 NVMe SSD 37,5 30
    r6id.32xlarge 128 1 024 4 x 1900 NVMe SSD 50 40
    r6id.metal 128 1 024 4 x 1900 NVMe SSD 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Speicherintensive Workloads wie SAP-, SQL- und NoSQL-Datenbanken, verteilte Web-Scale-In-Memory-Caches wie Memcached und Redis, In-Memory-Datenbanken wie SAP HANA und Big-Data-Analysen in Echtzeit wie Hadoop- und Spark-Cluster.

  • R6in
  • R6in- und R6idn-Instances von Amazon EC2 sind ideal für speicherintensive Workloads, die die Vorteile einer hohen Netzwerkbandbreite nutzen können, wie SAP-, SQL- und NoSQL-Datenbanken sowie In-Memory-Datenbanken wie SAP HANA. R6in- und R6idn-Instances bieten bis zu 200 Gbit/s Netzwerkbandbreite und bis zu 80 Gbit/s Amazon Elastic Block Store (EBS)-Bandbreite.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu R5n und R5dn-Instances
    • Bis zu 200 Gbit/s Netzwerkgeschwindigkeit, das ist bis zu zweimal schneller verglichen zu R5n- und R5dn-Instances
    • Bis zu 100 Gbit/s EBS-Bandbreite, das ist bis zu 1,6 Mal mehr als bei R5b-Instances
    • Unterstützt Elastic Fabric Adapter (EFA) in den Größen 32xlarge und metal
    • Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Unterstützung für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    • Bei R6idn-Instances sind bis zu 7,6 TB lokaler NVMe-basierter SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der R6idn-Instance gekoppelt ist
    • Angetrieben von AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (GBit/s)
    r6in.large 2 16 Nur EBS Bis zu 25 Bis zu 25
    r6in.xlarge 4 32 Nur EBS Bis zu 30 Bis zu 25
    r6in.2xlarge 8 64 Nur EBS Bis zu 40 Bis zu 25
    r6in.4xlarge 16 128 Nur EBS Bis zu 50 Bis zu 25
    r6in.8xlarge 32 256 Nur EBS 50 25
    r6in.12xlarge 48 384 Nur EBS 75 37,5
    r6in.16xlarge 64 512 Nur EBS 100 50
    r6in.24xlarge 96 768 Nur EBS 150 75
    r6in.32xlarge 128 1.024 Nur EBS 200**** 100
    r6in.metal 128 1.024 Nur EBS 200**** 100
    r6idn.large 2 16 1x118-NVMe-SSD Bis zu 25 Bis zu 25
    r6idn.xlarge 4 32 1x237-NVMe-SSD Bis zu 30 Bis zu 25
    r6idn.2xlarge 8 64 1x474-NVMe-SSD Bis zu 40 Bis zu 25
    r6idn.4xlarge 16 128 1x950-NVMe-SSD Bis zu 50 Bis zu 25
    r6idn.8xlarge 32 256 1x1900-NVMe-SSD 50 25
    r6idn.12xlarge 48 384 2x1425-NVMe-SSD 75 37,5
    r6idn.16xlarge 64 512 2x1900-NVMe-SSD 100 50
    r6idn.24xlarge 96 768 4x1425-NVMe-SSD 150 75
    r6idn.32xlarge 128 1 024 4x1900-NVMe-SSD 200**** 100
    r6idn.metal 128 1 024 4x1900-NVMe-SSD 200**** 100


    ****Für die Größen 32xlarge und Metal sind in der Instance mindestens zwei elastische Netzwerkschnittstellen erforderlich, die jeweils mit einer anderen Netzwerkkarte verbunden sind, um einen Durchsatz von 200 Gbit/s zu erreichen. Jede Netzwerkschnittstelle, die an eine Netzwerkkarte angeschlossen ist, kann maximal 170 Gbit/s erreichen. Weitere Informationen finden Sie unter Netzwerkkarten.

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Speicherintensive Workloads, die von einem hohen Netzwerkdurchsatz profitieren können, wie SAP, SQL- und NoSQL-Datenbanken sowie In-Memory-Datenbanken wie SAP HANA.

  • R6a
  • Amazon-EC2-R6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind ideal für speicherintensive Workloads geeignet.

    Funktionen:

    • Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Bis zu 35 % bessere Rechenpreisleistung gegenüber R5a-Instances
    • Bis zu 50 GBit/s Netzwerkdurchsatz
    • Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Instance-Größe mit bis zu 192 vCPUs und 1,536 GB Speicher
    • SAP-zertifizierte Instances
    • Unterstützt Elastic Fabric Adapter in der 48xlarge- und Metal-Größen
    • Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
    • Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)
    • Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    r6a.large 2 16 Nur EBS Bis zu 12,5 Bis zu 10
    r6a.xlarge 4 32 Nur EBS Bis zu 12,5 Bis zu 10
    r6a.2xlarge 8 64 Nur EBS Bis zu 12,5 Bis zu 10
    r6a.4xlarge 16 128 Nur EBS Bis zu 12,5 Bis zu 10
    r6a.8xlarge 32 256 Nur EBS 12,5 10
    r6a.12xlarge 48 384 Nur EBS 18,75 15
    r6a.16xlarge 64 512 Nur EBS 25 20
    r6a.24xlarge 96 768 Nur EBS 37,5 30
    r6a.32xlarge 128 1024 Nur EBS 50 40
    r6a.48xlarge 192 1 536 Nur EBS 50 40
    r6a.metal 192 1 536 Nur EBS 50 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Speicherintensive Workloads wie SAP-, SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches wie Memcached und Redis, In-Memory-Datenbanken und Big-Data-Analysen in Echtzeit wie Hadoop- und Spark-Cluster, sowie andere Unternehmensanwendungen

  • R5
  • Amazon-EC2-R5-Instances liefern 5 % zusätzlichen Arbeitsspeicher pro vCPU als R4 und die umfangreichste Größe hat 768 GiB Arbeitsspeicher. Außerdem bieten R5-Instances eine Verbesserung von 10 % beim Preis pro GiB und eine etwa 20 % höhere CPU-Leistung gegenüber R4.

    Funktionen:

    • Prozessoren der Intel Xeon® Platinum 8000-Serie mit bis zu 3,1 GHz (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512)-Befehlssatz
    • Bis zu 768 GiB Arbeitsspeicher pro Instance
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Mit den R5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
    • Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
    Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    r5.large 2 16 Nur EBS Bis zu 10 Bis zu 4.750
    r5.xlarge 4 32 Nur EBS Bis zu 10 Bis zu 4.750
    r5.2xlarge 8 64 Nur EBS Bis zu 10 Bis zu 4.750
    r5.4xlarge 16 128 Nur EBS Bis zu 10 4.750
    r5.8xlarge 32 256 Nur EBS 10 6.800
    r5.12xlarge 48 384 Nur EBS 10 9.500
    r5.16xlarge 64 512 Nur EBS 20 13.600
    r5.24xlarge 96 768 Nur EBS 25 19.000
    r5.metal 96* 768 Nur EBS 25 19.000
    r5d.large 2 16 1 x 75 NVMe-SSD Bis zu 10 Bis zu 4.750
    r5d.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 10 Bis zu 4.750
    r5d.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 10 Bis zu 4.750
    r5d.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 10 4.750
    r5d.8xlarge 32 256 2 x 600 NVMe-SSD 10 6.800
    r5d.12xlarge 48 384 2 x 900 NVMe-SSD 10 9.500
    r5d.16xlarge 64 512 4 x 600 NVMe-SSD 20 13.600
    r5d.24xlarge 96 768 4 x 900 NVMe-SSD 25 19.000
    r5d.metal 96* 768 4 x 900 NVMe-SSD 25 19.000

    * r5.metal und r5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    R5-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.

  • R5n
  • Amazon-EC2-R5-Instances sind ideal für speichergebundene Workloads, einschließlich Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webumfang, mittelgroße In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und andere Unternehmensanwendungen. Die Instance-Varianten mit größerer Bandbreite R5n und R5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.

    Funktionen:

    • Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
    • Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
    • 25 Gbit/s Spitzenbandbreite auf kleineren Instance-Größen
    • 100 Gbit/s Netzwerkbandbreite auf den größten Instance-Größen
    • Erfordert HVM-AMIs mit Treibern für ENA und NVMe
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den R5dn-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
    Instance-Größe
    vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    r5n.large 2 16 Nur EBS Bis zu 25 bis zu 4.750
    r5n.xlarge 4 32 Nur EBS Bis zu 25 bis zu 4.750
    r5n.2xlarge 8 64 Nur EBS Bis zu 25 Bis zu 4.750
    r5n.4xlarge 16 128 Nur EBS Bis zu 25 4.750
    r5n.8xlarge 32 256 Nur EBS 25 6.800
    r5n.12xlarge 48 384 Nur EBS 50 9.500
    r5n.16xlarge 64 512 Nur EBS 75 13.600
    r5n.24xlarge 96 768 Nur EBS 100 19.000
    r5n.metal 96* 768 Nur EBS 100 19.000
    r5dn.large 2 16 1 x 75 NVMe-SSD Bis zu 25 bis zu 4.750
    r5dn.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 25 Bis zu 4.750
    r5dn.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 25 Bis zu 4.750
    r5dn.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 25 4.750
    r5dn.8xlarge 32 256 2 x 600 NVMe-SSD 25 6.800
    r5dn.12xlarge 48 384 2 x 900 NVMe SSD 50 9.500
    r5dn.16xlarge 64 512 4 x 600 NVMe-SSD 75 13.600
    r5dn.24xlarge 96 768 4 x 900 NVMe-SSD 100 19.000
    r5dn.metal 96* 768 4 x 900 NVMe-SSD 100 19.000

    * r5n.metal und r5dn.metal bieten 96 logische Prozessoren auf 48 physischen Kernen.

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen

  • R5b
  • Amazon-EC2-R5b-Instances sind EBS-optimierte Varianten speicheroptimierter R5-Instances. R5b-Instances erhöhen die EBS-Leistung im Vergleich zu R5-Instances gleicher Größe um das Dreifache. R5b-Instances bieten eine Bandbreite von bis zu 60 Gbit/s und eine EBS-Leistung von 260K IOPS – die höchste Blockspeicherleistung in EC2.

    Funktionen:

    • Benutzerdefinierte skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
    • Bis zu 96 vCPUs, bis zu 768 GiB Arbeitsspeicher
    • Bis zu 25 Gbit/s Netzwerkbandbreite
    • Bis zu 60 Gbit/s an EBS-Bandbreite
    Instance-Größe
    vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s)

    r5b.large

    2

    16

    Nur EBS

    Bis zu 10

    Bis zu 10 000

    r5b.xlarge

    4

    32

    Nur EBS

    Bis zu 10

    Bis zu 10 000

    r5b.2xlarge

    8

    64

    Nur EBS

    Bis zu 10

    Bis zu 10 000

    r5b.4xlarge

    16

    128

    Nur EBS

    Bis zu 10

    10 000

    r5b.8xlarge

    32

    256

    Nur EBS

    10

    20 000

    r5b.12xlarge

    48

    384

    Nur EBS

    10

    30 000

    r5b.16xlarge

    64

    512

    Nur EBS

    20

    40 000

    r5b.24xlarge

    96

    768

    Nur EBS

    25

    60 000

    r5b.metal

    96*

    768

    Nur EBS

    25

    60.000

    Anwendungsfälle

    Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webmaßstab, mittelgroße In-Memory-Datenbanken und Echtzeit-Big-Data-Analysen.

  • R5a
  • Amazon-EC2-R5a-Instances sind die neueste Generation der arbeitsspeicheroptimierten Instances. Sie sind ideal für arbeitsspeicherbasierte Workloads und verwenden Prozessoren der AMD-EPYC-7000-Serie. R5a-Instances bieten um bis zu 10 % günstigere Kosten pro GiB als vergleichbare Instances.

    Funktionen:

    • Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
    • Bis zu 20 Gbit/s Netzwerkbandbreite mit Enhanced Networking
    • Bis zu 768 GiB Arbeitsspeicher pro Instance
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
    • Mit den R5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Host-Server verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5a-Instance gekoppelt ist
    Instance-Größe
    vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s)
    r5a.large 2 16
    Nur EBS Bis zu 10 
    Bis zu 2.880
    r5a.xlarge 4 32 Nur EBS Bis zu 10  Bis zu 2.880
    r5a.2xlarge 8 64 Nur EBS Bis zu 10  Bis zu 2.880
    r5a.4xlarge 16 128 Nur EBS Bis zu 10  2.880
    r5a.8xlarge 32 256 Nur EBS Bis zu 10 4.750
    r5a.12xlarge 48 384 Nur EBS 10 6.780
    r5a.16xlarge 64 512 Nur EBS 12 9.500
    r5a.24xlarge 96 768 Nur EBS 20 13 570
    r5ad.large 2 16 1 x 75 NVMe-SSD Bis zu 10
    Bis zu 2.880
    r5ad.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 10
    Bis zu 2.880
    r5ad.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 10
    Bis zu 2.880
    r5ad.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 10
    2.880
    r5ad.8xlarge 32 256 2 x 600 NVMe-SSD Bis zu 10 4.750
    r5ad.12xlarge 48 384 2 x 900 NVMe-SSD 10 6.780
    r5ad.16xlarge 64 512 4 x 600 NVMe-SSD 12 9.500
    r5ad.24xlarge 96 768 4 x 900 NVMe-SSD 20 13 570

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    R5a-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, verteilte Netzdimensionen Hauptspeicher Caches, mittelgroße Hauptspeicher Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.

  • R4
  • Amazon-EC2-R4-Instances sind für speicherintensive Anwendungen optimiert und stellen ein besseres RAM-Preisangebot pro GiB als R3 dar.

    Funktionen:

    • Skalierbare Hochfrequenz Intel Xeon (Broadwell E5-2686 v4) Prozessoren
    • DDR4 Speicher
    • Unterstützung für Enhanced Networking
    Instance vCPU Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)***
    r4.large 2 15,25 Nur EBS Bis zu 10
    r4.xlarge 4 30,5 Nur EBS Bis zu 10
    r4.2xlarge 8 61 Nur EBS Bis zu 10
    r4.4xlarge 16 122 Nur EBS Bis zu 10
    r4.8xlarge 32 244 Nur EBS 10
    r4.16xlarge 64 488 Nur EBS 25

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Hochleistungsdatenbanken, Data-Mining & -Analyse, In-Memory-Datenbanken, dezentrale Web-In-Memory-Caches, Anwendungen, die unstrukturierte Big Data in Echtzeit verarbeiten, Hadoop-/Spark-Cluster und andere Unternehmensanwendungen.

  • X2gd
  • Amazon-EC2-X2gd-Instances werden von Arm-basierten AWS-Graviton2-Prozessoren angetrieben und bieten die niedrigsten Kosten pro GiB Speicher in Amazon EC2. Sie bieten eine bis zu 55 % bessere Preisleistung im Vergleich zu X1-Instances der aktuellen Generation.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    • Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
    • Lokaler NVMe-basierter SSD-Speicher bietet Hochgeschwindigkeitszugriff mit geringer Latenz auf In-Memory-Daten
    • Standardmäßig für EBS optimiert

    Instance-Größe

    vCPU

    Arbeitsspeicher (GiB)

    Instance-Speicher (GB)

    Netzwerkbandbreite (Gbit/s)***

    EBS-Bandbreite (Gbit/s)

    x2gd.medium

    1

    16

    1x59 NVMe SSD

    Bis zu 10

    Bis zu 4,75

    x2gd.large

    2

    32

    1x118 NVMe SSD

    Bis zu 10

    Bis zu 4,75

    x2gd.xlarge

    4

    64

    1x237 NVMe SSD

    Bis zu 10

    Bis zu 4,75

    x2gd.2xlarge

    8

    128

    1x475 NVMe SSD

    Bis zu 10

    Bis zu 4,75

    x2gd.4xlarge

    16

    256

    1x950 NVMe SSD

    Bis zu 10

    4,75

    x2gd.8xlarge

    32

    512

    1x1900 NVMe SSD

    12

    9,5

    x2gd.12xlarge

    48

    768

    2x1425 NVMe SSD

    20

    14,25

    x2gd.16xlarge

    64

    1024

    2x1900 NVMe SSD

    25

    19

    x2gd.metal

    64

    1024

    2x1900 NVMe SSD

    25

    19

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Speicherintensive Workloads wie Open-Source-Datenbanken (MySQL, MariaDB und PostgreSQL), In-Memory-Caches (Redis, KeyDB, Memcached), EDA-Workloads (Electronic Design Automation), Echtzeit-Analysen und Echtzeit-Caching-Server.

  • X2idn
  • Amazon-EC2-X2idn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation mit einer Turbofrequenz von bis zu 3,5 GHz für alle Kerne angetrieben und sind eine gute Wahl für eine Vielzahl von speicherintensiven Anwendungen.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • 16:1-Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
    • Bis zu 50 % bessere Preisleistung als X1-Instances
    • Bis zu 100 GBit/s Netzwerkdurchsatz
    • Bis zu 80 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen

    Instance-Größe

    vCPU

    Arbeitsspeicher (GiB)

    Instance-Speicher (GB)

    Netzwerkbandbreite (GBit/s)

    EBS-Bandbreite (Gbit/s)

    x2idn.16xlarge

    64

    1 024

    1 x 1 900 NVMe-SSD

    50

    40

    x2idn.24xlarge

    96 1 536

    2 x 1 425 NVMe-SSD

    75

    60

    x2idn.32xlarge

    128

    2 048

    2 x 1 900 NVMe-SSD

    100

    80

    x2idn.metal

    128

    2 048

    2 x 1 900 NVMe-SSD

    100

    80

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    In-Memory-Datenbanken (z. B. SAP HANA, Redis), traditionelle Datenbanken (z. B. Oracle DB, Microsoft SQL Server) und In-Memory-Analytik (z. B. SAS, Aerospike).

  • X2iedn
  • Amazon-EC2-X2iedn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) mit einer Turbofrequenz von bis zu 3,5 GHz für alle Kerne angetrieben und sind eine gute Wahl für eine breite Palette von speicherintensiven Anwendungen in großem Umfang.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • 32:1 Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
    • Bis zu 50 % bessere Preisleistung als X1-Instances
    • Bis zu 100 GBit/s Netzwerkdurchsatz
    • Bis zu 80 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Angetrieben vom AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen

    Instance-Größe

    vCPU

    Arbeitsspeicher (GiB)

    Instance-Speicher (GB)

    Netzwerkbandbreite (Gbit/s)***

    EBS-Bandbreite (Gbit/s)

    x2iedn.xlarge

    4

    128

    1 x 118 NVMe-SSD

    Bis zu 25

    Bis zu 20

    x2iedn.2xlarge

    8

    256

    1 x 237 NVMe-SSD

    Bis zu 25

    Bis zu 20

    x2iedn.4xlarge

    16

    512

    1 x 475 NVMe-SSD

    Bis zu 25

    Bis zu 20

    x2iedn.8xlarge

    32

    1 024

    1 x 950 NVMe-SSD

    25

    20

    x2iedn.16xlarge

    64

    2 048

    1 x 1 900 NVMe-SSD

    50

    40

    x2iedn.24xlarge

    96

    3 072

    2 x 1 425 NVMe-SSD

    75

    60

    x2iedn.32xlarge

    128

    4 096

    2 x 1 900 NVMe-SSD

    100

    80

    x2iedn.metal

    128

    4 096

    2 x 1 900 NVMe-SSD

    100

    80

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Große In-Memory-Datenbanken (z. B. SAP HANA, Redis), traditionelle Datenbanken (z. B. Oracle DB, Microsoft SQL Server) und In-Memory-Analysen (z. B. SAS, Aerospike).

  • X2iezn
  • Amazon-EC2-X2iezn-Instances werden von den schnellsten Intel-Xeon-Scalable-Prozessoren (Codename Cascade Lake) in der Cloud angetrieben, mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz und sind eine gute Wahl für speicherintensive Electronic Design Automation (EDA)-Workloads.

    Funktionen:

    • Bis zu 4,5 GHz skalierbare Intel Xeon Prozessoren der 2. Generation (Cascade Lake 8252C)
    • 32:1 Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
    • Bis zu 55 % bessere Preisleistung als X1e-Instances
    • Bis zu 100 GBit/s Netzwerkdurchsatz
    • Bis zu 19 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Unterstützt Elastic Fabric Adapter in 12xlarge- und Metal-Größen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    x2iezn.2xlarge 8 256 Nur EBS Bis zu 25 3,17
    x2iezn.4xlarge 16 512 Nur EBS Bis zu 25 4,75
    x2iezn.6xlarge 24 768 Nur EBS 50 9,5
    x2iezn.8xlarge 32 1 024 Nur EBS 75 12
    x2iezn.12xlarge 48 1 536 Nur EBS 100 19
    x2iezn.metal 48 1 536 Nur EBS 100 19

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Elektronische Design-Automatisierung (EDA) wie physikalische Verifikation, statische Timing-Analyse, Leistungssignierung und vollständige Chip-Gate-Level-Simulation.

  • X1
  • Amazon-EC2-X1-Instances sind für Datenbanken der Unternehmensklasse und In-Memory-Anwendungen optimiert. 

    Funktionen:

    • Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
    • Einer der günstigsten Preise pro GiB RAM
    • Bis zu 1.952 GiB DRAM-basierter Instance-Speicher
    • SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
    • Steuerung der C- und P-State-Prozessorkonfiguration
    Instance vCPU Arbeitsspeicher (GiB) SSD-Speicher (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s)
    x1.16xlarge 64 976 1 x 1.920 7.000 10
    x1.32xlarge 128 1.952 2 x 1.920 14.000 25

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    In-Memory-Datenbanken (wie SAP HANA), Engines zur Big Data-Verarbeitung (wie Apache Spark oder Presto) und High Performance Computing (HPC). Anwendungen, die von SAP zur Ausführung von Business Warehouse on HANA (BW), Data Mart Solutions on HANA, Business Suite on HANA (SoH) und Business Suite S/4HANA zertifiziert sind.

  • X1e
  • Amazon-EC2-X1e-Instances sind für große Datenbanken, In-Memory-Datenbanken und andere speicherintensive Unternehmensanwendungen optimiert.

    Funktionen:

    • Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
    • Einer der günstigsten Preise pro GiB RAM
    • Bis zu 3.904 GiB DRAM-basierter Instance-Speicher
    • SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
    • Möglichkeit zur Kontrolle von C-State- und P-State-Prozessorkonfigurationen auf Instances vom Typ x1e.32xlarge, x1e.16xlarge und x1e.8xlarge
    Instance vCPU Arbeitsspeicher (GiB) SSD-Speicher (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s)***
    x1e.xlarge 4 122 1 x 120 500 Bis zu 10
    x1e.2xlarge 8 244 1 x 240 1.000 Bis zu 10
    x1e.4xlarge 16 488 1 x 480 1.750 Bis zu 10
    x1e.8xlarge 32 976 1 x 960 3.500 Bis zu 10
    x1e.16xlarge 64 1.952 1 x 1.920 7.000 10
    x1e.32xlarge 128 3.904 2 x 1.920 14.000 25

    Alle Instances haben die folgenden Spezifikationen:

    Zusätzlich haben x1e.16xlarge und x1e.32xlarge

    Anwendungsfälle

    Hochleistungsdatenbanken, In-Memory-Datenbanken (z. B. SAP HANA) und speicherintensive Anwendungen. x1e.32xlarge-Instance ist von SAP für die Ausführung von Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) und Data Mart Solutions on HANA der nächsten Generation in der AWS Cloud zertifiziert.

  • High Memory
  • High-Memory-Instances von Amazon EC2 wurden speziell für die Ausführung großer In-Memory-Datenbanken, einschließlich Produktionsimplementierungen von SAP HANA, in der Cloud entwickelt.

    Funktionen:

    • Jetzt mit Bare-Metal- oder virtualisiertem Speicher verfügbar
    • Zwischen 3 und 24 TiB Instance-Speicher
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Virtualisierte Instances sind mit On-Demand- sowie mit ein- und dreijährigen Savings-Plan-Kaufoptionen erhältlich
    Name Logische Prozessoren* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit)  EBS-Bandbreite (GBit/s)
    u-3tb1.56xlarge 224 3 072 Nur EBS 50 19
    u-6tb1.56xlarge 224 6.144 Nur EBS 100 38
    u-6tb1.112xlarge 448 6.144 Nur EBS 100 38
    u-6tb1.metal** 448 6.144 Nur EBS 100 38
    u-9tb1.112xlarge 448 9.216 Nur EBS 100 38
    u-9tb1.metal** 448 9.216 Nur EBS 100 38
    u-12tb1.112xlarge 448 12.288 Nur EBS 100 38
    u-12tb1.metal** 448 12.288 Nur EBS 100 38
    u-18tb1.112xlarge 448 18.432 Nur EBS 100 38
    u-18tb1.metal 448 18.432 Nur EBS 100 38
    u-24tb1.112xlarge 448 24.576 Nur EBS 100 38
    u-24tb1.metal 448 24.576 Nur EBS 100 38

     

    **Einige Instances, die vor dem 12. März 2020 gestartet wurden, weisen möglicherweise eine geringere Leistung auf. Wenden Sie sich an Ihr Kundenteam, um für Ihre Instanz ein Upgrade auf die höhere Leistungsstufe vornehmen zu lassen (ohne zusätzliche Kosten).

    * Jeder logische Prozessor ist ein Hyperthread auf 224 Kernen

    • 6-TB-, 9-TB- und 12-TB-Instances werden von 2,1 GHz (mit Turbo Boost auf 3,80 GHz) skalierbaren Intel Xeon Prozessoren (Skylake 8176M) oder 2,7 GHz (mit Turbo Boost auf 4,0 GHz) skalierbaren Intel Xeon Prozessoren der 2. Generation (Cascade Lake 8280L) betrieben
    • 18-TB- und 24-TB-Instances werden von skalierbaren Intel Xeon-Prozessoren der 2. Generation mit 2,7 GHz (mit Turbo Boost auf 4,0 GHz) (Cascade Lake 8280L) betrieben

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Ideal für die Ausführung großer Unternehmensdatenbanken, einschließlich Produktionsinstallationen der In-Memory-Datenbank SAP HANA in der Cloud. Von SAP zertifiziert für Business Suite auf HANA, Business Suite S / 4HANA der nächsten Generation, Data Mart Solutions auf HANA, Business Warehouse auf HANA und SAP BW / 4HANA in Produktionsumgebungen.

  • z1d
  • Amazon-EC2-z1d-Instances bieten sowohl hohe Rechenkapazität als auch großen Arbeitsspeicher. Hochfrequenz-z1d-Instances bieten eine gleichbleibende Kernfrequenz von bis zu 4,0 GHz, die schnellste aller Cloud-Instances.

    Funktionen:

    • Spezieller skalierbarer Intel® Xeon® Prozessor (Skylake 8151) mit einer dauerhaften Frequenz von bis zu 4,0 GHz für alle Kerne und dem neuen Befehlssatz Intel Advanced Vector Extension (AVX-512)
    • Bis zu 1,8 TB Instance-Speicher
    • Großer Arbeitsspeicher mit bis zu 384 GiB RAM
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Mit z1d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der z1d-Instance verknüpft ist
    Instance vCPU Arbeitsspeicher (GB) Netzwerkleistung (Gbit/s)*** SSD-Speicher (GB)
    z1d.large 2 16 Bis zu 10 1 x 75 NVMe-SSD
    z1d.xlarge 4 32 Bis zu 10 1 x 150 NVMe-SSD
    z1d.2xlarge 8 64 Bis zu 10 1 x 300 NVMe-SSD
    z1d.3xlarge 12 96 Bis zu 10 1 x 450 NVMe-SSD
    z1d.6xlarge 24 192 10 1 x 900 NVMe SSD
    z1d.12xlarge 48 384 25 2 x 900 NVMe SSD
    z1d.metal 48* 384 25 2 x 900 NVMe SSD

    * z1d.metal bietet 48 logische Prozessoren auf 24 physischen Kernen

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Ideal für Electronic Design Automation (EDA) und bestimmte relationale Datenbank-Workloads mit hohen Lizenzierungskosten pro Kern.

Jede vCPU auf Graviton-basierten Amazon-EC2-Instances ist ein Kern des AWS-Graviton-Prozessors.

Jede vCPU auf Amazon EC2-Instances, die nicht auf Graviton basieren, ist ein Thread eines x86-basierten Prozessors, mit Ausnahme von R7a-Instances.

† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Beschleunigtes Computing

Beschleunigte Computing-Instances verwenden Hardwarebeschleuniger oder Co-Prozessoren, um Funktionen wie Gleitkomma-Berechnungen, Grafikverarbeitung oder Datenmusterabgleich effizienter auszuführen, als dies bei auf CPUs laufender Software möglich ist.

  • P5
  • Amazon-EC2-P5-Instances sind die neueste Generation von GPU-basierten Instances und bieten die höchste Leistung in Amazon EC2 für Deep Learning und High Performance Computing (HPC).

    Funktionen:

    • AMD-EPYC-Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Bis zu 8 Tensor-Core-GPUs NVIDIA H100
    • Netzwerk-Bandbreite bis zu 3 200-Gbit/s-Instance mit Unterstützung für Elastic Fabric Adapter (EFA) und NVIDIA GPUDirect RDMA (Remote Direct Memory Access)
    • Peer-to-Peer-GPU-Kommunikation mit 900 GB/s über NVIDIA NVSwitch
    • Bereitgestellt in Amazon-EC2-UltraClustern, welche aus bis zu 20 000 Tensor Core-GPUs von NVIDIA H100 bestehen, einem Petabit-Netzwerk sowie einem skalierbaren Speicher mit geringer Latenz und Amazon FSx für Lustre
    Instance GPUs vCPUs Instance
    Speicher (TiB)
    GPU
    Arbeitsspeicher 
    Netzwerkbandbreite GPUDirect RDMA GPU-Peer-to-Peer Instance-Speicher (TB) EBS-Bandbreite (Gbit/s)

    p5.48xlarge

    8

    192

    640 GB HBM3

    3 200 Gbit/s EFAv2

    Ja

    900 GB/s NVSwitch

    8 x 3.84 NVMe-SSD

    80

    P5-Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Generative KI-Anwendungen, einschließlich Beantwortung von Fragen, Codegenerierung, Video- und Bildgenerierung, Spracherkennung und mehr.

    HPC-Anwendungen in großem Maßstab in der pharmazeutischen Forschung, seismischen Analyse, Wettervorhersage und Finanzmodellierung.

  • P4
  • Amazon-EC2-P4-Instances bieten hohe Leistung für Machine-Learning-Training und High Performance Computing in der Cloud.

    • 3,0 GHz skalierbare Intel Xeon Prozessoren der 2. Generation (Cascade Lake P-8275CL)
    • Bis zu 8 NVIDIA A100 Tensor Core GPUs
    • 400-Gbit/s-Instance-Netzwerk mit Unterstützung für Elastic Fabric Adapter (EFA) und NVIDIA GPUDirect RDMA (Remote Direct Memory Access)
    • Peer-to-Peer-GPU-Kommunikation mit 600 GB/s über NVIDIA NVSwitch
    • Bereitgestellt in Amazon-EC2-UltraClustern, welche aus mehr als 4 000 GPUs des NVIDIA A100 Tensor Core bestehen, einem Petabit-Netzwerk sowie einem skalierbaren Speicher mit geringer Latenz und Amazon FSx für Lustre
    Instance GPUs vCPUs Instance
    Arbeitsspeicher (GiB)
    GPU
    Arbeitsspeicher 
    Netzwerkbandbreite GPUDirect RDMA GPU-Peer-to-Peer Instance-Speicher (GB) EBS-Bandbreite (GBit/s)
    p4d.24xlarge 8 96 1152 320 GB HBM2 400 ENA und EFA Ja 600 GB/s NVSwitch 8 x 1000 NVMe-SSD 19
    p4de.24xlarge
    (als Vorversion)
    8 96 1152 640 GB HBM2e 400 ENA und EFA Ja 600 GB/s NVSwitch 8 x 1000 NVMe-SSD 19

    Alle P4d-Instances haben die folgenden Spezifikationen:

     

    Anwendungsfälle

    Machine Learning, High Performance Computing (HPC), numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, Spracherkennung, Entwicklung autonomer Fahrzeuge und Arzneimittelforschung.

  • P3
  • Amazon-EC2-P3-Instances bieten High Performance Computing (HPC) in der Cloud mit bis zu 8 GPUs des NVIDIA® V100 Tensor Core und einem Netzwerkdurchsatz von bis zu 100 Gbit/s für Machine-Learning- und HPC-Anwendungen.

    Funktionen:

    • Bis zu 8 NVIDIA Tesla V100-GPUs mit jeweils 5.120 CUDA-Kernen und 640 Tensor-Kernen
    • Skalierbarer Hochfrequenz-Prozessor Intel Xeon (Broadwell E5-2686 v4) für p3.2xlarge, p3.8xlarge und p3.16xlarge. 
    • Skalierbarer Hochfrequenz-Prozessor Intel-Xeon (Skylake 8175) mit 2,5 GHz (Basis) für p3dn.24xlarge.
    • Unterstützt NVLink für die Peer-to-Peer-GPU-Kommunikation
    • Bietet eine Gesamtnetzwerkbandbreite von bis zu 100 GBit/s
    • EFA-Support auf p3dn.24xlarge-Instances
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) GPU P2P Speicher (GB) Dedizierte EBS-Bandbreite (GBit/s) Netzwerkleistung (Gbit/s)***
    p3.2xlarge 1 8 61 16 - Nur EBS 1,5  Bis zu 10
    p3.8xlarge 4 32 244 64 NVLink Nur EBS 10
    p3.16xlarge 8 64 488 128 NVLink Nur EBS 14  25 
    p3dn.24xlarge 8 96 768 256 NVLink 2 x 900 NVMe SSD 19 100 

    Alle Instances haben die folgenden Spezifikationen:

     
    p3.2xlarge, p3.8xlarge und p3.16xlarge verfügen über Intel Xeon E5-2686-v4-Prozessoren mit 2,3 GHz (Basis) und 2,7 GHz (Turbo).  
     
    p3dn.24xlarge verfügt über Intel-Xeon-8175M-Prozessoren mit 2,5 GHz (Basis) und 3,1 GHz (sustained all-core turbo) und unterstützt Intel AVX-512. p3dn-24xlarge-Instances unterstützen auch den Elastic Fabric Adapter (EFA), mit dem Anwendungen von High Performance Computing (HPC ), die das Message Passing Interface (MPI) verwenden, und Machine Learning (ML)-Anwendungen, die die NVIDIA Collective Communications Library (NCCL) nutzen, auf Tausende von GPUs skaliert werden können.

    Anwendungsfälle

    Machine/Deep Learning, High Performance Computing (HPC), numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, Spracherkennung, Entwicklung autonomer Fahrzeuge, Arzneimittelforschung.

  • P2
  • P2-Instances eignen sich für allgemeine GPU-Datenverarbeitungsanwendungen.

    Funktionen:

    • Skalierbarer Hochfrequenz Intel Xeon Prozessor (Broadwell E5-2686 v4)
    • Leistungsstarke NVIDIA K80-GPUs mit jeweils 2.496 Parallelverarbeitungskernen und 12 GiB GPU-Speicher
    • Unterstützt GPUDirect™ für Peer-to-Peer-GPU-Kommunikation
    • bietet erweiterte Vernetzung durch den Elastic Network Adaptor (ENA) an, mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Platzierungsgruppe
    • Standardmäßig und ohne Zusatzkosten für EBS optimiert
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung (Gbit/s)
    p2.xlarge 1 4 61 12 Hoch
    p2.8xlarge 8 32 488 96 10
    p2.16xlarge 16 64 732 192 25 

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Machine Learning, Hochleistungsdatenbanken, numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, molekulare Modellierung, Genome, Rendering und andere serverseitige GPU-Datenverarbeitungs-Workloads.

  • G5g
  • Amazon-EC2-G5g-Instances werden mit AWS-Graviton2-Prozessoren betrieben und verfügen über T4G-Tensor-Core-GPUs von NVIDIA, um die beste Preisleistung in Amazon EC2 für Grafik-Workloads wie beispielsweise Android Game Streaming zu bieten. Sie sind die ersten Arm-basierten Instances in einer großen Cloud, die über GPU-Beschleunigung verfügen. Kunden können G5g-Instances auch für kostengünstige ML-Inferenz verwenden.

    Funktionen:

    • Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
    • Bis zu 2 NVIDIA-T4G-Tensor-Core-GPUs
    • Bis zu 25 Gbps Netwerkbandbreite
    • Standardmäßig für EBS optimiert
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
    Instance-Name vCPUs Arbeitsspeicher (RAM) (GiB) NVIDIA-T4G-Tensor-Core-GPU GPU-Speicher (GiB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    g5g.xlarge 4 8 1 16 Bis zu 10 Bis zu 3,5
    g5g.2xlarge 8 16 1 16 Bis zu 10 Bis zu 3,5
    g5g.4xlarge 16 32 1 16 Bis zu 10 Bis zu 3,5
    g5g.8xlarge 32 64 1 16 12 9
    g5g.16xlarge 64 128 2 32 25 19
    g5g.metal 64 128 2 32 25 19

    Anwendungsfälle

    Streaming von Android-Spielen, Inferenz für Machine Learning, Grafik-Rendering, Simulationen von autonomen Fahrzeugen

  • G5
  • Amazon-EC2-G5-Instances wurden entwickelt, um grafikintensive Anwendungen und Machine-Learning-Inferenz zu unterstützen. Sie können auch verwendet werden, um einfache bis mittelmäßig komplexe Machine-Learning-Modelle zu trainieren.

    Funktionen:

    • AMD EPYC Prozessoren der 2. Generation (AMD EPYC 7R32)
    • Bis zu 8 NVIDIA A10G Tensor-Core-GPUs
    • Bis zu 100 Gbit/s Netzwerkbandbreite
    • Bis zu 7,6 TB lokaler NVMe-Speicher
    Instance-Größe GPU GPU-Speicher (GiB) vCPUs Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    g5.xlarge 1 24 4 16 1 x 250 NVMe-SSD Bis zu 10 Bis zu 3,5
    g5.2xlarge 1 24 8 32 1 x 450 NVMe-SSD Bis zu 10 Bis zu 3,5
    g5.4xlarge 1 24 16 64 1 x 600 NVMe-SSD Bis zu 25 8
    g5.8xlarge 1 24 32 128 1 x 900 NVMe-SSD 25 16
    g5.16xlarge 1 24 64 256 1 x 1 900 NVMe-SSD 25 16
    g5.12xlarge 4 96 48 192 1 x 3 800 NVMe-SSD 40 16
    g5.24xlarge 4 96 96 384 1 x 3 800 NVMe-SSD 50 19
    g5.48xlarge 8 192 192 768 2x 3800 NVME SSD 100 19

    G5-Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Grafikintensive Anwendungen wie Remote-Workstations, Videorendering und Cloud-Gaming für die Erstellung von erstklassiger Grafik in Echtzeit. Trainings- und Inferenz-Deep-Learning-Modelle für Machine Learning nutzen Anwendungsfälle wie die natürliche Sprachverarbeitung, Computervision und Empfehlungsengines.

  • G4dn
  • Amazon-EC2-G4dn-Instances wurden zur Beschleunigung von Machine-Learning-Inferenz und grafikintensiven Workloads entwickelt.

    Features:

    • Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
    • Bis zu 8 NVIDIA T4 Tensor Core GPUs
    • Bis zu 100 GBit/s Netzwerkdurchsatz
    • Bis zu 1,8 TB lokaler NVMe-Speicher
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (GBit/s)
    g4dn.xlarge 1 4 16 16 1 x 125 NVMe-SSD Bis zu 25 Bis zu 3,5
    g4dn.2xlarge 1 8
    32 16 1 x 225 NVMe-SSD Bis zu 25 Bis zu 3,5
    g4dn.4xlarge 1 16 64 16 1 x 225 NVMe-SSD Bis zu 25 4,75
    g4dn.8xlarge 1 32 128 16 1 x 900 NVMe-SSD 50 9,5
    g4dn.16xlarge 1 64 256 16 1 x 900 NVMe-SSD 50 9,5
    g4dn.12xlarge 4 48 192 64 1 x 900 NVMe-SSD 50 9,5
    g4dn.metal 8 96 384 128 2 x 900 NVMe-SSD 100 19


    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Machine Learning-Inferenz für Anwendungen wie dem Hinzufügen von Bild-Metadaten, Objektdetektion, Ratgebersysteme, automatische Spracherkennung und Übersetzungen. G4-Instances bieten zudem eine kostengünstige Plattform für die Entwicklung und Ausführung grafikintensiver Anwendungen wie externe Grafik-Workstations, Videotranscodierung, fotorealistisches Design und Game-Streaming in der Cloud.  

  • G4ad
  • Amazon-EC2-G4ad-Instances bieten die beste Preisleistung für grafikintensive Anwendungen in der Cloud.

    Funktionen:

    • AMD-EPYC-Prozessoren der 2. Generation (AMD EPYC 7R32)
    • AMD Radeon Pro V520 GPUs
    • Bis zu 2,4 TB lokaler NVMe-Speicher
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    g4ad.xlarge 1 4 16 8 1 x 150 NVMe-SSD Bis zu 10 Bis zu 3
    g4ad.2xlarge 1 8 32 8 1 x 300 NVMe-SSD Bis zu 10 Bis zu 3
    g4ad.4xlarge 1 16 64 8 1 x 600 NVMe-SSD Bis zu 10 Bis zu 3
    g4ad.8xlarge 2 32 128 16 1 x 1 200 NVMe-SSD 15 3
    g4ad.16xlarge 4 64 256 32 1 x 2 400 NVMe-SSD 25 6


    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Grafikintensive Anwendungen wie Remote-Grafik-Workstations, Video-Transcodierung, fotorealistisches Design und Game-Streaming in der Cloud.

  • G3
  • Amazon-EC2-G3-Instances sind für grafikintensive Anwendungen optimiert.

    Funktionen:

    • Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4)
    • NVIDIA Tesla M60 GPUs mit jeweils 2048 Parallelverarbeitungskernen und 8 GiB Videospeicher
    • Ermöglicht NVIDIA GRID Virtual Workstation-Funktionen, einschließlich Unterstützung für 4 Monitore mit Auflösung von bis zu 4096 x 2160 Jede in Ihrer Instance enthaltene GPU ist für genau einen „gleichzeitig verbundenen Benutzer“ lizenziert
    • Bietet NVIDIA GRID Virtual Application-Funktionen für Anwendungsvirtualisierungssoftware wie Citrix XenApp Essentials und VMware Horizon und unterstützt dabei bis zu 25 gleichzeitig verbundene Benutzer pro GPU
    • Jede GPU kennzeichnet einen integrierten Hardware Videoencoder, welcher konzipiert ist um bis zu 10 H.265 (HEVC) 1080p30 Datenströme und bis zu 18 H.264 1080p30 Datenströme zu unterstützen – dies ermöglicht Frame-Erfassung und -Codierung mit geringer Latenz und hochwertiges interaktives Streaming
    • Enhanced Networking mit Elastic Network Adaptor (ENA) mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Placement-Gruppe
    Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung (Gbit/s)***
    g3s.xlarge 1 4 30,5 8 Bis zu 10
    g3.4xlarge 1 16 122 8 Bis zu 10
    g3.8xlarge 2 32 244 16 10
    g3.16xlarge 4 64 488 32 25

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Workloads.

  • Trn1
  • Amazon-EC2-Trn1-Instances, die von AWS-Trainium-Chips unterstützt werden, sind speziell für leistungsstarkes Deep-Learning-Training konzipiert und bieten Einsparungen von bis zu 50 % bei den Trainingskosten gegenüber vergleichbaren Amazon-EC2-Instances.

    Funktionen:

    • 16 AWS-Trainium-Beschleuniger
    • Unterstützt vom AWS-Neuron-SDK
    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation (Ice Lake SP)
    • Bis zu 1 600 Gbit/s Bandbreite für Elastic Fabric Adapter (EFA) der zweiten Generation
    • Bis zu 8 TB lokaler NVMe-Speicher
    • Hochgeschwindigkeits-Bandbreite, Verbindung innerhalb einer Instance mit NeuronLink
    • Bereitgestellt in EC2-UltraCluster, die eine Skalierung auf bis zu 30 000 AWS-Trainium-Beschleuniger ermöglichen, verbunden mit nicht-blockierenden Netzwerken im Petabit-Bereich und skalierbarem Speicher mit geringer Latenz mit Amazon FSx für Lustre
    • Amazon-EBS-optimiert
    • Verbessertes Netzwerk
    Instance-Größe Trainium-Beschleuniger Accelerator Memory (GB) vCPUs Arbeitsspeicher (GiB)

    Instance
    Speicher (GB)

    Netzwerk
    Bandbreite (GBit/s)***

    EBS-Bandbreite
    (Gbit/s)

    trn1.2xlarge 1 32 8 32 1 x 500 NVMe SSD
    Bis zu 12,5 Bis zu 20
    trn1.32xlarge 16 512 128 512 4 x 2 000 NVMe-SSD
    800 80
    trn1n.32xlarge 16 512 128 512 4 x 2 000 NVMe-SSD 1 600 80

    Anwendungsfälle

    Deep-Learning-Training für natürliche Sprachverarbeitung (NLP), Computer Vision, Suche, Empfehlung, Ranking und mehr

  • Inf2
  • Amazon-EC2-Inf2-Instances wurden speziell für Deep-Learning-Inferenzen entwickelt. Sie liefern hohe Leistung zu den niedrigsten Kosten in Amazon EC2 für generative Modelle der künstlichen Intelligenz, einschließlich großer Sprachmodelle und Vision-Transformatoren. Inf2-Instances werden von AWS Inferentia2 betrieben. Diese neuen Instances bieten eine dreifach höhere Rechenleistung, einen vierfach höheren Beschleunigerspeicher, einen bis zu vierfach höheren Durchsatz und eine bis zu zehnmal geringere Latenz verglichen mit Inf1-Instances

    Funktionen:

    • Bis zu 12 AWS-Inferentia2-Beschleuniger
    • Unterstützt vom AWS-Neuron-SDK
    • Dual-AMD-EPYC-Prozessoren (AMD EPYC 7R13)
    • Bis zu 384 GB gemeinsam genutzter Beschleunigerspeicher (32 GB HBM pro Beschleuniger)
    • Bis zu 100 GBit/s Netzwerk
    Instance-Größe

    Inferentia2-Beschleuniger

    Beschleunigerspeicher (GB) vCPU Arbeitsspeicher (GB) Lokaler Speicher (GB) Inter-Beschleuniger-Verbindungen Netzwerkbandbreite (Gbit/s) EBS-Bandbreite (GBit/s)
    inf2.xlarge 1 32 4 16 Nur EBS n.a. Bis zu 15 Bis zu 10
    inf2.8xlarge 1 32 32 128 Nur EBS Entf. Bis zu 25 10
    inf2.24xlarge 6 192 96 384 Nur EBS Ja 50 30
    inf2.48xlarge 12 384 192 768 Nur EBS Ja 100 60

    Anwendungsfälle

    Natürliches Sprachverständnis (fortgeschrittene Textanalyse, Dokumentenanalyse, Konversationsagenten), Übersetzung, Bild- und Videogenerierung, Spracherkennung, Personalisierung, Betrugserkennung und mehr.

  • Inf1
  • Amazon-EC2-Inf1-Instances sind von Grund auf neu entwickelt worden, um Inferenzanwendungen für Machine Learning zu unterstützen.

    Funktionen:

    • Bis zu 16 AWS-Inferentia-Chips
    • Unterstützt vom AWS-Neuron-SDK
    • Hochfrequente Intel-Xeon-Scalable-Prozessoren der 2. Generation (Cascade Lake P-8259L)
    • Bis zu 100 GBit/s Netzwerk
    Instance-Größe Inferentia-Beschleuniger vCPUs Arbeitsspeicher (GiB) Instance-Speicher Inter-Beschleuniger-Verbindungen Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite
    inf1.xlarge 1 4 8 Nur EBS n.a. Bis zu 25 Bis zu 4,75
    inf1.2xlarge 1 8 16 Nur EBS n.a. Bis zu 25 Bis zu 4,75
    inf1.6xlarge 4 24 48 Nur EBS Ja 25 4,75
    inf1.24xlarge 16 96 192 Nur EBS Ja 100 19

    Anwendungsfälle

    Empfehlungs-Engines, Prognosen, Bild- und Videoanalyse, erweiterte Textanalytik, Dokumentenanalyse, Sprache, Gesprächsagenten, Übersetzung, Transkription und Betrugserkennung.

  • DL1
  • Amazon-EC2-DL1-Instances werden von Gaudi-Beschleunigern von Habana Labs (einem Intel-Unternehmen) angetrieben. Diese neuen Instances liefern eine bis zu 40-prozentige Preis-Leistungs-Verbesserung im Vergleich zu aktuellen GPU-basierten EC2-Instances zum Trainieren von Deep-Learning-Modellen.

    Funktionen:

    • Skalierbarer Intel-Xeon-Prozessor der 2. Generation (Cascade Lake P-8275CL)
    • Bis zu 8 Gaudi-Beschleuniger mit 32 GB Speicher mit hoher Bandbreite (HBM) pro Beschleuniger
    • Bis zu 400 GBit/s Netzwerkdurchsatz
    • 4 TB lokaler NVMe-Speicher

    Instance-Größe

    vCPU

    Gaudi-Beschleuniger

    Instance-Arbeitsspeicher (GiB)

    Instance-Speicher (GB)

    Beschleuniger Peer-to-Peer Bidirektional
    (Gbit/s)

    Netzwerkbandbreite (Gbps)

    EBS-Bandbreite (GBit/s)

    dl1.24xlarge

    96

    8

    768

    4 x 1 000 NVMe-SSD

    100

    400

    19


    DL1-Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Deep-Learning-Training, Objekterkennung, Bilderkennung, Verarbeitung natürlicher Sprache und Empfehlungsmaschinen.

  • DL2q
  • Amazon EC2 DL2q-Instances, die von Qualcomm AI 100-Beschleunigern unterstützt werden, können verwendet werden, um Deep-Learning-Workloads (DL) kosteneffizient in der Cloud bereitzustellen oder die Leistung und Genauigkeit von DL-Workloads zu überprüfen, die auf Qualcomm-Geräten bereitgestellt werden.

    Features:

    • 8 Qualcomm AI 100-Beschleuniger
    • Unterstützt von Qualcomm Cloud AI Platform und Apps SDK
    • Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
    • Bis zu 128 GB gemeinsam genutzter Beschleunigerspeicher  
    • Bis zu 100 GBit/s Netzwerk
    Instance-Größe

    Qualcomm AI 100 Beschleuniger

    Beschleunigerspeicher (GB) vCPU Arbeitsspeicher (GB) Lokaler Speicher (GB) Inter-Beschleuniger-Verbindungen Netzwerkbandbreite (Gbit/s) EBS-Bandbreite (Gbit/s)
    dl2q.24xlarge 8 128 96 768 Nur EBS Nein 100 19

    Anwendungsfälle

    Führen Sie beliebte DL- und generative KI-Anwendungen wie Inhaltsgenerierung, Bildanalyse, Textzusammenfassung und virtuelle Assistenten aus.; Validieren Sie KI-Workloads, bevor Sie sie auf Smartphones, Automobilen, Robotern und Extended-Reality-Headsets einsetzen.

  • F1
  • Amazon-EC2-F1-Instances bieten anpassbare Hardwarebeschleunigung mit Field Programmable Gate Arrays (FPGAs).

    Instance-Funktionen:

    • Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4)
    • NVMe-SSD-Speicher
    • Unterstützung für Enhanced Networking

    FPGA-Funktionen:

    • Xilinx Virtex UltraScale+ VU9P FPGAs
    • 64 GiB ECC-geschützter Speicher auf 4 DDR4
    • Dedizierte PCI-Express x16-Schnittstelle
    • Ca. 2,5 Millionen logische Elemente
    • Ca. 6.800 digitale Signalverarbeitungsmodule
    • FPGA Developer AMI
    Instance FPGAs vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)***
    f1.2xlarge 1 8 122 1 x 470 Bis zu 10
    f1.4xlarge 2 16 244 1 x 940 Bis zu 10
    f1.16xlarge 8 64 976 4 x 940 25

    Bei f1.16xgroßen Instanzen ermöglicht die dedizierte PCI-e-Fabric den FPGAs die gemeinsame Nutzung desselben Speicherplatzes und die Kommunikation untereinander über die Fabric mit bis zu 12 Gbit/s in jeder Richtung.

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Genomforschung, Finanzanalysen, Videoverarbeitung in Echtzeit, Big Data-Suche und -Analyse und Sicherheit.

  • VT1
  • Amazon-EC2-VT1-Instances sind für die kostengünstige Echtzeit-Videotranskodierung mit Unterstützung für eine UHD-Auflösung von bis zu 4K ausgelegt.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
    • Bis zu 8 Xilinx U30 Medienbeschleunigerkarten mit beschleunigten H.264/AVC- und H.265/HEVC-Codecs
    • Bis zu 25 GBit/s verstärkter Netzwerkdurchsatz
    • Bis zu 19 Gbit/s an EBS-Bandbreite

    Instance-Größe

    U30 Accelerators

    vCPU

    Arbeitsspeicher (GiB)

    Netzwerkbandbreite (Gbps)

    EBS-Bandbreite
    (Gbit/s)

    1080p60 Streams

    4Kp60 Streams

    vt1.3xlarge

    1

    12

    24

    3 125

    Bis zu 4,75

    8

    2

    vt1.6xlarge

    2

    24

    48

    6,25

    4,75

    16

    4

    vt1.24xlarge

    8

    96

    192

    25

    19

    64

    16

     

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Live-Übertragung von Veranstaltungen, Videokonferenzen und Just-in-Time-Transkodierung.

Jede vCPU ist ein Thread entweder eines Intel-Xeon-Kerns oder eines AMD-EPYC-Kerns, mit Ausnahme von T2 und m3.medium.

† AVX, AVX2, AVX-512 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.

* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.

*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.

Speicheroptimiert

Speicherplatzoptimierte Instances sind für Workloads konzipiert, die einen hohen, sequentiellen Lese- und Schreibzugriff auf sehr große Datenmengen im lokalen Speicher erfordern. Sie sind so optimiert, dass sie Anwendungen Zehntausende von zufälligen I/O-Vorgängen (IOPS) mit geringer Latenz pro Sekunde ermöglichen.

  • I4G
  • Amazon-EC2-I4g-Instances sind von AWS-Graviton2-Prozessoren angetrieben und bieten die beste Preisleistung für speicherintensive Workloads in Amazon EC2. I4g-Instances bieten im Vergleich zu ähnlichen speicheroptimierten Instances eine um bis zu 15 % bessere Rechenleistung.

    Funktionen:

    • Angetrieben von AWS-Graviton2-Prozessoren
    • Mit bis zu 15 TB NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs, die im Vergleich zu I3- und I3en-Instances eine um bis zu 60 % niedrigere E/A-Latenz und eine um bis zu 75 % reduzierte Latenzschwankung bieten und über eine ständig aktive Verschlüsselung verfügen
    • Optimiert für Workloads, die bis zu 8 GB Speicher pro vCPU abbilden
    • Bis zu 38 GBit/s Netzwerkbandbreite mit einem auf Elastic Network Adapter (ENA) basiertem erweiterten Netzwerk
    • Unterstützt Elastic Fabric Adapter (EFA) in i4g.16xlarge-Instances
    • Bis zu 20 GBit/s Bandbreite zum Amazon Elastic Block Store (EBS)
    • Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für Torn Write Prevention (TWP), um zusätzliche Leistung zu erzielen und Latenzen bei Datenbank-Workloads wie MySQL und MariaDB zu reduzieren.
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (GBit/s)
    i4g.large 2 16 1 x 468 GB = 468 GB Bis zu 10 Bis zu 10
    i4g.xlarge 4 32 1 x 937 GB = 937 GB Bis zu 10 Bis zu 10
    i4g.2xlarge 8 64 1 x 1 875 GB = 1 875 GB Bis zu 12 Bis zu 10
    i4g.4xlarge 16 128 1 x 3 750 GB = 3 750 GB Bis zu 25 Bis zu 10
    i4g.8xlarge 32 256 2 x 3 750 GB = 7 500 GB 18,75 10
    i4g.16xlarge 64 512 4 x 3 750 GB = 15 000 GB 37,5 20

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Amazon-EC2-I4g-Instances sind für I/O-intensive Anwendungen optimiert und richten sich an Kunden, die Transaktionsdatenbanken (Amazon DynamoDB, MySQL und PostgreSQL), Amazon OpenSearch Service und Echtzeitanalysen wie Apache Spark verwenden.

  • Im4gn
  • Amazon-EC2-Im4gn-Instances werden von AWS-Graviton2-Prozessoren angetrieben und bieten die beste Preisleistung für speicherintensive Arbeitslasten in Amazon EC2. Sie bieten eine bis zu 40 % bessere Preisleistung und bis zu 44 % niedrigere Kosten pro TB Speicherplatz als I3-Instances.

    Funktionen:

    • Angetrieben von AWS-Graviton2-Prozessoren
    • Mit bis zu 30 TB NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs, die im Vergleich zu I3- und I3en-Instances eine um bis zu 60 % niedrigere E/A-Latenz und eine um bis zu 75 % reduzierte Latenzschwankung bieten und über eine ständig aktive Verschlüsselung verfügen
    • Optimiert für Workloads, die 4 GB Speicher pro vCPU abbilden
    • Zweifache NVMe-SSD-Speicherdichte pro vCPU im Vergleich zu I3-Instances
    • Bis zu 100 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
    • Unterstützung für Elastic Fabric Adapter auf im4gn.16xlarge
    • Bis zu 38 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für Torn Write Prevention (TWP), um zusätzliche Leistung zu erzielen und Latenzen bei Datenbank-Workloads wie MySQL und MariaDB zu reduzieren.
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    Im4gn.large 2 8 1 x 937 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Im4gn.xlarge 4 16 1 x 1 875 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Im4gn.2xlarge 8 32 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Im4gn.4xlarge 16 64 1 x 7 500 AWS Nitro SSD 25 9,5
    Im4gn.8xlarge 32 128 2 x 7 500 AWS Nitro SSD 50 19
    Im4gn.16xlarge 64 256 4 x 7 500 AWS Nitro SSD 100 38

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Diese Instances maximieren die Anzahl der pro Sekunde verarbeiteten Transaktionen (TPS) für E/A-intensive und geschäftskritische Workloads mit mittelgroßen Datensätzen, die von einer hohen Rechenleistung und einem hohen Netzwerkdurchsatz profitieren können, wie beispielsweise relationale Datenbanken (MySQL, MariaDB und PostgreSQL) und NoSQL-Datenbanken (KeyDB, ScyllaDB und Cassandra). Sie eignen sich auch ideal für Workloads, die einen sehr schnellen Zugriff auf mittelgroße Datensätze auf lokalem Speicher benötigen, wie zum Beispiel Suchmaschinen und Workloads zur Datenanalytik.

  • Is4gen
  • Amazon-EC2-Is4gen-Instances werden von AWS-Graviton2-Prozessoren angetrieben und bieten die niedrigsten Kosten pro TB SSD-Speicher und die höchste Dichte an SSD-Speicher pro vCPU in Amazon EC2 für speicherintensive Workloads. Diese Instances ermöglichen 15 % niedrigere Kosten pro TB Speicher und eine bis zu 48 % bessere Rechenleistung im Vergleich zu I3en-Instances.

    Funktionen:

    • Angetrieben von AWS-Graviton2-Prozessoren
    • Mit bis zu 30 TB NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs, die im Vergleich zu I3- und I3en-Instances eine um bis zu 60 % niedrigere E/A-Latenz und eine um bis zu 75 % reduzierte Latenzschwankung bieten und über eine ständig aktive Verschlüsselung verfügen
    • Optimiert für Workloads, die bis zu 6 GB Speicher pro vCPU abbilden
    • 50 % mehr NVMe-SSD-Speicher pro vCPU im Vergleich zu I3en
    • Bis zu 50 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
    • Bis zu 19 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung für Torn Write Prevention (TWP), um zusätzliche Leistung zu erzielen und Latenzen bei Datenbank-Workloads wie MySQL und MariaDB zu reduzieren.
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    Is4gen.medium 1 6 1 x 937 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Is4gen.large 2 12 1 x 1 875 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Is4gen.xlarge 4 24 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Is4gen.2xlarge 8 48 1 x 7 500 AWS Nitro SSD Bis zu 25 Bis zu 9,5
    Is4gen.4xlarge 16 96 2 x 7 500 AWS Nitro SSD 25 9,5
    Is4gen.8xlarge 32 192 4 x 7 500 AWS Nitro SSD 50 19

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Diese Instances maximieren die Anzahl der pro Sekunde verarbeiteten Transaktionen (TPS) für E/A-fordernde Arbeitslasten, die große Datensätze aufweisen und die höchste NVMe-Speicherdichte pro vCPU abbilden können, wie beispielsweise NoSQL-Datenbanken (KeyDB, MongoDB, ScyllaDB und Cassandra), die große Datensätze aufweisen und die höchste NVMe-Speicherdichte pro vCPU abbilden können. Sie sind auch ideal für Workloads, die eine höhere Speicherdichte und einen sehr schnellen Zugriff auf große Datenmengen auf lokalem Speicher erfordern, wie Suchmaschinen (Splunk und Elasticsearch), Daten-Streaming und große verteilte Dateisysteme.

  • I4i
  • Amazon-EC2-i4i-Instances werden von skalierbaren Intel Xeon-Prozessoren der 3. Generation (Ice Lake) angetrieben und bieten mithilfe von AWS-Nitro-NVMe-SSDs die höchste lokale Speicherleistung innerhalb von Amazon EC2.

    Funktionen:

    • Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
    • Bis zu 30 % bessere Rechenpreisleistung als I3-Instances
    • Bis zu 30 TB NVMe-Speicher von AWS Nitro SSDs, die eine um bis zu 60 % niedrigere E/A-Speicherlatenz und eine um bis zu 75 % niedrigere E/A-Speicherlatenzschwankung im Vergleich zu I3-Instances bieten
    • Bis zu 75 GBit/s Netzwerkgeschwindigkeit
    • Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
    • Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 1 024 GiB Arbeitsspeicher
    • Unterstützt Elastic Fabric Adapter in der 32xlarge-Größe
    • Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
    • Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
    • Unterstützung für Torn Write Prevention (TWP), um zusätzliche Leistung zu erzielen und Latenzen bei Datenbank-Workloads wie MySQL und MariaDB zu reduzieren.
    Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s)
    i4i.large 2 16 1 x 468 AWS Nitro SSD Bis zu 10 Bis zu 10
    i4i.xlarge 4 32 1 x 937 AWS Nitro SSD Bis zu 10 Bis zu 10
    i4i.2xlarge 8 64 1 x 1 875 AWS Nitro SSD Bis zu 12 Bis zu 10
    i4i.4xlarge 16 128 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 10
    i4i.8xlarge 32 256 2 x 3 750 AWS Nitro SSD 18,75 10
    i4i.12xlarge 48 384 3 x 3750 AWS Nitro SSD 28,12 15
    i4i.16xlarge 64 512 4 x 3 750 AWS Nitro SSD 37,5 20
    i4i.24xlarge 96 768 6 x 3750 AWS Nitro SSD 56,25 30
    i4i.32xlarge 128 1 024 8 x 3 750 AWS Nitro SSD 75 40
    i4i.metal 128 1 024 8 x 3 750 AWS Nitro SSD 75 40

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Diese Instances wurden entwickelt, um die Transaktionen pro Sekunde (TPS) für E/A-lastige Workloads zu maximieren, die einen sehr schnellen Zugriff auf kleine bis mittelgroße Datensätze auf lokalem Speicher wie transaktionalen Datenbanken (z. B. MySQL, Oracle DB und Microsoft SQL Server) und NoSQL-Datenbanken (z. B. MongoDB, Couchbase, Aerospike und Redis) erfordern. I4i-Instances eignen sich auch ideal für Workloads, die von einer hohen Rechenleistung pro TB Speicherplatz profitieren, wie z. B. Datenanalyse und Suchmaschinen.

  • I3
  • Diese Instance-Familie bietet NVMe-Schnittstellen (Nonvolatile Memory Express) für SSD-gestützten Instance-Speicher – optimiert für geringe Latenz, sehr hohe Random-E/A-Leistung, hohen sequentiellen Durchsatz und hohe IOPS bei niedrigen Kosten. I3 bietet ebenfalls Bare-Metal-Instances (i3.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.

    Funktionen:

    • Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4) mit einer Basisfrequenz von 2,3 GHz
    • Bis zu 25 Gbit/s Netzwerkbandbreite mit ENA-basiertem Enhanced Networking (Elastic Network Adapter).
    • Hohe zufällige I/O-Leistung und hoher sequenzieller Lesedurchsatz
    • Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
    Instance vCPU* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)***
    i3.large 2 15,25 1 x 475 NVMe-SSD Bis zu 10
    i3.xlarge 4 30,5 1 x 950 NVMe-SSD Bis zu 10
    i3.2xlarge 8 61 1 x 1 900 NVMe-SSD Bis zu 10
    i3.4xlarge 16 122 2 x 1 900 NVMe-SSD Bis zu 10
    i3.8xlarge 32 244 4 x 1 900 NVMe-SSD 10
    i3.16xlarge 64 488 8 x 1 900 NVMe-SSD 25
    i3.metal 72** 512 8 x 1 900 NVMe-SSD 25

     

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Kleine bis mittelgroße NoSQL-Datenbanken (z. B. Cassandra, MongoDB, Aerospike), In-Memory-Datenbanken (z. B. Redis), skalierbare Transaktionsdatenbanken, Data Warehousing, Elasticsearch, analytische Workloads.

  • I3en
  • Diese Instance-Familie bietet einen dichten, Non-Volatile Memory Express (NVMe) SSD-Instance-Speicher, der für niedrige Latenzzeiten, hohe zufällige I/O-Leistung, hohen sequentiellen Festplattendurchsatz optimiert ist, und bietet den niedrigsten Preis pro GB SSD-Instance-Speicher auf Amazon EC2. I3en bietet ebenfalls Bare Metal-Instances (i3en.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.

    Funktionen:

    • Bis zu 60 TB NVMe SSD Instance-Speicher
    • Bis zu 100 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
    • Hohe zufällige E/A-Leistung und hoher sequentieller Festplattendurchsatz
    • Skalierbare Intel® Xeon® Prozessoren mit bis zu 3,1 GHz (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512)-Befehlssatz
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    • Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
    • Unterstützung für Elastic Fabric Adapter auf i3en.24xlarge
    Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
    i3en.large 2 16 1 x 1 250 NVMe-SSD
    Bis zu 25
    i3en.xlarge 4 32 1 x 2 500 NVMe-SSD
    Bis zu 25
    i3en.2xlarge 8 64 2 x 2 500 NVMe-SSD
    Bis zu 25
    i3en.3xlarge 12 96 1 x 7 500 NVMe-SSD
    Bis zu 25
    i3en.6xlarge 24 192 2 x 7 500 NVMe-SSD
    25
    i3en.12xlarge 48 384 4 x 7 500 NVMe-SSD
    50
    i3en.24xlarge
    96 768 8 x 7 500 NVMe-SSD
    100
    i3en.metal 96 768 8 x 7 500 NVMe-SSD 100

    Alle Instances haben die folgenden Spezifikationen:

    • 3.1 GHz all core turbo Intel® Xeon® Scalable (Skylake)-Prozessoren
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo 
    • EBS-optimiert
    • Enhanced Networking

    Anwendungsfälle

    Kleine bis große NoSQL-Datenbanken (z. B. Cassandra, MongoDB, Aerospike), In-Memory-Datenbanken (z. B. Redis), skalierbare Transaktionsdatenbanken, verteilte Dateisysteme, Data Warehousing, Elasticsearch, Analyse-Workloads.

  • D2
  • Amazon-EC2-D2-Instances bieten bis zu 48 TB lokale Speicherung auf HDD, hohen Datenträgerdurchsatz und den niedrigsten Preis pro Datenträger-Durchsatzleistung auf Amazon EC2.

    Funktionen:

    • Skalierbare Hochfrequenz-Intel Xeon-Prozessoren (Haswell E5-2676 v3)
    • HDD-Speicher
    • Kontinuierlich hohe Leistung beim Start
    • Hoher Datenträgerdurchsatz
    • Unterstützung für Enhanced Networking
    Instance vCPU* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung
    d2.xlarge 4 30,5 3 x 2.000 HDD Mittel
    d2.2xlarge 8 61 6 x 2 000 HDD Hoch
    d2.4xlarge 16 122 12 x 2 000 HDD Hoch
    d2.8xlarge 36 244 24 x 2 000 HDD 10 GBit/s

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Data Warehousing mit massiver Parallelverarbeitung (MPP), verteiltes Computing mit MapReduce und Hadoop, verteilte Dateisysteme, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen.

  • D3
  • Amazon-EC2-D3-Instances sind für Anwendungen optimiert, die eine hohe sequentielle E/A-Leistung und einen hohen Festplattendurchsatz erfordern. D3-Instances stellen einen optimalen Upgrade-Pfad für Workloads dar, die auf D2-Instances ausgeführt werden und zusätzliche Rechen- und Netzwerkleistung zu einem niedrigeren Preis/TB benötigen.

    Funktionen:

    • Bis zu 3,1 GHz skalierbare Intel® Xeon® Prozessoren der 2. Generation (Intel Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
    • Bis zu 48 TB HDD-Instance-Speicher
    • Bis zu 45 % höherer Lese- und Schreibdurchsatz als bei EC2 D2-Instances
    • AWS Nitro-System-basiert

    Instance-Größe

    vCPU

    Arbeitsspeicher (GiB)

    Instance-Speicher (TB)

    Aggregierter Festplattendurchsatz (MiB/s)

    Netzwerkbandbreite (Gbit/s)***

    EBS-Bandbreite (Mbit/s)

    d3.xlarge

    4

    32

    3 x 2 HDD

    580

    Bis zu 15

    850

    d3.2xlarge

    8

    64

    6 x 2 HDD

    1.100

    Bis zu 15

    1.700

    d3.4xlarge

    16

    128

    12 x 2 HDD

    2.300

    Bis zu 15

    2.800

    d3.8xlarge

    32

    256

    24 x 2 HDD

    4.600

    25

    5.000

    *128.000 Blockgrößen, sequentielles Lesen und Schreiben (auf 100 gerundet, außer xlarge)

    Alle Instances haben die folgenden Spezifikationen:

    • Bis zu 3,1 GHz Intel® Xeon® Scalable (Cascade Lake)-Prozessoren der 2. Generation
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
    • Enhanced Networking

    Anwendungsfälle

    Verteilte Dateisysteme (z. B. HDFS, MapReduce-Dateisysteme), analytische Big-Data-Arbeitslasten (z. B. Elastic MapReduce, Spark, Hadoop), massiv parallele Verarbeitung (MPP), Datenlager (z. B. Redshift, HP Vertica), Protokoll- oder Datenverarbeitungsanwendungen (z. B. Kafka, Elastic Search)

  • D3en
  • Amazon-EC2-D3en-Instances sind für Anwendungen optimiert, die eine hohe sequentielle E/A-Leistung, einen hohen Festplattendurchsatz und einen kostengünstigen Speicher für sehr große Datenmengen erfordern. D3en-Instances bieten die niedrigsten Speicherkosten unter allen Cloud-Angeboten.

    Funktionen:

    • Bis zu 3,1 GHz skalierbare Intel® Xeon® Prozessoren der 2. Generation (Intel Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
    • Bis zu 336 TB HDD-Instance-Speicher
    • Bis zu 75 Gbit/s Netzwerkbandbreite
    • Bis zu 2x höherer Lese- und Schreibdurchsatz als bei EC2 D2-Instances
    • AWS Nitro-System-basiert

    Instance-Größe

    vCPU

    Arbeitsspeicher (GiB)

    Instance-Speicher (TB)

    Aggregierter Festplattendurchsatz (MiB/s)

    Netzwerkbandbreite (Gbit/s)***

    EBS-Bandbreite (Mbit/s)

    d3en.xlarge

    4

    16

    2 x 14 HDD

    500

    Bis zu 25

    850

    d3en.2xlarge

    8

    32

    4 x 14 HDD

    1.000

    Bis zu 25

    1.700

    d3en.4xlarge

    16

    64

    8 x 14 HDD

    2.000

    25

    2.800

    d3en.6xlarge

    24

    96

    12 x 14 HDD

    3.100

    40

    4.000

    d3en.8xlarge

    32

    128

    16 x 14 HDD

    4.100

    50

    5.000

    d3en.12xlarge

    48

    192

    24 x 14 HDD

    6.200

    75

    7.000

    *128.000 Blockgrößen, sequentielles Lesen und Schreiben (auf 100 gerundet)

    Alle Instances haben die folgenden Spezifikationen:

    • 3,1 GHz All Core Turbo Intel® Xeon® Scalable (Cascade Lake)-Prozessoren der 2. Generation
    • Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
    • Enhanced Networking

    Anwendungsfälle

    Dateispeichersysteme mit mehreren Knoten wie Lustre, BeeGFS, GPFS, VxCFS und GFS2. Data Lakes mit hoher Kapazität und konsistenter sequentieller E-/A-Leistung

  • H1
  • Amazon-EC2-H1-Instances haben bis zu 16 TB lokalen, HDD-basierten Festplattenspeicher, liefern hohen Datenträgerdurchsatz und bieten ein Gleichgewicht zwischen Rechenleistung und Arbeitsspeicher.

    Funktionen:

    • Angetrieben von einem skalierbaren Intel Xeon-Prozessor mit 2,3 GHz (Broadwell E5 2686 v4)
    • Bis zu 16 TB HDD-Speicher
    • Hoher Datenträgerdurchsatz
    • Enhanced Networking von bis zu 25 Gbit/s dank ENA
    Instance vCPU* Arbeitsspeicher (GiB) Netzwerkleistung (Gbit/s)*** Instance-Speicher (GB)
    h1.2xlarge 8 32 Bis zu 10 1 x 2 000 HDD
    h1.4xlarge 16 64 Bis zu 10 2 x 2 000 HDD
    h1.8xlarge 32 128 10 4 x 2 000 HDD
    h1.16xlarge 64 256 25 8 x 2 000 HDD

    Alle Instances haben die folgenden Spezifikationen:

    Anwendungsfälle

    Auf MapReduce basierende Workloads, verteilte Dateisysteme wie HDFS und MapR-FS, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen wie Apache Kafka und Big Data-Workloadcluster.

** i3.metal bietet 72 logische Prozessoren auf 36 physischen Kernen.

Suchen Sie Instances früherer Generationen, die hier nicht aufgelistet sind? Lesen Sie hierzu die Seite Instances der vorherigen Generation.

HPC-optimiert

High Performance Computing (HPC)-Instances wurden speziell entwickelt, um die beste Preisleistung für die Ausführung von HPC-Workloads in großem Maßstab in AWS zu bieten. HPC-Instances sind ideal für Anwendungen, die von Hochleistungsprozessoren profitieren, wie z. B. große, komplexe Simulationen und Deep-Learning-Workloads.

  • HPC 7 g
  • Amazon-EC2-Hpc7g-Instances sind für rechenintensive Workloads von High Performance Computing (HPC) wie Computational Fluid Dynamics (CFD), Wettervorhersagen und Molekulardynamik konzipiert.

    Funktionen:

    • Bis zu 64 Kerne von Graviton3E-Prozessoren mit 128 GiB Speicher
    • Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 200 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe Physische Kerne Arbeitsspeicher (GiB) Instance-Speicher EFA-Netzwerkbandbreite (Gbit/s) Netzwerkbandbreite (Gbit/s*)
    hpc7g.4xlarge 16 128 Nur EBS 200 25
    hpc7g.8xlarge 32 128 Nur EBS 200 25
    hpc7g.16xlarge 64 128 Nur EBS 200 25

     

    *500 Mbit/s Netzwerkbandbreite außerhalb der Virtual Private Cloud (VPC) und Amazon Simple Storage Service (Amazon S3)
  • Hpc7a
  • Amazon-EC2-Hpc7a-Instances verfügen über AMD-EPYC-Prozessoren der 4. Generation und sind für eng gekoppelte, rechenintensive High Performance Computing (HPC)-Workloads wie Computational Fluid Dynamics (CFD), Wettervorhersagen und multiphysikalische Simulationen konzipiert.

    Features:

    • Bis zu 192 Kerne von AMD-EPYC-Prozessoren der 4. Generation mit 768 GB Arbeitsspeicher (AMD EPYC 9R14)
    • Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 300 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe Physische Kerne Arbeitsspeicher (GiB) Instance-Speicher EFA-Netzwerkbandbreite (Gbit/s) Netzwerkbandbreite (Gbit/s)*

    hpc7a.12xlarge

    24

    768

    Nur EBS

    300

    25

    hpc7a.24xlarge

    48

    768

    Nur EBS

    300

    25

    hpc7a.48xlarge

    96

    768

    Nur EBS

    300

    25

    hpc7a.96xlarge

    192

    768

    Nur EBS

    300

    25

     

    *500 Mbit/s Netzwerkbandbreite außerhalb der Virtual Private Cloud (VPC) und Amazon Simple Storage Service (Amazon S3).

  • Hpc6id
  • Amazon-EC2-Hpc6id-Instances sind für arbeitsspeichergebundene und datenintensive High-Performance-Computing-Workloads (HPC) wie Finite-Element-Analysen (FEA) für Absturz-Simulationen, seismische Lagerstättensimulationen und strukturellen Simulationen vorgesehen.

    Funktionen: 

    • Bis zu 3,5 GHz All-Core-Turbofrequenz, 64 Kerne von Intel-Xeon-Scalable-Prozessoren mit 5 GB/s pro vCPU Speicherbandbreite und 1 024 GB Speicher
    • Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 200 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
    • Simultanes Multi-Threading ist deaktiviert, um Leistung und Cluster-Management zu optimieren
    • Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
    Instance-Größe Kerne Arbeitsspeicher (GB) SSD-Speicher (GB) Netzwerkbandbreite (GBit/s)* EFA-Netzwerkbandbreite (Gbps)
    hpc6id.32xlarge 64 1 024 4 x 3800 (NVMe-SSD) 25 200

     

    *500 Gbit/s Netzwerkbandbreite außerhalb der Virtual Private Cloud (VPC) und Amazon Simple Storage Service (S3)
  • Hpc6a
  • Amazon-EC2-Hpc6a-Instances sind für eng gekoppelte, rechenintensive Workloads von High Performance Computing (HPC) optimiert und bieten kosteneffiziente Leistung. Hpc6a-Instances sind für Workloads wie computergestützte Flüssigkeitsdynamik, Molekulardynamik und Wettervorhersage konzipiert. Sie sind auch für Workloads konzipiert, die von einem verbesserten Netzwerkdurchsatz und einer höheren Paketrate profitieren können.

    Funktionen: 

    • Bis zu 3,6 GHz-AMD-EPYC-Prozessoren der 3. Generation (AMD EPYC 7R13)
    • Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 100 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
    • Simultanes Multi-Threading ist deaktiviert, um Leistung und Cluster-Management zu optimieren
    • Angetrieben durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
    Instance-Größe Kerne Arbeitsspeicher (GB) Netzwerkbandbreite (GBit/s) EFA-Netzwerkbandbreite (GBit/s)
    hpc6a.48xlarge 96 384 25 100

     

    *25 Gbit/s Netzwerkbandbreite außerhalb der Virtual Private Cloud (VPC), Amazon Simple Storage Service (S3) oder Amazon Elastic Block Store (EBS).

Instances-Funktionen

Amazon EC2-Instances bieten eine Vielzahl weiterer Funktionen, mit deren Hilfe Sie Ihre Anwendungen bereitstellen, verwalten und skalieren können.

Instances mit Spitzenlastleistung

Amazon EC2 bietet Ihnen die Wahl zwischen Instance-Serien mit gleichbleibender Leistung (z. B. M6, C6 und R6) und Instances mit Spitzenlastleistung (z. B. T3). Instances mit Spitzenlastleistung bieten eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.

T Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Der Stundenpreis der T-Instance deckt automatisch alle zwischenzeitlichen Auslastungsspitzen ab, wenn die durchschnittliche CPU-Auslastung einer T-Instance im Laufe eines 24-Stunden-Fensters der Basisleistung entspricht oder diese unterschreitet. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.

Bei T-Instances werden die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten per CPU-Guthaben verwaltet. Jede T-Instance erhält fortlaufend CPU-Guthaben. Die Rate hängt von der Instance-Größe ab. T-Instances sammeln im Leerlauf CPU-Guthaben und verbrauchen CPU-Guthaben, wenn sie aktiv sind. Ein CPU-Guthaben stellt die Leistung eines gesamten CPU-Kerns für eine Minute zur Verfügung.

Beispielsweise erhält eine Instance vom Typ t2.small fortlaufend Guthaben mit einer Rate von 12 CPU-Guthaben pro Stunde. Diese Fähigkeit stellt eine Basisleistung bereit, die 20 % eines CPU-Kerns entspricht (20 % x 60 Min. = 12 Min.). Wenn die Instance das erhaltene Guthaben nicht verbraucht, werden bis zu 288 CPU-Guthaben im CPU-Guthabensaldo aufbewahrt. Wenn die t2.small-Instance Spitzenlasten mit mehr als 20 % der Leistung eines Kerns verarbeiten muss, wird das vom CPU-Guthabensaldo abgezogen, um die Lastspitze nahtlos zu verarbeiten.

Wenn T2 Unlimited aktiviert ist, kann die t2.small-Instance über den Ausgangswert hinausgehen, selbst wenn ihr CPU-Guthaben auf Null gesunken ist. Bei einem Großteil der Verarbeitungslasten für allgemeine Zwecke, bei denen die durchschnittliche CPU-Auslastung der Basisleistung entspricht oder darunter liegt, deckt der Basisstundenpreis für t2.small alle CPU-Bursts ab. Wenn die Instance über einen Zeitraum von 24 Stunden, nachdem der CPU-Guthabensaldo auf Null gesunken ist, mit durchschnittlich 25 % CPU-Auslastung (5 % über der Basisleistung) ausgeführt wird, werden zusätzlich 6 Cent in Rechnung gestellt (5 Cent/vCPU-Stunde x 1 vCPU x 5 % x 24 Stunden).

Viele Anwendungen wie Webserver, Entwicklungsumgebungen und kleine Datenbanken benötigen keine gleichbleibend hohe CPU-Leistung, profitieren aber stark von schnellen CPUs, wenn sie die Leistung benötigen. T-Instances sind besonders für diese Anwendungsfälle ausgelegt. Wenn Sie gleichbleibend hohe CPU-Leistung für Anwendungen wie Videocodierung, Websites mit hohem Durchsatz oder HPC-Anwendungen benötigen, verwenden Sie Instances mit konstanter Leistung. T-Instances sind so konzipiert, als stünden ihnen dedizierte Hochgeschwindigkeits-Prozessor-Kerne zur Verfügung, wenn Ihre Anwendung CPU-Leistung benötigt. Außerdem schützen sie zugleich vor der schwankenden Leistung und anderen häufigen Nebeneffekten, die in anderen Umgebungen i. d. R. bei zu vielen Abonnements auftreten.

Mehrere Speicheroptionen

Je nach Anforderungen bietet Amazon EC2 Ihnen die Wahl zwischen mehreren Speicheroptionen. Amazon EBS ist ein stabiles Speichervolume auf Blockebene, das Sie einer einzelnen ausgeführten Amazon-EC2-Instance zuordnen können. Sie können Amazon EBS als primäres Speichermedium für Daten nutzen, die häufig und detailliert aktualisiert werden. Amazon EBS wird beispielsweise als Speicher empfohlen, wenn Sie eine Datenbank in Amazon EC2 ausführen. Amazon EBS-Volumes bleiben unabhängig von der Betriebsdauer einer einzelnen Amazon EC2-Instance erhalten. Sobald ein Volume einer Instance zugeordnet wurde, können Sie es wie ein physisches Festplattenlaufwerk nutzen. Amazon EBS bietet drei Volumetypen zum Erfüllen der Anforderungen Ihrer Workloads: Standard (SSD), bereitgestellte IOPS (SSD) und Magnetfestplatten. Standardvolumes (SSD) sind der neue SSD-gestützte EBS-Volumetyp für allgemeine Zwecke, den wir Kunden als Standardoption empfehlen. Standardvolumes (SSD) sind für ein breites Spektrum von Workloads einschließlich kleiner und mittelgroßer Datenbanken sowie Entwicklungs- und Testumgebungen geeignet und ideal für Startvolumes. Bereitgestellte IOPS-Volumes (SSD) bieten Speicher mit konsistenter Leistung sowie geringer Latenz und eignen sich für E/A-intensive Anwendungen wie große relationale oder NoSQL-Datenbanken. Magnetfestplattenvolumes verursachen von allen EBS-Volumetypen die niedrigsten Kosten pro GB. Magnetfestplatten-Volumes sind ideal für Workloads mit seltenen Datenzugriffen und Szenarien, bei denen die Speicherkosten so niedrig wie möglich sein sollen.

Viele Amazon-EC2-Instances können auch Speicher von Geräten beinhalten, die sich innerhalb des Hostcomputers befinden, der als Instance-Speicher bezeichnet wird. Instance-Speicher bietet Amazon-EC2-Instances temporären Speicher auf Blockebene. Die Daten auf Instance-Speichern bleiben nur für die Nutzungsdauer der zugehörigen Amazon-EC2-Instance erhalten.

Zusätzlich zu Speicher auf Blockebene mithilfe von Amazon-EBS- oder Instance-Speicher können Sie auch Amazon S3 als sehr robusten und hoch verfügbaren Objektspeicher nutzen. Weitere Informationen zu den Speicheroptionen von Amazon EC2 finden Sie in der Amazon-EC2-Dokumentation.

EBS-optimierte Instances

Gegen eine geringe zusätzliche Stundengebühr können Kunden bestimmte Amazon-EC2-Instance-Typen als EBS-optimierte Instances starten. Mit EBS-optimierten Instances können EC2-Instances die auf einem EBS-Volume bereitgestellte IOPS in vollem Umfang nutzen. EBS-optimierte Instances liefern einen dedizierten Durchsatz zwischen Amazon EC2 und Amazon EBS, mit Optionen zwischen 500 Megabit pro Sekunde (Mbit/s) und 80 Gigabit pro Sekunde (Gbit/s) und das je nach verwendetem Instance-Typ. Durch den dedizierten Durchsatz werden Konflikte zwischen I/O-Vorgängen von Amazon EBS und anderem Datenverkehr Ihrer EC2-Instance minimiert, wodurch Ihre EBS-Volumes eine optimale Leistung liefern können. EBS optimierte Instances sind für die Nutzung mit allen EBS-Volumen konzipiert. Bei Anbindung an EBS-optimierte Instances können bereitgestellte IOPS-Volumes Latenzen im einstelligen Millisekundenbereich erreichen. Außerdem sind sie so konzipiert, dass sie mindestens 10 % der bereitgestellten IOPS-Leistung in 99,9 % der Fälle liefern. Wir empfehlen bereitgestellte IOPS-Volumes mit EBS-optimierten Instances bzw. Instances, die Clusternetzwerke für Anwendungen mit hohen Speicher-E/A-Anforderungen unterstützen.

Clusternetzwerke

Ausgewählte EC2-Instances unterstützen Clusternetzwerke, wenn diese in einer gebräuchlichen Clusterplatzierungsgruppe ausgeführt werden. Eine Clusterplatzierungsgruppe ermöglicht einen Netzwerkbetrieb mit geringer Latenz zwischen allen Instances und Clustern. Die von einer EC2-Instance nutzbare Bandbreite richtet sich nach dem Instance-Typ und dessen Netzwerkleistung. Der Datenverkehr zwischen Instances in derselben Region kann bei einseitiger Übertragung bis zu 5 GBit/s und bei beidseitiger Übertragung bis zu 100 GBit/s in jede Richtung (Vollduplex) betragen. Der Datenverkehr von und zu S3-Buckets in derselben Region kann ebenfalls die gesamte verfügbare Aggregatsbandbreite von Instances verwenden. Instances, die in einer Platzierungsgruppe gestartet werden, können für einseitigen Datenverkehr Geschwindigkeiten von bis zu 10 GBit/s und für beidseitigen Datenverkehr Geschwindigkeiten von bis zu 100 GBit/s generieren. Der Netzwerkdatenverkehr ins Internet ist auf 5 GBit/s (Vollduplex) beschränkt. Clusternetzwerke eignen sich ideal für Hochleistungsanalysesysteme und viele wissenschaftliche und Konstruktionsanwendungen, insbesondere für diejenigen, die den MPI-Bibliotheksstandard für Parallelprogrammierung nutzen.

Intel-Prozessorfunktionen

Amazon EC2-Instanzen, die über einen Intel-Prozessor verfügen, können den Zugriff auf die folgenden Prozessorfunktionen ermöglichen:

  • Intel AES New Instructions (AES-NI): Der Befehlssatz für Intel AES-NI-Verschlüsselung verbessert den Originalalgorithmus Advanced Encryption Standard (AES) in Hinblick auf schnelleren Datenschutz und bessere Sicherheit. Alle EC2-Instances der aktuellen Generation unterstützten diese Prozessorfunktion.
  • Intel Advanced Vector Extensions (Intel AVX, Intel AVX2 und Intel AVX-512): Intel AVX und Intel AVX2 sind Erweiterungen des 256-Bit-Befehlssatzes und Intel AVX-512 ist eine Erweiterung des 512-Bit-Befehlssatzes für Anwendungen mit vielen Gleitkommaoperationen. Intel AVX-Befehle verbessern die Leistung von Anwendungen für beispielsweise Bild-, Audio- und Videobearbeitung, wissenschaftliche Simulationen, Finanzanalysen sowie 3D-Modellierung und -Analysen. Diese Funktionen stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
  • Intel Turbo-Boost-Technik: Die Intel Turbo-Boost-Technik bietet bei Bedarf mehr Leistung. Der Prozessor ist in der Lage, Kerne schneller auszuführen als die Basisbetriebsfrequenz, damit Sie schneller arbeiten können.
  • Intel Deep Learning Boost (Intel DL Boost): Eine neue Reihe integrierter Prozessortechnologien, die auf die Beschleunigung von AI Deep Learning-Anwendungsfälle ausgelegt sind. Intel Xeon Scalable-Prozessoren der 2. Generation erweitern Intel AVX-512 mit einer neuen Vector Neural Network Instruction (VNNI/INT8), welche die Deep Learning-Inferenzleistung im Vergleich zur vorherigen Generation von Intel Xeon Scalable-Prozessoren (mit FP32) deutlich übertrifft. Dies ist unter anderem für die Bereiche Bilderkennung/-segmentierung, Objekterkennung, Spracherkennung, Sprachübersetzung, Empfehlungssysteme und Reinforcement Learning vorgesehen. VNNI ist möglicherweise nicht mit allen Linux-Verteilungen kompatibel. Bitte überprüfen Sie die Dokumentation vor der Verwendung. 

Nicht alle Prozessorfunktionen sind für alle Instance-Typen verfügbar. In der detaillierten Übersicht über die Instance-Typen erfahren Sie, welche Funktionen von welchen Instance-Typen verfügbar sind.

Messen der Instance-Leistung

Warum sollten Sie die Leistung von Instances messen?

Amazon EC2 ermöglicht Ihnen die Bereitstellung einer Vielzahl von Instance-Typen, die verschiedene Kombinationen von CPU-, Arbeitsspeicher-, Datenträger- und Netzwerkfunktionen bieten. Das Starten neuer Instances und das parallele Ausführen von Tests ist einfach. Wir empfehlen die Leistung von Anwendungen zu messen, um geeignete Instance-Typen zu bestimmen und die Anwendungsarchitektur zu überprüfen. Außerdem können umfassende Auslastungs- und Skalierungstests nützlich sein, um zu prüfen, ob Anwendungen wie gewünscht skaliert werden können.

Amazon-EC2-Leistungsbewertung

Amazon EC2 bietet zahlreiche Optionen für zehn verschiedene Instance-Typen mit jeweils mindestens einer Größenoption, die in unterschiedliche Instance-Familien unterteilt sind, die für diverse Anwendungen optimiert sind. Wir empfehlen, die Anforderungen Ihrer Anwendungen zu analysieren und die geeignete Instance-Familie als Ausgangspunkt für das Testen der Anwendungsleistung auszuwählen. Gehen Sie zum Bewerten der Anwendungsleistung so vor: (1.) Bestimmen Sie Ihre Anwendungsanforderungen im Vergleich zu verschiedenen Instance-Familien (ist die Anwendung beispielsweise mehr von Rechenleistung oder Arbeitsspeicher abhängig?). (2.) Ermitteln Sie die Größe Ihrer Workloads, um die geeignete Instance-Größe zu bestimmen. Für das Messen der Leistung der gesamten Anwendung gibt es keinen Ersatz, da die Anwendungsleistung von der zugrunde liegenden Infrastruktur oder durch Software- und Architektureinschränkungen beeinträchtigt werden kann. Wir empfehlen Tests auf Anwendungsebene, einschließlich der Nutzung von Tools und Services für Auslastungstests und die Erstellung von Anwendungsprofilen. Wenn Sie weitere Informationen benötigen, öffnen Sie einen Support-Fall und fragen Sie nach zusätzlichen Spezifikationen zur Netzwerkleistung für die spezifischen Instance-Typen, an denen Sie interessiert sind.