Amazon-EC2-Instance-Typen
Amazon EC2 bietet eine große Auswahl von Instance-Typen, die für unterschiedliche Anwendungsfälle optimiert sind. Instance-Typen unterstützen verschiedene Kombinationen von CPU, Arbeitsspeicher, Speicher und Netzwerkkapazität. So können Sie flexibel die ideale Ressourcenzusammenstellung für Ihre Anwendungen auswählen. Jeden Instance-Typ gibt es in einer oder mehreren Größen, sodass Sie Ihre Ressourcen an die entsprechenden Zielvorgaben anpassen können.
Allgemeine Zwecke
Allzweck-Instances bieten ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkressourcen und können für eine Vielzahl unterschiedlicher Workloads verwendet werden. Diese Instances eignen sich ideal für Anwendungen, die diese Ressourcen zu gleichen Teilen nutzen, z. B. Webserver und Code-Repositorys.
-
M8g
-
M7g
-
M7i
-
M7i-flex
-
M7a
-
Mac
-
M6g
-
M6i
-
M6in
-
M6a
-
M5
-
M5n
-
M5zn
-
M5a
-
M4
-
T4g
-
T3
-
T3a
-
T2
-
M8g
-
Amazon-EC2-M8g-Instances werden von AWS-Graviton4-Prozessoren betrieben. Sie bieten das beste Preis-Leistungs-Verhältnis in Amazon EC2 für allgemeine Workloads.
Features:
- Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
- Größere Instance-Größen mit bis zu 3x mehr vCPUs und Speicher als M7g-Instances
- Verfügt über den neuesten DDR5-5600-Speicher
- Standardmäßig für Amazon EBS optimiert
- Unterstützt Elastic Fabric Adapter (EFA) in m8g.24xlarge, m8g.48xlarge, m8g.metal-24xl und m8g.metal-48xl
- Angetrieben durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und leichtem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s) Amazon-EBS-Bandbreite (Gbit/s) m8g.medium
1
4
Nur EBS
Bis zu 12,5
Bis zu 10
m8g.large
2
8
Nur EBS
Bis zu 12,5
Bis zu 10
m8g.xlarge
4
16
Nur EBS
Bis zu 12,5
Bis zu 10
m8g.2xlarge
8
32
Nur EBS
Bis zu 15
Bis zu 10
m8g.4xlarge
16
64
Nur EBS
Bis zu 15
Bis zu 10
m8g.8xlarge
32
128
Nur EBS
15
10
m8g.12xlarge
48
192
Nur EBS
22,5
15
m8g.16xlarge
64
256
Nur EBS
30
20
m8g.24xlarge
96
384
Nur EBS
40
30
m8g.48xlarge
192
768
Nur EBS
50
40
m8g.metal-24xl
96
384
Nur EBS
40
30
m8g.metal-48xl
192
768
Nur EBS
50
40
Alle Instances haben die folgenden Spezifikationen:
- Speziell angefertigter AWS-Graviton4-Prozessor
- Optimiert für Amazon EBS
- Verbessertes Netzwerk†
Anwendungsfälle
Auf Open-Source-Software basierende Anwendungen wie Anwendungsserver, Microservices, Spiele-Server, mittelgroße Datenspeicher und Caching-Flotten.
-
M7g
-
Amazon-EC2-M7g-Instances werden von Arm-basierten AWS-Graviton3-Prozessoren betrieben. Sie sind ideal für allgemeine Anwendungen.
Features:
- Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
- Verfügt über den neuesten DDR5-Speicher, der im Vergleich zu DDR4 50% mehr Bandbreite bietet
- 20 % höhere Netzwerkbandbreite im Vergleich zu M6g-Instances
- Standardmäßig für EBS optimiert
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den M7gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
- Unterstützt Elastic Fabric Adapter (EFA) auf m7g.16xlarge-, m7g.metal-, m7gd.16xlarge- und m7gd.metal
- Basierend auf AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) m7g.medium
1
4
Nur EBS
Bis zu 12,5
Bis zu 10
m7g.large
2
8
Nur EBS
Bis zu 12,5
Bis zu 10
m7g.xlarge
4
16
Nur EBS
Bis zu 12,5
Bis zu 10
m7g.2xlarge
8
32
Nur EBS
Bis zu 15
Bis zu 10
m7g.4xlarge
16
64
Nur EBS
Bis zu 15
Bis zu 10
m7g.8xlarge
32
128
Nur EBS
15
10
m7g.12xlarge
48
192
Nur EBS
22,5
15
m7g.16xlarge
64
256
Nur EBS
30
20
m7g.metal
64
256
Nur EBS
30
20
m7gd.medium
1
4
1 x 59 NVMe-SSD
Bis zu 12,5
Bis zu 10
m7gd.large
2
8
1 x 118 NVMe-SSD
Bis zu 12,5
Bis zu 10
m7gd.xlarge
4
16
1 x 237 NVMe-SSD
Bis zu 12,5
Bis zu 10
m7gd.2xlarge
8
32
1 x 474 NVMe-SSD
Bis zu 15
Bis zu 10
m7gd.4xlarge
16
64
1 x 950 NVMe-SSD
Bis zu 15
Bis zu 10
m7gd.8xlarge
32
128
1 x 1 900 NVMe-SSD
15
10
m7gd.12xlarge
48
192
2 x 1 425 NVMe-SSD
22,5
15
m7gd.16xlarge
64
256
2 x 1 900 NVMe-SSD
30
20
m7gd.metal
64
256
2 x 1 900 NVMe-SSD
30
20
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton3-Prozessor mit 64-Bit-Arm-Kernen
- Für EBS optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Anwendungen, die auf Open-Source-Software basieren, z. B. Anwendungsserver, Microservices, Spieleserver, mittelgroße Datenspeicher und Caching-Flotten.
-
M7i
-
Amazon-EC2-M7i-Instances werden von Intel Xeon-Scalable-Prozessoren der 4. Generation angetrieben und bieten eine 15 % bessere Preisleistung als M6i-Instances.
Features:
- Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
- 2 Metal-Größen: m7i.metal-24xl und m7i.metal-48xl
- Separate integrierte Beschleuniger (nur für M7i-Bare-Metal-Größen verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Auslagerung und Beschleunigung von Datenoperationen, die die Leistung von Datenbanken, Verschlüsselungs- und Komprimierungs- sowie Warteschlangenmanagement-Workloads optimieren
- Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
- Bis zu 192 vCPUs und 768 GiB Arbeitsspeicher
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) m7i.large
2
8
Nur EBS
Bis zu 12,5
Bis zu 10
m7i.xlarge
4
16
Nur EBS
Bis zu 12,5
Bis zu 10
m7i.2xlarge
8
32
Nur EBS
Bis zu 12,5
Bis zu 10
m7i.4xlarge
16
64
Nur EBS
Bis zu 12,5
Bis zu 10
m7i.8xlarge
32
128
Nur EBS
12,5
10
m7i.12xlarge
48
192
Nur EBS
18,75
15
m7i.16xlarge
64
256
Nur EBS
25
20
m7i.24xlarge
96
384
Nur EBS
37,5
30
m7i.48xlarge
192
768
Nur EBS
50
40
m7i.metal-24xl
96
384
Nur EBS
37,5
30
m7i.metal-48xl
192
768
Nur EBS
50
40
Anwendungsfälle
M7i-Instances eignen sich ideal für allgemeine Workloads, insbesondere solche, die größere Abmessungen oder eine hohe kontinuierliche CPU-Auslastung erfordern, einschließlich großer Anwendungsserver, großer Datenbanken, Gaming-Server, CPU-gestütztes Machine Learning und Videostreaming. -
M7i-flex
-
M7i-flex-Instances von Amazon EC2 werden von skalierbaren Intel-Xeon-Prozessoren der 4. Generation angetrieben und bieten ein um 19 % besseres Preis-Leistungs-Verhältnis als M6i-Instances.
Features:
- Der einfachste Weg für Sie, für einen Großteil Ihrer allgemeinen Workloads Preis-Leistungs- und Kostenvorteile in der Cloud zu erzielen
- Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
- Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
- Standardmäßig für EBS optimiert
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) m7i-flex.large
2
8
Nur EBS
Bis zu 12,5
Bis zu 10
m7i-flex.xlarge
4
16
Nur EBS
Bis zu 12,5
Bis zu 10
m7i-flex.2xlarge
8
32
Nur EBS
Bis zu 12,5
Bis zu 10
m7i-flex.4xlarge
16
64
Nur EBS
Bis zu 12,5
Bis zu 10
m7i-flex.8xlarge
32
128
Nur EBS
Bis zu 12,5
Bis zu 10
Anwendungsfälle
M7i-flex-Instances sind eine hervorragende erste Wahl für die nahtlose Ausführung einer Vielzahl von Allzweck-Workloads, einschließlich Web- und Anwendungsservern, virtuellen Desktops, Batch-Verarbeitung, Microservices, Datenbanken und Unternehmensanwendungen. -
M7a
-
Amazon-EC2-M7a-Instances, die von AMD-EPYC-Prozessoren der 4. Generation angetrieben werden, bieten eine bis zu 50 % höhere Leistung im Vergleich zu M6a-Instances.
Features:
- Bis zu 3,7-GHz-AMD-EPYC-Prozessoren der 4. Generation (AMD EPYC 9R14)
- Bis zu 50 Gbit/s Netzwerkbandbreite
- Bis zu 40 Gbit/s Bandbreite zu Amazon Elastic Block Store (Amazon EBS)
- Instance-Größe mit bis zu 192 vCPUs und 768 GB Arbeitsspeicher
- SAP-zertifizierte Instances
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
- Unterstützung für permanente Speicherverschlüsselung mit AMD Secure Memory Encryption (SME)
- Unterstützung für neue Prozessorfunktionen wie AVX3-512, VNNI und bfloat16.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) m7a.medium
1
4
Nur EBS
Bis zu 12,5
Bis zu 10
m7a.large
2
8
Nur EBS
Bis zu 12,5
Bis zu 10
m7a.xlarge
4
16
Nur EBS
Bis zu 12,5
Bis zu 10
m7a.2xlarge
8
32
Nur EBS
Bis zu 12,5
Bis zu 10
m7a.4xlarge
16
64
Nur EBS
Bis zu 12,5
Bis zu 10
m7a.8xlarge
32
128
Nur EBS
12,5
10
m7a.12xlarge
48
192
Nur EBS
18,75
15
m7a.16xlarge
64
256
Nur EBS
25
20
m7a.24xlarge
96
384
Nur EBS
37,5
30
m7a.32xlarge
128
512
Nur EBS
50
40
m7a.48xlarge
192
768
Nur EBS
50
40
m7a.metal-48xl
192
768
Nur EBS
50
40
Anwendungsfälle
Anwendungen, die von hoher Leistung und hohem Durchsatz profitieren, wie Finanzanwendungen, Anwendungsserver, Simulationsmodellierung, Spiele, mittelgroße Datenspeicher, Umgebungen für die Anwendungsentwicklung und Caching-Flotten.
-
Mac
-
Amazon-EC2-Mac-Instances ermöglichen Ihnen die bedarfsgerechte Ausführung von macOS-Workloads in der Cloud und machen die Flexibilität, Skalierbarkeit und Kostenvorteile von AWS für alle Apple-Entwickler zugänglich. Mithilfe von EC2-Mac-Instances können Sie Apps für iPhone, iPad, Mac, Vision Pro, Apple Watch, Apple TV und Safari erstellen. Diese Instances geben Entwicklern Zugriff auf macOS, damit sie Anwendungen entwickeln, erstellen, testen und signieren können, die die Xcode IDE benötigen. EC2-Mac-Instances sind dedizierte Bare-Metal-Instances, auf die in der EC2-Konsole und über die AWS-Befehlszeilenschnittstelle als Dedicated Hosts zugegriffen werden kann.
x86-basierte EC2-Mac-Instances werden von einer Kombination aus Mac-Mini-Computern angetrieben – mit:
- Intels Core i7-Prozessoren der 8. Generation mit 3,2 GHz (4,6 GHz Turbo)
- 6 physische und 12 logische Kerne
- 32 GiB Speicher
- Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) mac1.metal 12 32 Nur EBS 10 8 EC2-M1-Mac-Instances werden von einer Kombination aus Apple-Silizium-Mac-Mini-Computern angetrieben – mit:
- Apple M1-Chip mit 8 CPU-Kernen
- 8 GPU-Kerne
- 16 GiB Speicher
- Apple Neural Engine mit 16 Kernen
- Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) mac2.metal 8 16 Nur EBS 10 8 Instances von EC2 M1 Ultra Mac werden von einer Kombination aus Computern von Apple Silicon Mac Studio angetrieben – mit:
- Apple-M1-Ultra-Chip mit 20 CPU-Kernen
- 64 GPU-Kernen
- 128 GiB Speicher
- Apple Neural Engine mit 32 Kernen
- Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) mac2-m1ultra.metal 20 128 Nur EBS 10 8 EC2 M2 Mac-Instances werden von einer Kombination aus Apple Silicon Mac Mini-Computern angetrieben – mit:
- Apple M2-Chip mit 8 CPU-Kernen
- 10 GPU-Kerne
- 24 GiB Arbeitsspeicher
- Apple Neural Engine mit 16 Kernen
- Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) mac2-m2.metal 8 24 Nur EBS 10 8 EC2 M2 Pro Mac-Instances werden von einer Kombination von Apple-Silicon-Mac-Minicomputern mit folgenden Funktionen betrieben:
- Apple M2 Pro-Chip mit 12 CPU-Kernen
- 19 GPU-Kerne
- 32 GiB Speicher
- Apple Neural Engine mit 16 Kernen
- Der Instance-Speicher ist über den Amazon Elastic Block Store (EBS) verfügbar
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) mac2-m2pro.metal 12 32 Nur EBS 10 8 Anwendungsfälle
Entwickeln, Erstellen, Testen und Signieren von iOS-, iPadOS-, macOS-, visionOS-, WatchOS- und tvOS-Anwendungen in der Xcode IDE
-
M6g
-
Amazon-EC2-M6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten im Vergleich zu M5-Instanzen der aktuellen Generation ein um bis zu 40 % günstigeres Preis-Leistungs-Verhältnis und bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen für eine breite Palette von Workloads.
Features:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
- Standardmäßig für EBS optimiert
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den M6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s) m6g.medium 1 4 Nur EBS Bis zu 10 Bis zu 4.750 m6g.large 2 8 Nur EBS Bis zu 10 Bis zu 4.750 m6g.xlarge 4 16 Nur EBS Bis zu 10 Bis zu 4.750 m6g.2xlarge 8 32 Nur EBS Bis zu 10 Bis zu 4.750 m6g.4xlarge 16 64 Nur EBS Bis zu 10 4.750 m6g.8xlarge 32 128 Nur EBS 12 9.000 m6g.12xlarge 48 192 Nur EBS 20 13.500 m6g.16xlarge 64 256 Nur EBS 25 19.000 m6g.metal 64 256 Nur EBS 25 19.000 m6gd.medium 1 4 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750 m6gd.large 2 8 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750 m6gd.xlarge 4 16 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750 m6gd.2xlarge 8 32 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750 m6gd.4xlarge 16 64 1 x 950 NVMe-SSD Bis zu 10 4.750 m6gd.8xlarge 32 128 1 x 1.900 NVMe-SSD 12 9.000 m6gd.12xlarge 48 192 2 x 1.425 NVMe-SSD 20 13.500 m6gd.16xlarge 64 256 2 x 1.900 NVMe-SSD 25 19.000 m6gd.metal 64 256 2 x 1.900 NVMe-SSD 25 19.000 Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Anwendungen, die auf Open-Source-Software basieren, z. B. Anwendungsserver, Microservices, Spieleserver, mittelgroße Datenspeicher und Caching-Flotten.
-
M6i
-
Amazon-EC2-M6i-Instances werden mit skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Ice Lake) betrieben. Diese Familie bietet eine ausgewogene Kombination von Computer-, Speicher- und Netzwerkressourcen und ist für viele Anwendungen eine gute Wahl.
Features:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Bis zu 15 % bessere Rechenpreisleistung gegenüber M5-Instances
- Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu M5-Instances
- Bis zu 50 Gbit/s Netzwerkgeschwindigkeit
- Bis zu 40 Gbit/s Bandbreite zu Amazon Elastic Block Store (EBS)
- Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 512 GiB Arbeitsspeicher
- Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für die neuen Intel Advanced Vector Extensions (AVX 512)-Befehle zur schnelleren Verarbeitung kryptografischer Algorithmen
- Bei M6id Instances sind bis zu 7,6 TB lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M6i-Instance gekoppelt ist
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) m6i.large 2 8 Nur EBS Bis zu 12,5 Bis zu 10 m6i.xlarge 4 16 Nur EBS Bis zu 12,5 Bis zu 10 m6i.2xlarge 8 32 Nur EBS Bis zu 12,5 Bis zu 10 m6i.4xlarge 16 64 Nur EBS Bis zu 12,5 Bis zu 10 m6i.8xlarge 32 128 Nur EBS 12,5 10 m6i.12xlarge 48 192 Nur EBS 18,75 15 m6i.16xlarge 64 256 Nur EBS 25 20 m6i.24xlarge 96 384 Nur EBS 37,5 30 m6i.32xlarge 128 512 Nur EBS 50 40 m6i.metal 128 512 Nur EBS 50 40 m6id.large 2 8 1 x 118 NVMe SSD Bis zu 12,5 Bis zu 10 m6id.xlarge 4 16 1 x 237 NVMe SSD Bis zu 12,5 Bis zu 10 m6id.2xlarge 8 32 1 x 474 NVMe SSD Bis zu 12,5 Bis zu 10 m6id.4xlarge 16 64 1x950 NVMe SSD Bis zu 12,5 Bis zu 10 m6id.8xlarge 32 128 1 x 1900 NVMe SSD 12,5 10 m6id.12xlarge 48 192 2 x 1425 NVMe SSD 18,75 15 m6id.16xlarge 64 256 2x1900 NVMe SSD 25 20 m6id.24xlarge 96 384 4 x 1425 NVMe SSD 37,5 30 m6id.32xlarge 128 512 4 x 1900 NVMe SSD 50 40 m6id.metal 128 512 4 x 1900 NVMe SSD 50 40 Anwendungsfälle
Diese Instances sind SAP-zertifiziert und eignen sich ideal für Workloads wie Backend-Server, die Unternehmensanwendungen unterstützen (z. B. Datenbanken von Microsoft Exchange, SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server und PostgreSQL), Spiele-Server, Caching-Flotten sowie für Anwendungs-Entwicklungsumgebungen.
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
-
M6in
-
Amazon-EC2-M6in- und M6idn-Instances sind ideal für netzwerkintensive Workloads wie Backend-Server, Enterprise-Server, Gaming-Server und Flotten-Anwendungen für Caching. Angetrieben von Intel-Xeon-Scalable-Prozessoren der 3. Generation (Ice Lake) mit einer All-Core-Turbofrequenz von 3,5 GHz bieten sie eine Netzwerkbandbreite von bis zu 200 Gbit/s und eine Amazon EBS-Bandbreite von bis zu 80 Gbit/s.
Features:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu M5n und M5dn-Instances
- Bis zu 200 Gbit/s Netzwerkgeschwindigkeit, das ist bis zu zweimal schneller als bei M5n- und M5dn-Instances
- Bis zu 100 Gbit/s EBS-Bandbreite, das ist bis zu 5,2 Mal mehr als bei M5n- und M5dn-Instances
- EFA-Unterstützung für die Größen 32xlarge und metal
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
- Mit M6idn Instances sind bis zu 7,6 TB lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M6idn-Instance gekoppelt ist
- Angetrieben vom AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) m6in.large 2 8 Nur EBS
Bis zu 25 Bis zu 25 m6in.xlarge 4 16 Nur EBS Bis zu 30 Bis zu 25 m6in.2xlarge 8 32 Nur EBS Bis zu 40 Bis zu 25 m6in.4xlarge 16 64 Nur EBS Bis zu 50 Bis zu 25 m6in.8xlarge 32 128 Nur EBS 50 25 m6in.12xlarge 48 192 Nur EBS 75 37,5 m6in.16xlarge 64 256 Nur EBS 100 50 m6in.24xlarge 96 384 Nur EBS 150 75 m6in.32xlarge 128 512 Nur EBS 200**** 100 m6in.metal 128 512 Nur EBS 200**** 100 m6idn.large 2 8 1x118-NVMe-SSD
Bis zu 25 Bis zu 25 m6idn.xlarge 4 16 1x237-NVMe-SSD Bis zu 30 Bis zu 25 m6idn.2xlarge 8 32 1x474-NVMe-SSD Bis zu 40 Bis zu 25 m6idn.4xlarge 16 64 1x950-NVMe-SSD
Bis zu 50 Bis zu 25 m6idn.8xlarge 32 128 1x1900-NVMe-SSD
50 25 m6idn.12xlarge 48 192 2x1425-NVMe-SSD 75 37,5 m6idn.16xlarge 64 256 2x1900-NVMe-SSD 100 50 m6idn.24xlarge 96 384 4x1425-NVMe-SSD 150 75 m6idn.32xlarge 128 512 4x1900-NVMe-SSD 200**** 100 m6idn.metal 128 512 4x1900-NVMe-SSD 200**** 100 ****Für die Größen 32xlarge und Metal sind in der Instance mindestens zwei elastische Netzwerkschnittstellen erforderlich, die jeweils mit einer anderen Netzwerkkarte verbunden sind, um einen Durchsatz von 200 Gbit/s zu erreichen. Jede Netzwerkschnittstelle, die an eine Netzwerkkarte angeschlossen ist, kann maximal 170 Gbit/s erreichen. Weitere Informationen finden Sie unter Netzwerkkarten
Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz
- Für EBS optimiert
- Ereitertes Netztwerk†
Anwendungsfälle:
Diese Instances sind SAP-zertifiziert und ideal für Workloads, die einen hohen Netzwerkdurchsatz benötigen. Zu den Workloads gehören hochleistungsfähige Dateisysteme, verteilte Memory-Caches zur Web-Abskalierung, Flotten-Caching, Big-Data-Analysen in Echtzeit, Telekommunikationsanwendungen wie 5G User Plane Function (UPF), sowie Umgebungen zur Anwendungsentwicklung.
-
M6a
-
Amazon-EC2-M6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind ideal für allgemeine Workloads geeignet.
Features:
- Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
- Bis zu 35 % bessere Rechenpreisleistung gegenüber M5a-Instances
- Bis zu 50 Gbit/s Netzwerkdurchsatz
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Instance-Größe mit bis zu 192 vCPUs und 768 GiB Speicher
- SAP-zertifizierte Instances
- Unterstützt Elastic Fabric Adapter in der 48xlarge-Größe
- Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)
- Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) m6a.large 2 8 Nur EBS Bis zu 12,5 Bis zu 10 m6a.xlarge 4 16 Nur EBS Bis zu 12,5 Bis zu 10 m6a.2xlarge 8 32 Nur EBS Bis zu 12,5 Bis zu 10 m6a.4xlarge 16 64 Nur EBS Bis zu 12,5 Bis zu 10 m6a.8xlarge 32 128 Nur EBS 12,5 10 m6a.12xlarge 48 192 Nur EBS 18,75 15 m6a.16xlarge 64 256 Nur EBS 25 20 m6a.24xlarge 96 384 Nur EBS 37,5 30 m6a.32xlarge 128 512 Nur EBS 50 40 m6a.48xlarge 192 768 Nur EBS 50 40 m6a.metal 192 768 Nur EBS 50 40 Alle Instances haben die folgenden Spezifikationen:
- AMD-EPYC- Prozessoren der 3. Generation mit bis zu 3,6 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Diese Instances sind SAP-zertifiziert und eignen sich ideal für Workloads wie Backend-Server zur Unterstützung von Unternehmensanwendungen (z. B. Microsoft Exchange und SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server und PostgreSQL-Datenbanken), Multiplayer-Gaming-Server, Caching-Flotten sowie für Anwendungsentwicklungsumgebungen.
- Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
-
M5
-
Amazon-EC2-M5-Instances sind die neueste Generation von Allzweck-Instances, die von Intel Xeon®-Platinum-8175M- oder 8259CL-Prozessoren angetrieben werden. Diese Instances bieten ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen und eignen sich für zahlreiche Anwendungen.
Features:
- Bis zu 3,1 GHz Intel Xeon Scalable Prozessor (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
- Neue größere Instance-Größe, m5.24xlarge, mit 96 vCPUs und 384 GiB Speicher
- Bis zu 25 Gbit/s Netzwerkbandbreite über Enhanced Networking
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Bei M5d Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
- Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
Instance-Größe
vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher
(GB)Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Mbit/s) m5.large 2 8 Nur EBS Bis zu 10 Bis zu 4.750 m5.xlarge 4 16 Nur EBS Bis zu 10 bis zu 4.750 m5.2xlarge 8 32 Nur EBS Bis zu 10 bis zu 4.750 m5.4xlarge 16 64 Nur EBS Bis zu 10 4 750 m5.8xlarge 32 128 Nur EBS 10 6.800 m5.12xlarge 48 192 Nur EBS 12 9 500 m5.16xlarge 64 256 Nur EBS 20 13.600 m5.24xlarge 96 384 Nur EBS 25 19.000 m5.metal 96* 384 Nur EBS 25 19.000 m5d.large 2 8 1 x 75 NVMe-SSD Bis zu 10 Bis zu 4.750 m5d.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 10 Bis zu 4.750 m5d.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 10 Bis zu 4.750 m5d.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 10 4 750 m5d.8xlarge 32 128 2 x 600 NVMe-SSD 10 6.800 m5d.12xlarge 48 192 2 x 900 NVMe-SSD 12 9 500 m5d.16xlarge 64 256 4 x 600 NVMe-SSD 20 13.600 m5d.24xlarge 96 384 4 x 900 NVMe-SSD 25 19.000 m5d.metal 96* 384 4 x 900 NVMe-SSD 25 19.000 * m5.metal und m5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets
Alle Instances haben die folgenden Spezifikationen:
- Intel Xeon Platinum-Prozessor mit bis zu 3,1 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Backend-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.
-
M5n
-
Amazon-EC2-M5-Instances sind für Workloads ideal, die ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkleistung einschließlich Web- und Anwendungsservern, kleinen und mittleren Datenbankgrößen, Cluster Computing, Gaming-Servern und Cache-Flotten erfordern. Die Instance-Varianten mit größerer Bandbreite M5n und M5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.
Feature:- Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
- Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
- 25 Gbit/s Spitzenbandbreite auf kleineren Instance-Größen
- 100 Gbit/s Netzwerkbandbreite auf den größten Instance-Größen
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Bei M5dn-Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
Instance-Größe
vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher
(GB)Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Mbit/s) m5n.large 2 8 Nur EBS Bis zu 25 Bis zu 4.750 m5n.xlarge 4 16 Nur EBS Bis zu 25 bis zu 4.750 m5n.2xlarge 8 32 Nur EBS Bis zu 25 Bis zu 4.750 m5n.4xlarge 16 64 Nur EBS Bis zu 25 4 750 m5n.8xlarge 32 128 Nur EBS 25 6.800
m5n.12xlarge 48 192 Nur EBS 50 9 500 m5n.16xlarge 64 256 Nur EBS 75 13.600 m5n.24xlarge 96 384 Nur EBS 100 19.000 m5n.metal 96* 384 Nur EBS 100 19.000 m5dn.large 2 8 1 x 75 NVMe-SSD Bis zu 25 Bis zu 4.750 m5dn.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 25 Bis zu 4.750 m5dn.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 25 Bis zu 4.750 m5dn.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 25 4 750 m5dn.8xlarge 32 128 2 x 600 NVMe-SSD 25 6.800 m5dn.12xlarge 48 192 2 x 900 NVMe-SSD 50 9 500 m5dn.16xlarge 64 256 4 x 600 NVMe-SSD 75 13.600 m5dn.24xlarge 96 384 4 x 900 NVMe-SSD 100 19.000 m5dn.metal 96* 384 4 x 900 NVMe-SSD 100 19.000 *m5n.metal und m5dn.metal bieten 96 logische Prozessoren auf 48 physischen Kernen.
Alle Instances haben die folgenden Spezifikationen:
- Kundenspezifische skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake) mit einer konstanten All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbofrequenz von 3,5 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Web- und Anwendungsserver, kleine und mittlere Datenbankgrößen, Cluster Computing, Spieleservern, Cachefarmen und andere Unternehmensanwendungen
-
M5zn
-
Amazon-EC2-M5zn-Instances liefern die schnellsten Intel Xeon Scalable Prozessoren in der Cloud, mit einer Turbofrequenz von bis zu 4,5 GHz für alle Kerne.
Features:
- Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8252C) mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz
- Bis zu 100 Gbit/s Netzwerkbandbreite bei der größten Instance-Größe und Bare-Metal-Variante
- Bis zu 19 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- 12-fache und Metallgrößen von M5zn-Instances nutzen die neueste Generation des Elastic Network Adapters und ermöglichen mit dem Elastic Fabric Adapter eine gleichbleibend niedrige Latenz
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB)
Instance-Speicher
(GB)
Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s) m5zn.large 2 8 Nur EBS Bis zu 25 Bis zu 3 170 m5zn.xlarge 4 16 Nur EBS Bis zu 25 Bis zu 3 170 m5zn.2xlarge 8 32 Nur EBS Bis zu 25 3 170 m5zn.3xlarge 12 48 Nur EBS Bis zu 25 4 750 m5zn.6xlarge 24 96 Nur EBS 50 9 500 m5zn.12xlarge 48 192 Nur EBS 100 19.000 m5zn.metal 48 192 Nur EBS 100 19.000 2 x 300 NVMe-SSD 2 x 300 NVMe-SSD Anwendungsfälle
M5zn-Instanzen eignen sich ideal für Anwendungen, die von einer extrem hohen Single-Thread-Leistung und einem Netzwerk mit hohem Durchsatz und geringer Latenz profitieren, wie z. B. Spiele, High Performance Computing und Simulationsmodellierung für die Automobil-, Luft- und Raumfahrt-, Energie- und Telekommunikationsindustrie.
-
M5a
-
Bei Amazon-EC2-M5a-Instances handelt es sich um Allzweck-Instances der neuesten Generation mit Prozessoren der AMD-EPYC-7000-Serie. M5a-Instances sind um bis zu 10 % günstiger als vergleichbare Instance-Typen. Bei den M5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden. Außerdem wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
Features:
- Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
- Bis zu 20 Gbit/s Netzwerkbandbreite mit Enhanced Networking
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit M5ad-Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M5a-Instance gekoppelt ist
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB)
Instance-Speicher
(GB)
Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s) m5a.large 2 8 Nur EBS Bis zu 10 Bis zu 2.880 m5a.xlarge 4 16 Nur EBS Bis zu 10 Bis zu 2.880 m5a.2xlarge 8 32 Nur EBS Bis zu 10 Bis zu 2.880 m5a.4xlarge 16 64 Nur EBS Bis zu 10 2.880 m5a.8xlarge 32 128 Nur EBS Bis zu 10 4 750 m5a.12xlarge 48 192 Nur EBS 10 6.780 m5a.16xlarge 64 256 Nur EBS 12 9 500 m5a.24xlarge 96 384 Nur EBS 20 13 570 m5ad.large 2 8 1 x 75 NVMe-SSD Bis zu 10 Bis zu 2.880 m5ad.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 10 Bis zu 2.880 m5ad.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 10 Bis zu 2.880 m5ad.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 10 2.880 m5ad.8xlarge 32 128 2 x 600 NVMe-SSD Bis zu 10 4 750 m5ad.12xlarge 48 192 2 x 900 NVMe-SSD 10 6.870 m5ad.16xlarge 64 256 4 x 600 NVMe-SSD 12 9 500 m5ad.24xlarge 96 384 4 x 900 NVMe-SSD 20 13 570 Alle Instances haben die folgenden Spezifikationen:
- Prozessoren der 2.5 GHz AMD EPYC 7000 Serie
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Back-End-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.
- Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
-
M4
-
Die Amazon-EC2-M4-Instances bieten ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen und eignen sich für zahlreiche Anwendungen.
Features:
- Bis zu 2,4 GHz skalierbarer Intel Xeon-Prozessor (Broadwell E5-2686 v4 oder Haswell E5-2676 v3)
- EBS-optimiert standardmäßig ohne zusätzliche Kosten
- Unterstützung für Enhanced Networking
- Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen
Instance vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung*** m4.large 2 8 Nur EBS 450 Mittel m4.xlarge 4 16 Nur EBS 750 Hoch m4.2xlarge 8 32 Nur EBS 1.000 Hoch m4.4xlarge 16 64 Nur EBS 2.000 Hoch m4.10xlarge 40 160 Nur EBS 4.000 10 Gigabit m4.16xlarge 64 256 Nur EBS 10 000 25 Gigabit Alle Instances haben die folgenden Spezifikationen:
- 2.4 GHz Intel Xeon E5-2676 v3** Processor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben mit höherem Arbeitsspeicherbedarf, Caching-Flotten und die Ausführung von Backend-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.
-
T4g
-
Amazon-EC2-T4g-Instances werden von speziell entwickelten Arm-basierten AWS-Graviton2-Prozessoren betrieben und bieten ein bis zu 40 % besseres Preis-Leistungs-Verhältnis als T3-Instances für eine breite Palette von spitzenlastfähigen universellen Workloads.
T4g-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T4g-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu verbessern. T4g-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.
Features:
- Kostenlose Testversion von t4g.small-Instances für bis zu 750 Stunden pro Monat bis zum 31. Dezember 2024. Einzelheiten finden Sie in den häufig gestellten Fragen.
- Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
- Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Standardmäßig für EBS optimiert
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Basisleistung / vCPU CPU-Guthaben verdient / Stunde Spitzenleistung der Netzwerkbandbreite (Gbit/s)*** Spitzenleistung der EBS-Bandbreite (Mbit/s) t4g.nano 2 0,5 5 % 6 Bis zu 5 Bis zu 2 085 t4g.micro 2 1 10 % 12 Bis zu 5 Bis zu 2 085 t4g.small 2 2 20 % 24 Bis zu 5 Bis zu 2 085 t4g.medium 2 4 20 % 24 Bis zu 5 Bis zu 2 085 t4g.large 2 8 30 % 36 Bis zu 5 Bis zu 2 780 t4g.xlarge 4 16 40 % 96 Bis zu 5 Bis zu 2 780 t4g.2xlarge 8 32 40 % 192 Bis zu 5 Bis zu 2 780 Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle:
Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen.
- Kostenlose Testversion von t4g.small-Instances für bis zu 750 Stunden pro Monat bis zum 31. Dezember 2024. Einzelheiten finden Sie in den häufig gestellten Fragen.
-
T3
-
Amazon-EC2-T3-Instances sind die nächste Generation von Instance-Typen mit Spitzenleistung, die für allgemeine Zwecke verwendet werden können, eine CPU-Basisleistung sowie die Möglichkeit bieten, die CPU-Auslastung jederzeit für den Spitzenlastleistungsverkehr so lange wie nötig zu erhöhen. T3-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen.
T3-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu nutzen. T3-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.
Features:
- Bis zu 3,1 GHz skalierbarer Intel Xeon-Prozessor (Skylake 8175M oder Cascade Lake 8259CL)
- Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
- Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- AWS Nitro System und Intel-Xeon-Scalable-Hochfrequenzprozessoren führen zu einer bis zu 30-prozentigen Preis-Leistungs-Verbesserung gegenüber T2-Instances
Instance vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)*** t3.nano 2
6
0,5 Nur EBS Bis zu 5 t3.micro 2
12
1 Nur EBS
Bis zu 5 t3.small 2
24
2 Nur EBS
Bis zu 5 t3.medium 2 24
4 Nur EBS
Bis zu 5 t3.large 2 36
8 Nur EBS Bis zu 5 t3.xlarge 4 96
16 Nur EBS Bis zu 5 t3.2xlarge 8 192
32 Nur EBS Bis zu 5 Alle Instances haben die folgenden Spezifikationen:
- Bis zu 3,1 GHz skalierbarer Intel Xeon-Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle:
Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen
- Bis zu 3,1 GHz skalierbarer Intel Xeon-Prozessor (Skylake 8175M oder Cascade Lake 8259CL)
-
T3a
-
Amazon-EC2-T3a-Instances sind die nächste Generation von Instance-Typen mit Spitzenleistung, die für allgemeine Zwecke verwendet werden können, eine CPU-Basisleistung sowie die Möglichkeit bieten, die CPU-Auslastung jederzeit für den Spitzenlastleistungsverkehr so lange wie nötig zu erhöhen. T3a-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Arbeitsspeicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen. T3a-Instances sind um bis zu 10 % günstiger als vergleichbare Instance-Typen.
T3a-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3a-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu verbessern. T3a-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.
Features:
- Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
- Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
- Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)*** t3a.nano 2
6
0,5 Nur EBS Bis zu 5 t3a.micro 2
12
1 Nur EBS
Bis zu 5 t3a.small 2
24
2 Nur EBS
Bis zu 5 t3a.medium 2 24
4 Nur EBS
Bis zu 5 t3a.large 2 36
8 Nur EBS Bis zu 5 t3a.xlarge 4 96
16 Nur EBS Bis zu 5 t3a.2xlarge 8 192
32 Nur EBS Bis zu 5 Alle Instances haben die folgenden Spezifikationen:
- Prozessoren der 2.5 GHz AMD EPYC 7000 Serie
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle:
Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen
-
T2
-
Amazon-EC2-T2-Instances sind Instances mit Spitzenlastleistung, die eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.
T2-Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T2 Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.
Die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten werden über CPU-Guthaben verwaltet. T2-Instances erhalten je nach Instance-Größe kontinuierlich CPU-Guthaben mit einer festgelegten Rate, wobei sie CPU-Guthaben sammeln, wenn sie im Leerlauf sind, bzw. Guthaben verbrauchen, wenn sie aktiv sind. T2-Instances eignen sich ideal für eine breite Palette an Verarbeitungslasten für allgemeine Zwecke wie Microservices, interaktive Anwendungen mit geringer Latenz, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungs-, Build- und Stagingumgebungen, Code-Repositorys und Produktprototypen. Weitere Informationen finden Sie unter Instances mit Spitzenlastleistung.
Features:
- Bis zu 3,3 GHz skalierbarer Intel Xeon-Prozessor (Haswell E5 - 2676 v3 oder Broadwell E5-2686 v4)
- Hochfrequenz Intel Xeon Prozessoren
- Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
- Preiswerter Instance-Typ für allgemeine Zwecke mit wahlweise erhältlichem kostenlosem Kontingent*
- Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen
* nur t2.micro Bei einer Konfiguration als T2 Unlimited-Instance fallen möglicherweise Gebühren an, wenn die CPU-Nutzung die Basisleistung der Instance überschreitet. Weitere Informationen finden Sie in der Dokumentation.
Instance vCPU* CPU-Guthaben / Stunde
Arbeitsspeicher (GiB) Speicher
Netzwerkleistung t2.nano 1 3 0,5 Nur EBS Gering t2.micro 1 6 1 Nur EBS
Gering bis mittel t2.small 1 12 2 Nur EBS
Gering bis mittel t2.medium 2 24 4 Nur EBS
Gering bis mittel t2.large 2 36 8 Nur EBS Gering bis mittel t2.xlarge 4 54 16 Nur EBS Mittel t2.2xlarge 8 81 32 Nur EBS Mittel Alle Instances haben die folgenden Spezifikationen:
- Intel AVX†, Intel Turbo†
- t2.nano, t2.micro, t2.small, t2.medium verfügen über einen skalierbaren Intel Xeon Prozessor mit bis zu 3,3 GHz
- t2.large, t2.xlarge und t2.2xlarge verfügen über einen skalierbaren Intel-Prozessor mit bis zu 3,0 GHz
Anwendungsfälle
Websites und Webanwendungen, Entwicklungsumgebungen, Buildserver, Code-Repositorys, Microservices, Test- und Stagingumgebungen sowie Branchenanwendungen.
- Bis zu 3,3 GHz skalierbarer Intel Xeon-Prozessor (Haswell E5 - 2676 v3 oder Broadwell E5-2686 v4)
Jede vCPU auf Graviton-basierten Amazon-EC2-Instances ist ein Kern des AWS-Graviton-Prozessors.
Jede vCPU auf Amazon EC2-Instances, die nicht auf Graviton basieren, ist ein Thread eines x86-basierten Prozessors, mit Ausnahme von M7a-Instances, T2-Instances und m3.medium.
† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in dieses Feature erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.
** Diese M4-Instances können auf einem Intel Xeon E5-2686 v4-Prozessor (Broadwell) gestartet werden.
*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.
Für Datenverarbeitung optimiert
Rechenoptimierte Instances sind ideal für rechnergebundene Anwendungen, die von Hochleistungsprozessoren profitieren. Instances dieser Kategorie eignen sich gut für Workloads der Stapelverarbeitung, Medientranscodierung, Hochleistungs-Webserver, High Performance Computing (HPC), wissenschaftliche Modellierung, dedizierte Spieleserver und Ad-Server-Engines, Machine-Learning-Inferenz und andere rechenintensive Anwendungen.
-
C8g
-
C7g
-
C7gn
-
C7i
-
C7i-flex
-
C7a
-
C6g
-
C6gn
-
C6i
-
C6in
-
C6a
-
C5
-
C5n
-
C5a
-
C4
-
C8g
-
Amazon-EC2-C8g-Instances werden von AWS-Graviton4-Prozessoren betrieben. Sie bieten das beste Preis-Leistungs-Verhältnis in Amazon EC2 für rechenintensive Workloads.
Features:
- Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
- Größere Instance-Größen mit bis zu 3x mehr vCPUs und Speicher als C7g-Instances
- Verfügt über den neuesten DDR5-5600-Speicher
- Standardmäßig für Amazon EBS optimiert
- Unterstützt Elastic Fabric Adapter (EFA) in c8g.24xlarge, c8g.48xlarge, c8g.metal-24xl und c8g.metal-48xl
- Angetrieben durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und leichtem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s) Amazon-EBS-Bandbreite (Gbit/s) c8g.medium
1
2
Nur EBS
Bis zu 12,5
Bis zu 10
c8g.large
2
4
Nur EBS
Bis zu 12,5
Bis zu 10
c8g.xlarge
4
8
Nur EBS
Bis zu 12,5
Bis zu 10
c8g.2xlarge
8
16
Nur EBS
Bis zu 15
Bis zu 10
c8g.4xlarge
16
32
Nur EBS
Bis zu 15
Bis zu 10
c8g.8xlarge
32
64
Nur EBS
15
10
c8g.12xlarge
48
96
Nur EBS
22,5
15
c8g.16xlarge
64
128
Nur EBS
30
20
c8g.24xlarge
96
192
Nur EBS
40
30
c8g.48xlarge
192
384
Nur EBS
50
40
c8g.metal-24xl
96
192
Nur EBS
40
30
c8g.metal-48xl
192
384
Nur EBS
50
40
Alle Instances haben die folgenden Spezifikationen:
- Speziell angefertigter AWS-Graviton4-Prozessor
- Optimiert für Amazon EBS
- Verbessertes Netzwerk†
Anwendungsfälle
High Performance Computing (HPC), Batch-Verarbeitung, Anzeigenbereitstellung, Video-Codierung, Spiele, wissenschaftliche Modellierung, verteilte Analytik und CPU-basierte ML-Inferenz.
-
C7g
-
Amazon-EC2-C7g-Instances werden von Arm-basierten AWS Graviton3-Prozessoren betrieben. Sie sind ideal für rechenintensive Workloads.
Features:
- Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
- Mit dem neuesten DDR5-Speicher ausgestattet, der im Vergleich zu DDR4 50 % mehr Bandbreite bietet
- 20 % höhere Netzwerkbandbreite im Vergleich zu C6g-Instances
- Standardmäßig für EBS optimiert
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den C7gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
- Unterstützt Elastic Fabric Adapter auf c7g.16xlarge-, c7g.metal-, c7gd.16xlarge- nud c7gd.metal-Instances
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) c7g.medium
1
2
Nur EBS
Bis zu 12,5
Bis zu 10
c7g.large
2
4
Nur EBS
Bis zu 12,5
Bis zu 10
c7g.xlarge
4
8
Nur EBS
Bis zu 12,5
Bis zu 10
c7g.2xlarge
8
16
Nur EBS
Bis zu 15
Bis zu 10
c7g.4xlarge
16
32
Nur EBS
Bis zu 15
Bis zu 10
c7g.8xlarge
32
64
Nur EBS
15
10
c7g.12xlarge
48
96
Nur EBS
22,5
15
c7g.16xlarge
64
128
Nur EBS
30
20
c7g.metal 64 128 Nur EBS 30 20 c7gd.medium
1
2
1 x 59 NVMe-SSD
Bis zu 12,5
Bis zu 10
c7gd.large
2
4
1 x 118 NVMe-SSD
Bis zu 12,5
Bis zu 10
c7gd.xlarge
4
8
1 x 237 NVMe-SSD
Bis zu 12,5
Bis zu 10
c7gd.2xlarge
8
16
1 x 474 NVMe-SSD
Bis zu 15
Bis zu 10
c7gd.4xlarge
16
32
1 x 950 NVMe-SSD
Bis zu 15
Bis zu 10
c7gd.8xlarge
32
64
1 x 1 900 NVMe-SSD
15
10
c7gd.12xlarge
48
96
2 x 1 425 NVMe-SSD
22,5
15
c7gd.16xlarge
64
128
2 x 1 900 NVMe-SSD
30
20
c7gd.metal
64
128
2 x 1 900 NVMe-SSD
30
20
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton3-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Verbessertes Networking
Anwendungsfälle
High Performance Computing (HPC), Batch-Verarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analytik und CPU-basierte Machine-Learning-Inferenz.
- Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
-
C7gn
-
Amazon-EC2-C7gn-Instances werden von Arm-basierten AWS-Graviton3E-Prozessoren angetrieben. Sie bieten bis zu 200 Gbit/s Netzwerkbandbreite und eine bis zu dreimal höhere Paketverarbeitungsleistung pro vCPU im Vergleich zu vergleichbaren x86-basierten netzwerkoptimierten Instances der aktuellen Generation.
Funktionen:
- Angetrieben von speziell entwickelten AWS-Graviton3E-Prozessoren
- Ausgestattet mit dem neuesten Double Data Rate 5 (DDR5)-Speicher, der im Vergleich zu DDR4 eine um 50 % höhere Bandbreite bereitstellt
- Bis zu 200 GBit/s Netwerkbandbreite
- Bis zu 40 GBit/s Bandbreite zu Amazon Elastic Block Store (EBS)
- Zweifach erhöhte Netzwerkbandbreite im Vergleich zu C6gn-Instances
- Standardmäßig für EBS optimiert
- Unterstützt Elastic Fabric Adapter (EFA) in c7gn.16xlarge- und c7gn.metal-Instances
- Unterstützt durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) c7gn.medium
1
2
Nur EBS
Bis zu 25
Bis zu 10
c7gn.large
2
4
Nur EBS
Bis zu 30
Bis zu 10
c7gn.xlarge
4
8
Nur EBS
Bis zu 40
Bis zu 10
c7gn.2xlarge
8
16
Nur EBS
Bis zu 50
Bis zu 10
c7gn.4xlarge
16
32
Nur EBS
50
Bis zu 10
c7gn.8xlarge
32
64
Nur EBS
100
Bis zu 20
c7gn.12xlarge
48
96
Nur EBS
150
Bis zu 30
c7gn.16xlarge
64
128
Nur EBS
200
Bis zu 40
c7gn.metal
64
128
Nur EBS
200
Bis zu 40
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton3-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Verbessertes Networking
Anwendungsfälle
Netzwerkintensive Workloads, wie z. B. virtuelle Netzwerkanwendungen, Datenanalyse und CPU-basierte künstliche Intelligenz und Machine Learning (AI/ML)-Inferenz - Angetrieben von speziell entwickelten AWS-Graviton3E-Prozessoren
-
C7i
-
Amazon EC2 C7i-Instances werden von skalierbaren Intel Xeon Prozessoren der 4. Generation betrieben und bieten ein um 15 % besseres Preis-Leistungs-Verhältnis als C6i-Instances.
Features:
- Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
- 2 Metal-Größen: c7i.metal-24xl und c7i.metal-48xl
- Diskrete integrierte Beschleuniger (nur für Bare-Metal-Größen C7i verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Übertragung und Beschleunigung von Datenoperationen, wodurch die Leistung von Datenbanken-, Verschlüsselungs- und Komprimierungs- sowie Warteschlangenmanagement-Workloads optimiert wird
- Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
- Bis zu 192 vCPUs und 384 GiB Arbeitsspeicher
- Unterstützt Elastic Fabric Adapter in den Größen 48xlarge und metal-48xl
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) c7i.large
2
4
Nur EBS
Bis zu 12,5
Bis zu 10
c7i.xlarge
4
8
Nur EBS
Bis zu 12,5
Bis zu 10
c7i.2xlarge
8
16
Nur EBS
Bis zu 12,5
Bis zu 10
c7i.4xlarge
16
32
Nur EBS
Bis zu 12,5
Bis zu 10
c7i.8xlarge
32
64
Nur EBS
12,5
10
c7i.12xlarge
48
96
Nur EBS
18,75
15
c7i.16xlarge
64
128
Nur EBS
25
20
c7i.24xlarge
96
192
Nur EBS
37,5
30
c7i.48xlarge
192
384
Nur EBS
50
40
c7i.metal-24xl
96
192
Nur EBS
37,5
30
c7i.metal-48xl
192
384
Nur EBS
50
40
Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel Xeon Prozessoren der 4. Generation mit bis zu 3,2 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
C7i-Instances eignen sich ideal für rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analysen, High Performance Computing (HPC), Anzeigenbereitstellung, hoch skalierbares Multiplayer-Gaming und Videokodierung.
-
C7i-flex
-
C7i-flex-Instances von Amazon EC2 werden von skalierbaren Intel-Xeon-Prozessoren der 4. Generation angetrieben und bieten ein um 19 % besseres Preis-Leistungs-Verhältnis als C6i-Instances.
Features:
- Der einfachste Weg für Sie, für einen Großteil Ihrer rechenintensiven Workloads Preis-Leistungs- und Kostenvorteile in der Cloud zu erzielen
- Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
- Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
- Standardmäßig für EBS optimiert
- Unterstützt durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) c7i-flex.large
2
4
Nur EBS
Bis zu 12,5
Bis zu 10
c7i-flex.xlarge
4
8
Nur EBS
Bis zu 12,5
Bis zu 10
c7i-flex.2xlarge
8
16
Nur EBS
Bis zu 12,5
Bis zu 10
c7i-flex.4xlarge
16
32
Nur EBS
Bis zu 12,5
Bis zu 10
c7i-flex.8xlarge
32
64
Nur EBS
Bis zu 12,5
Bis zu 10
Anwendungsfälle
C7i-flex Instances sind eine hervorragende erste Wahl, um die meisten rechenintensiven Workloads nahtlos auszuführen, darunter Web- und Anwendungsserver, Datenbanken, Caches, Apache Kafka und Elasticsearch.
-
C7a
-
Amazon EC2 C7a-Instances, die von AMD EPYC-Prozessoren der 4. Generation angetrieben werden, bieten im Vergleich zu C6a-Instances eine um bis zu 50 % höhere Leistung.
Features:- Bis zu 3,7-GHz-AMD-EPYC-Prozessoren der 4. Generation (AMD EPYC 9R14)
- Bis zu 50 Gbit/s Netzwerkbandbreite
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store (Amazon EBS)
- Instance-Größen mit bis zu 192 vCPUs und 384 GiB Arbeitsspeicher
- Basiert auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtem Hypervisor
- Unterstützung für permanente Speicherverschlüsselung mit AMD Secure Memory Encryption (SME)
- Unterstützung für neue Prozessorfunktionen wie AVX-512, VNNI und bfloat16
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) c7a.medium
1
2
Nur EBS
Bis zu 12,5
Bis zu 10
c7a.large
2
4
Nur EBS
Bis zu 12,5
Bis zu 10
c7a.xlarge
4
8
Nur EBS
Bis zu 12,5
Bis zu 10
c7a.2xlarge
8
16
Nur EBS
Bis zu 12,5
Bis zu 10
c7a.4xlarge
16
32
Nur EBS
Bis zu 12,5
Bis zu 10
c7a.8xlarge
32
64
Nur EBS
12,5
10
c7a.12xlarge
48
96
Nur EBS
18,75
15
c7a.16xlarge
64
128
Nur EBS
25
20
c7a.24xlarge
96
192
Nur EBS
37,5
30
c7a.32xlarge
128
256
Nur EBS
50
40
c7a.48xlarge
192
384
Nur EBS
50
40
c7a.metal-48xl
192
384
Nur EBS
50
40
Anwendungsfälle
Rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analytik, High Performance Computing (HPC), Ad Serving, hochskalierbare Multiplayer-Spiele und Videocodierung.
-
C6g
-
Amazon-EC2-C6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei rechenintensiven Anwendungen eine bis zu 40 % bessere Preisleistung als die aktuelle Generation der C5-Instances.
Funktionen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
- Standardmäßig für EBS optimiert
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Mit den C6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s) c6g.medium 1 2 Nur EBS Bis zu 10 Bis zu 4 750 c6g.large 2 4 Nur EBS Bis zu 10 Bis zu 4 750 c6g.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 4 750 c6g.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 4 750 c6g.4xlarge 16 32 Nur EBS Bis zu 10 4.750 c6g.8xlarge 32 64 Nur EBS 12 9.000 c6g.12xlarge 48 96 Nur EBS 20 13.500 c6g.16xlarge 64 128 Nur EBS 25 19.000 c6g.metal 64 128 Nur EBS 25 19.000 c6gd.medium 1 2 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750 c6gd.large 2 4 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750 c6gd.xlarge 4 8 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750 c6gd.2xlarge 8 16 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750 c6gd.4xlarge 16 32 1 x 950 NVMe-SSD Bis zu 10 4.750 c6gd.8xlarge 32 64 1 x 1.900 NVMe-SSD 12 9.000 c6gd.12xlarge 48 96 2 x 1.425 NVMe-SSD 20 13.500 c6gd.16xlarge 64 128 2 x 1.900 NVMe-SSD 25 19.000 c6gd.metal 64 128 2 x 1.900 NVMe-SSD 25 19.000 Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
High Performance Computing (HPC), Batch-Verarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analysen und CPU-basierte Machine Learning-Inferenz.
-
C6gn
-
Amazon-EC2-C6gn-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten eine um bis zu 40 % bessere Preisleistung als C5n-Instances der aktuellen Generation und bieten bis zu 100 Gbit/s Netzwerk und Unterstützung für Elastic Fabric Adapter (EFA) für Anwendungen, die einen höheren Netzwerkdurchsatz benötigen, wie z. B. High Performance Computing (HPC), Netzwerkgeräte, Echtzeit-Videokommunikation und Datenanalyse.
Funktionen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Support für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 100 Gbit/s
- EFA-Support auf c6gn.16xlarge-Instances
- Standardmäßig EBS-optimiert, 2x EBS-Bandbreite im Vergleich zu C5n-Instances
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) c6gn.medium
1
2
Nur EBS
Bis zu 16
Bis zu 9,5
c6gn.large
2
4
Nur EBS
Bis zu 25
Bis zu 9,5
c6gn.xlarge
4
8
Nur EBS
Bis zu 25
Bis zu 9,5
c6gn.2xlarge
8
16
Nur EBS
Bis zu 25
Bis zu 9,5
c6gn.4xlarge
16
32
Nur EBS
Bis zu 25
9,5
c6gn.8xlarge
32
64
Nur EBS
50
19
c6gn.12xlarge
48
96
Nur EBS
75
28,5
c6gn.16xlarge
64
128
Nur EBS
100
38
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Hochleistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung.
-
C6i
-
Amazon-EC2-C6i-Instances werden von Intel-Xeon-Scalable-Prozessoren der 3. Generation angetrieben und sind die ideale Lösung für rechenintensive Workloads.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Bis zu 15 % bessere Rechenpreisleistung gegenüber C5-Instances
- Bis zu 9 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu C5-Instances
- Bis zu 50 GBit/s Netzwerkdurchsatz
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 256 GiB Arbeitsspeicher
- Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
- Bei C6id-Instances sind bis zu 7,6 TB an lokalen NVMe-basierten SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der C6i-Instance gekoppelt ist
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) c6i.large
2
4
Nur EBS
Bis zu 12,5
Bis zu 10
c6i.xlarge
4
8
Nur EBS
Bis zu 12,5
Bis zu 10
c6i.2xlarge
8
16
Nur EBS
Bis zu 12,5
Bis zu 10
c6i.4xlarge
16
32
Nur EBS
Bis zu 12,5
Bis zu 10
c6i.8xlarge
32
64
Nur EBS
12,5
10
c6i.12xlarge
48
96
Nur EBS
18,75
15
c6i.16xlarge
64
128
Nur EBS
25
20
c6i.24xlarge
96
192
Nur EBS
37,5
30
c6i.32xlarge
128
256
Nur EBS
50
40
c6i.metal 128 256 Nur EBS 50 40 c6id.large
2
4
1 x 118 NVMe SSD
Bis zu 12,5
Bis zu 10
c6id.xlarge
4
8
1 x 237 NVMe SSD
Bis zu 12,5
Bis zu 10
c6id.2xlarge
8
16
1 x 474 NVMe SSD
Bis zu 12,5
Bis zu 10
c6id.4xlarge
16
32
1 x 950 NVMe SSD
Bis zu 12,5
Bis zu 10
c6id.8xlarge
32
64
1 x 1900 NVMe SSD
12,5
10
c6id.12xlarge
48
96
2 x 1425 NVMe SSD
18,75
15
c6id.16xlarge
64
128
2x1900 NVMe SSD
25
20
c6id.24xlarge
96
192
4 x 1425 NVMe SSD
37,5
30
c6id.32xlarge
128
256
4 x 1900 NVMe SSD
50
40
c6id.metal 128 256 4 x 1900 NVMe SSD 50 40 Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analytik, High Performance Computing (HPC), Ad Serving, hochskalierbare Multiplayer-Spiele und Videocodierung.
-
C6in
-
Amazon-EC2-C6in-Instances eignen sich hervorragend für netzwerkintensive Workloads wie virtuelle Netzwerk-Appliances, Datenanalytik, High Performance Computing (HPC) und CPU-basierte KI/ML. Sie werden von Intel-Xeon-Scalable-Prozessoren der 3. Generation (Ice Lake) mit einer Turbofrequenz von 3,5 GHz für alle Kerne angetrieben. C6in-Instances bieten bis zu 200 Gbit/s Netzwerkbandbreite und bis zu 80 Gbit/s Amazon-Elastic-Block-Store-Bandbreite (EBS). Die Instances C6in.32xlarge und C6in.metal unterstützenElastic Fabric Adapter (EFA). EFA ist eine Netzwerkschnittstelle für Amazon-EC2-Instances, mit der Sie Anwendungen, die ein hohes Maß an Kommunikation zwischen Knoten erfordern, in größerem Umfang auf AWS ausführen können. Dazu gehören beispielsweise HPC-Anwendungen, die Message-Passing-Interface-Bibliotheken (MPI) verwenden.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 200 Gbit/s, bis zu zweimal mehr als bei C5n-Instances
- Bis zu 100 Gbit/s EBS-Bandbreite, bis zu 5,2-mal mehr als bei C5n-Instances
- EFA-Unterstützung für die Größen 32xlarge und metal
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für die neuen Intel Advanced Vector Extensions (AVX-512)-Befehle zur schnelleren Verarbeitung kryptografischer Algorithmen
- Angetrieben durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) c6in.large
2
4
Nur EBS
Bis zu 25
Bis zu 25
c6in.xlarge
4
8
Nur EBS
Bis zu 30
Bis zu 25
c6in.2xlarge
8
16
Nur EBS
Bis zu 40
Bis zu 25
c6in.4xlarge
16
32
Nur EBS
Bis zu 50
Bis zu 25
c6in.8xlarge
32
64
Nur EBS
50
25
c6in.12xlarge
48
96
Nur EBS
75
37,5
c6in.16xlarge
64
128
Nur EBS
100
50
c6in.24xlarge
96
192
Nur EBS
150
75
c6in.32xlarge 128 256 Nur EBS 200**** 100 c6in.metal 128 256 Nur EBS 200**** 100
****Für die Größen 32xlarge und Metal sind mindestens 2 elastische Netzwerkschnittstellen in der Instance erforderlich, die jeweils mit einer anderen Netzwerkkarte verbunden sind, um einen Durchsatz von 200 Gbit/s zu erreichen. Jede Netzwerkschnittstelle, die an eine Netzwerkkarte angeschlossen ist, kann maximal 170 Gbit/s erreichen. Weitere Informationen finden Sie unter NetzwerkkartenAlle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Rechenintensive Workloads, die eine hohe Netzwerkbandbreite oder eine hohe Paketverarbeitungsleistung erfordern, wie z. B. verteilte Datenverarbeitungsanwendungen, virtuelle Netzwerkanwendungen, Datenanalyse, High Performance Computing (HPC) und CPU-basierte KI/ML.
-
C6a
-
Amazon-C6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind hervorragend für rechenintensive Workloads geeignet.
Funktionen:
- Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
- Bis zu 15 % bessere Rechenpreisleistung gegenüber C5a- Instances
- Bis zu 50 GBit/s Netzwerkdurchsatz
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Bis zu 192 vCPUs und 384 GiB Speicher in der maximalen Größe
- SAP-zertifizierte Instances
- Unterstützt Elastic Fabric Adapter in der 48xlarge-Größe
- Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)
- Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) c6a.large 2 4 Nur EBS Bis zu 12,5 Bis zu 10 c6a.xlarge 4 8 Nur EBS Bis zu 12,5 Bis zu 10 c6a.2xlarge 8 16 Nur EBS Bis zu 12,5 Bis zu 10 c6a.4xlarge 16 32 Nur EBS Bis zu 12,5 Bis zu 10 c6a.8xlarge 32 64 Nur EBS 12,5 10 c6a.12xlarge 48 96 Nur EBS 18,75 15 c6a.16xlarge 64 128 Nur EBS 25 20 c6a.24xlarge 96 192 Nur EBS 37,5 30 c6a.32xlarge 128 256 Nur EBS 50 40 c6a.48xlarge 192 384 Nur EBS 50 40 c6a.metal 192 384 Nur EBS 50 40 Alle Instances haben die folgenden Spezifikationen:
- AMD-EPYC- Prozessoren der 3. Generation mit bis zu 3,6 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Rechenintensive Workloads wie Batch-Verarbeitung, verteilte Analytik, High Performance Computing (HPC), Ad Serving, hochskalierbare Multiplayer-Spiele und Videocodierung.
- Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
-
C5
-
Amazon-EC2-C5-Instances sind für rechenintensive Workloads optimiert und bieten kosteneffiziente hohe Leistung zu einem niedrigen Preis pro Rechenleistung.
Funktionen:
- C5-Instances bieten eine Auswahl an Prozessoren, die auf der Größe der Instance basieren.
- Die Instance-Größen C5 und C5d 12xlarge, 24xlarge und Metal verfügen über benutzerdefinierte skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8275CL) mit einer anhaltenden All-Core-Turbofrequenz von 3,6 GHz und einer Single-Core-Turbofrequenz von bis zu 3,9 GHz.
- Andere C5-Instance-Größen werden auf skalierbaren Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8223CL) oder Intel Xeon Platinum 8000-Prozessoren der 1. Generation (Skylake 8124M) mit einer anhaltenden All-Core-Turbo-Frequenz von bis zu 3,4 GHz und Single-Core-Turbo-Frequenz eingeführt von bis zu 3,5 GHz.
- Neue, größere 24xlarge-Instance-Größe bietet 96 vCPUs, 192 GiB Arbeitsspeicher und optionale 3,6 TB lokale NVMe-basierte SSDs
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Mit den C5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der C5-Instance verknüpft ist
- Elastic Network Adapter (ENA) bietet C5-Instances mit einer Netzwerkbandbreite von bis zu 25 Gbit/ und bis zu 19 Gbit/s dedizierter Bandbreite für Amazon EBS.
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Mbit/s) c5.large 2 4 Nur EBS Bis zu 10 Bis zu 4.750 c5.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 4.750 c5.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 4.750 c5.4xlarge 16 32 Nur EBS Bis zu 10 4.750 c5.9xlarge 36 72 Nur EBS 12 9.500 c5.12xlarge 48 96 Nur EBS 12 9.500 c5.18xlarge 72 144 Nur EBS 25 19.000 c5.24xlarge 96 192 Nur EBS 25 19.000 c5.metal 96 192 Nur EBS 25 19.000 c5d.large 2 4 1 x 50 NVMe-SSD Bis zu 10 bis zu 4.750 c5d.xlarge 4 8 1 x 100 NVMe-SSD Bis zu 10 Bis zu 4.750 c5d.2xlarge 8 16 1 x 200 NVMe-SSD Bis zu 10 Bis zu 4.750 c5d.4xlarge 16 32 1 x 400 NVMe-SSD Bis zu 10 4.750 c5d.9xlarge 36 72 1 x 900 NVMe SSD 12 9.500 c5d.12xlarge 48 96 2 x 900 NVMe-SSD 12 9.500 c5d.18xlarge 72 144 2 x 900 NVMe-SSD 25 19.000 c5d.24xlarge 96 192 4 x 900 NVMe-SSD 25 19.000 c5d.metal 96 192 4 x 900 NVMe-SSD 25 19.000 C5- und C5d-Instances der Größen 12xlarge, 24xlarge und Metal haben die folgenden Spezifikationen:
- Kundenspezifische skalierbare Intel Xeon-Prozessoren der zweiten Generation (Cascade Lake) mit einer konstanten All-Core-Turbofrequenz von 3,6 GHz und einer Single-Core-Turbofrequenz von bis zu 3,9 GHz.
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS-optimiert
- Enhanced Networking†
Alle C5- und C5d-Instances haben die folgenden Spezifikationen:
- Benutzerdefinierte Intel Xeon Scalable-Prozessoren der 2. Generation (Cascade Lake) mit einer dauerhaften Turbofrequenz von 3,6 GHz für alle Kerne und einer Turbofrequenz von bis zu 3,9 GHz für einen Kern oder Intel Xeon Platinum 8000-Prozessoren der 1. Generation (Skylake-SP) mit einer dauerhaften Turbofrequenz von bis zu 3,4 GHz für alle Kerne und einer Turbofrequenz von bis zu 3,5 GHz für einen Kern.
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung
-
C5n
-
Amazon-EC2-C5n-Instances eigenen sich am besten für hochgradig rechenintensive Anwendungen (einschließlich High Performance Computing (HPC)-Workloads, Data Lakes und Netzwerkanwendungen, wie Firewalls und Router), die einen verbesserten Netzwerkdurchsatz und eine bessere Paketrate für Leistung nutzen können. C5n-Instances bieten eine Netzwerkbandbreite von bis zu 100 Gbit/s und mehr Speicher im Vergleich zu C5-Instances. C5n.18xlarge-Instances unterstützen Elastic Fabric Adapter (EFA), eine Netzwerkschnittstelle für Amazon-EC2-Instances, mit der Kunden Anwendungen ausführen können, die eine hohe Kommunikation zwischen Knoten erfordern, z. B. Anwendungen von High Performance Computing (HPC) mit Hilfe von Message Passing Interface (MPI) in großem Maßstab auf AWS.
Funktionen:
- 3,0 GHz Intel Xeon Platinum Prozessoren (Skylake 8124) mit Intel Advanced Vector Extension 512 (AVX-512) Befehlssatz
- Anhaltende All-Core-Turbofrequenz von bis zu 3,4 GHz und Single-Core-Turbofrequenz von bis zu 3,5 GHz
- Die höhere Instance-Größe c5n.18xlarge bietet 72 vCPUs und 192 GiB Arbeitsspeicher
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Die Netzwerkbandbreite erhöht sich um bis zu 100 Gbit/s und liefert so eine bessere Netzwerkleistung für netzwerkintensive Anwendungen.
- EFA-Support auf c5n.18xlarge-Instances
- 33 % höherer Speicherbedarf als C5-Instances
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Mbit/s) c5n.large 2 5.25 Nur EBS Bis zu 25
Bis zu 4.750 c5n.xlarge 4 10.5 Nur EBS Bis zu 25 Bis zu 4.750 c5n.2xlarge 8 21 Nur EBS Bis zu 25 Bis zu 4.750 c5n.4xlarge 16 42 Nur EBS Bis zu 25 4.750 c5n.9xlarge 36 96
Nur EBS 50 9.500 c5n.18xlarge 72 192 Nur EBS 100 19.000 c5n.metal 72 192 Nur EBS 100 19.000 Alle Instances haben die folgenden Spezifikationen:
- 3.0 GHz Intel Xeon Platinum Prozessor
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung
-
C5a
-
Amazon-EC2-C5a-Instances bieten ein führendes x86-Preis-Leistungs-Verhältnis für eine breite Palette rechenintensiver Workloads.
Funktionen:
- Prozessoren der AMD EPYC 7002-Serie der 2. Generation (AMD EPYC 7R32) mit einer Frequenz von bis zu 3,3 GHz
- Elastic Network Adapter (ENA) bietet C5a-Instances bis zu 20 Gbit/s Netzwerkbandbreite und bis zu 9,5 Gbit/s dedizierte Bandbreite für Amazon EBS
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- Mit den C5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der C5a-Instance verknüpft ist.
Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Mbit/s) c5a.large 2 4 Nur EBS Bis zu 10
Bis zu 3 170 c5a.xlarge 4 8 Nur EBS Bis zu 10 Bis zu 3 170 c5a.2xlarge 8 16 Nur EBS Bis zu 10 Bis zu 3 170 c5a.4xlarge 16 32 Nur EBS Bis zu 10 Bis zu 3 170 c5a.8xlarge 32 64
Nur EBS 10 3 170 c5a.12xlarge 48 96 Nur EBS 12 4.750
c5a.16xlarge 64 128 Nur EBS 20 6 300 c5a.24xlarge 96 192 Nur EBS 20 9.500 c5ad.large 2 4 1 x 75 NVMe-SSD Bis zu 10 Bis zu 3 170 c5ad.xlarge 4 8 1 x 150 NVMe-SSD Bis zu 10 Bis zu 3 170 c5ad.2xlarge 8 16 1 x 300 NVMe-SSD Bis zu 10 Bis zu 3 170 c5ad.4xlarge 16 32 2 x 300 NVMe-SSD Bis zu 10 Bis zu 3 170 c5ad.8xlarge 32 64 2 x 600 NVMe-SSD 10 3 170 c5ad.12xlarge 48 96 2 x 900 NVMe-SSD 12 4.750 c5ad.16xlarge 64 128 2 x 1200 NVMe-SSD 20 6 300 c5ad.24xlarge 96 192 2 x 1.900 NVMe-SSD 20 9.500 Alle Instances haben die folgenden Spezifikationen:
- AMD EPYC-Prozessor der 2. Generation mit einer Taktrate von bis zu 3,3 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
C5a-Instances eignen sich hervorragend für Workloads, die eine hohe vCPU-Rechenleistung und Speicherbandbreite erfordern. Dazu gehören Stapelverarbeitungsvorgänge, verteilte Analysen, Datenumwandlungsaufgaben, Gaming, Protokollanalysen, Webanwendungen und andere rechenintensive Workloads.
-
C4
-
C4-Instances sind für rechenintensive Workloads optimiert und liefern Datenverarbeitung auf höchstem Niveau zu einem äußerst günstigen Preis.
Funktionen:
- Bis zu 2,9 GHz skalierbarer Intel Xeon-Prozessor (Haswell E5-2666 v3)
- Hochfrequenz Intel Xeon E5-2666 v3 (Haswell) Prozessoren, die speziell für EC2 optimiert wurden
- Standardmäßig EBS-optimiert für eine höhere Speicherleistung ohne zusätzliche Kosten
- Höhere Netzwerkleistung durch Enhanced Networking mit Intel 82599 VF-Unterstützung
- Erfordert Amazon VPC, Amazon EBS und 64-Bit-HVM-AMIs
Instance vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung c4.large 2 3,75 Nur EBS 500 Mittel c4.xlarge 4 7,5 Nur EBS 750 Hoch c4.2xlarge 8 15 Nur EBS 1.000 Hoch c4.4xlarge 16 30 Nur EBS 2.000 Hoch c4.8xlarge 36 60 Nur EBS 4.000 10 Gigabit Alle Instances haben die folgenden Spezifikationen:
- Bis zu 2,9 GHz skalierbarer Intel Xeon-Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Front-End-Serverfarmen mit hoher Leistung, Webserver, Batch-Verarbeitung, verteilte Analysen, wissenschaftliche und technische Anwendungen mit hoher Leistung, Ad-Serving, MMO-Gaming und Videocodierung.
- Bis zu 2,9 GHz skalierbarer Intel Xeon-Prozessor (Haswell E5-2666 v3)
Jede vCPU auf Graviton-basierten Amazon-EC2-Instances ist ein Kern des AWS-Graviton-Prozessors.
Jede vCPU auf Amazon EC2-Instances, die nicht auf Graviton basieren, ist ein Thread eines x86-basierten Prozessors, mit Ausnahme von C7a-Instances.
† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.
*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.
Arbeitsspeicheroptimiert
Arbeitsspeicheroptimierte Instances bieten eine schnelle Leistung für Workloads, die große Datenmengen im Speicher verarbeiten.
-
R8g
-
R7g
-
R7i
-
R7iz
-
R7a
-
R6g
-
R6i
-
R6in
-
R6a
-
R5
-
R5n
-
R5b
-
R5a
-
R4
-
U7i
-
Hoher Arbeitsspeicher (U-1)
-
X8g
-
X2gd
-
X2idn
-
X2iedn
-
X2iezn
-
X1
-
X1e
-
z1d
-
R8g
-
Amazon-EC2-R8g-Instances werden von AWS-Graviton4-Prozessoren betrieben. Sie bieten das beste Preis-Leistungs-Verhältnis in Amazon EC2 für speicherintensive Workloads.
Features:
- Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
- Größere Instance-Größen mit bis zu 3x mehr vCPUs und Speicher als R7g-Instances
- Mit dem neuesten DDR5-5600-Speicher
- Standardmäßig für Amazon EBS optimiert
- Unterstützt Elastic Fabric Adapter (EFA) in r8g.24xlarge, r8g.48xlarge, r8g.metal-24xl und r8g.metal-48xl
- Unterstützt von AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (GBit/s) EBS-Bandbreite (GBit/s) r8g.medium
1
8
Nur EBS
Bis zu 12,5
Bis zu 10
r8g.large
2
16
Nur EBS
Bis zu 12,5
Bis zu 10
r8g.xlarge
4
32
Nur EBS
Bis zu 12,5
Bis zu 10
r8g.2xlarge
8
64
Nur EBS
Bis zu 15
Bis zu 10
r8g.4xlarge
16
128
Nur EBS
Bis zu 15
Bis zu 10
r8g.8xlarge
32
256
Nur EBS
15
10
r8g.12xlarge
48
384
Nur EBS
22,5
15
r8g.16xlarge
64
512
Nur EBS
30
20
r8g.24xlarge
96
768
Nur EBS
40
30
r8g.48xlarge
192
1 536
Nur EBS
50
40
r8g.metal-24xl
96
768
Nur EBS
40
30
r8g.metal-48xl
192
1 536
Nur EBS
50
40
Alle Instances haben die folgenden Spezifikationen:
- Speziell angefertigter AWS-Graviton4-Prozessor
- Optimiert für Amazon EBS
- Verbessertes Netzwerk†
Anwendungsfälle
Arbeitsspeicherintensive Workloads wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analytik in Echtzeit.
-
R7g
-
Amazon-EC2-R7g-Instances werden von AWS-Graviton3-Prozessoren angetrieben. Sie sind ideal für arbeitssspeicherintensive Workloads.
Features:
- Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
- Verfügt über DDR5-Speicher, der im Vergleich zu DDR4 50 % mehr Bandbreite bietet
- 20 % höhere Netzwerkbandbreite im Vergleich zu R6g-Instances
- Standardmäßig für EBS optimiert
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R7gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist
- Unterstützt Elastic Fabric Adapter (EFA) auf r7g.16xlarge-, r7g.metal-, r7gd.16xlarge- und r7gd.metal-Instances
- Basierend auf AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (GBit/s) r7g.medium
1
8
Nur EBS
Bis zu 12,5
Bis zu 10
r7g.large
2
16
Nur EBS
Bis zu 12,5
Bis zu 10
r7g.xlarge
4
32
Nur EBS
Bis zu 12,5
Bis zu 10
r7g.2xlarge
8
64
Nur EBS
Bis zu 15
Bis zu 10
r7g.4xlarge
16
128
Nur EBS
Bis zu 15
Bis zu 10
r7g.8xlarge
32
256
Nur EBS
15
10
r7g.12xlarge
48
384
Nur EBS
22,5
15
r7g.16xlarge
64
512
Nur EBS
30
20
r7g.metal
64
512
Nur EBS
30
20
r7gd.medium
1
8
1 x 59 NVMe-SSD
Bis zu 12,5
Bis zu 10
r7gd.large
2
16
1 x 118 NVMe-SSD
Bis zu 12,5
Bis zu 10
r7gd.xlarge
4
32
1 x 237 NVMe-SSD
Bis zu 12,5
Bis zu 10
r7gd.2xlarge
8
64
1 x 474 NVMe-SSD
Bis zu 15
Bis zu 10
r7gd.4xlarge
16
128
1 x 950 NVMe-SSD
Bis zu 15
Bis zu 10
r7gd.8xlarge
32
256
1 x 1 900 NVMe-SSD
15
10
r7gd.12xlarge
48
384
2 x 1 425 NVMe-SSD
22,5
15
r7gd.16xlarge
64
512
2 x 1 900 NVMe-SSD
30
20
r7gd.metal
64
512
2 x 1 900 NVMe-SSD
30
20
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton3-Prozessor mit 64-Bit-Arm-Kernen
- Für EBS optimiert
- Ereitertes Netztwerk†
Anwendungsfälle
Arbeitsspeicherintensive Workloads wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analytik in Echtzeit. -
R7i
-
Amazon-EC2-R7i-Instances werden von Intel Xeon-Scalable-Prozessoren der 4. Generation angetrieben und bieten eine 15 % bessere Preisleistung als R6i-Instances.
Features:
- Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
- 2 Metal-Größen: r7i.metal-24xl und r7i.metal-48xl
- Separate integrierte Beschleuniger (nur für R7i-Bare-Metal-Größen verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Auslagerung und Beschleunigung von Datenoperationen, die die Leistung von Datenbanken, Verschlüsselungs- und Komprimierungs- sowie Warteschlangenmanagement-Workloads optimieren
- Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
- Bis zu 192 vCPUs und 1 536 GiB Arbeitsspeicher
- Unterstützt Elastic Fabric Adapter in den Größen 48xlarge und metal-48xl
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) r7i.large
2
16
Nur EBS
Bis zu 12,5
Bis zu 10
r7i.xlarge
4
32
Nur EBS
Bis zu 12,5
Bis zu 10
r7i.2xlarge
8
64
Nur EBS
Bis zu 12,5
Bis zu 10
r7i.4xlarge
16
128
Nur EBS
Bis zu 12,5
Bis zu 10
r7i.8xlarge
32
256
Nur EBS
12,5
10
r7i.12xlarge
48
384
Nur EBS
18,75
15
r7i.16xlarge
64
512
Nur EBS
25
20
r7i.24xlarge
96
768
Nur EBS
37,5
30
r7i.48xlarge
192
1 536
Nur EBS
50
40
r7i.metal-24xl
96
768
Nur EBS
37,5
30
r7i.metal-48xl
192
1 536
Nur EBS
50
40
Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel Xeon Prozessoren der 4. Generation mit bis zu 3,2 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
R7i-Instances sind SAP-zertifiziert und ideal für alle speicherintensiven Workloads (SQL- und NoSQL-Datenbanken), verteilte In-Memory-Caches im Webmaßstab (Memcached und Redis), In-Memory-Datenbanken (SAP HANA) und Big-Data-Analytik in Echtzeit (Apache Hadoop- und Apache Spark-Cluster).
-
R7iz
-
Amazon-EC2-R7iz-Instances werden von Intel-Xeon-Scalable-Prozessoren der 4. Generation angetrieben und sind die ideale Lösung für hohe CPU und arbeitsspeicherintensive Workloads.
Features:
- Skalierbare Intel-Xeon-Prozessoren der 4. Generation (Sapphire Rapids 6455B) mit einer Turbofrequenz von bis zu 3,9 GHz für alle Kerne
- Bis zu 20 % höhere Rechenleistung als z1d-Instances
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen – erhältlich in allen Größen
- Diskrete integrierte Beschleuniger (nur für Bare-Metal-Größen von R7iz verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Übertragung und Beschleunigung von Datenoperationen, die zur Optimierung der Leistung von Datenbanken, Verschlüsselung und Komprimierung sowie Warteschlangenmanagement-Workloads beitragen
- Bis zu 50 Gbit/s Netzwerkgeschwindigkeit
- Bis zu 40 GBit/s Bandbreite zu Amazon Elastic Block Store (EBS)
- Instance-Größe mit bis zu 128 vCPUs und 1 024 GB Speicher
- Unterstützt Elastic Fabric Adapter in den Größen 32xlarge und metal-32xl
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) r7iz.large
2
16
Nur EBS
Bis zu 12,5
Bis zu 10
r7iz.xlarge
4
32
Nur EBS
Bis zu 12,5
Bis zu 10
r7iz.2xlarge
8
64
Nur EBS
Bis zu 12,5
Bis zu 10
r7iz.4xlarge
16
128
Nur EBS
Bis zu 12,5
Bis zu 10
r7iz.8xlarge
32
256
Nur EBS
12,5
10
r7iz.12xlarge
48
384
Nur EBS
25
19
r7iz.16xlarge
64
512
Nur EBS
25
20
r7iz.32xlarge
128
1.024
Nur EBS
50
40
r7iz.metal-16xl
64
512
Nur EBS
25
20
r7iz.metal-32xl
128
1.024
Nur EBS
50
40
Anwendungsfälle
Rechenintensive und speicherintensive Workloads wie Front-End Electronic Design Automation (EDA), relationale Datenbank-Workloads mit hohen Lizenzgebühren pro Kern sowie Simulations-Workloads in den Bereichen Finanzen, Versicherungsmathematik und Datenanalyse.
-
R7a
-
Amazon-EC2-R7a-Instances, die von AMD EPYC-Prozessoren der 4. Generation angetrieben werden, bieten im Vergleich zu R6a-Instances eine um bis zu 50 % höhere Leistung.
Funktionen:
- Bis zu 3,7-GHz-AMD-EPYC-Prozessoren der 4. Generation (AMD EPYC 9R14)
- Bis zu 50 Gbit/s Netzwerkbandbreite
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Instance-Größen mit bis zu 192 vCPUs und 1.536 GB Arbeitsspeicher
- SAP-zertifizierte Instances
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
- Unterstützung für permanente Speicherverschlüsselung mit AMD Secure Memory Encryption (SME)
- Unterstützung für neue Prozessorfunktionen wie AVX3-512, VNNI und bfloat16.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) r7a.medium
1
8
Nur EBS
Bis zu 12,5
Bis zu 10
r7a.large
2
16 Nur EBS
Bis zu 12,5
Bis zu 10
r7a.xlarge
4
32
Nur EBS
Bis zu 12,5
Bis zu 10
r7a.2xlarge
8
64
Nur EBS
Bis zu 12,5
Bis zu 10
r7a.4xlarge
16
128
Nur EBS
Bis zu 12,5
Bis zu 10
r7a.8xlarge
32
256
Nur EBS
12,5
10
r7a.12xlarge
48
384
Nur EBS
18,75
15
r7a.16xlarge
64
512
Nur EBS
25
20
r7a.24xlarge
96
768
Nur EBS
37,5
30
r7a.32xlarge
128
1.024
Nur EBS
50
40
r7a.48xlarge
192
1 536
Nur EBS
50
40
r7a.metal-48xl
192
1 536
Nur EBS
50
40
Anwendungsfälle
Speicherintensive Workloads wie SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches im Webmaßstab, In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und Electronic Design Automation (EDA)
-
R6g
-
Amazon-EC2-R6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei arbeitsspeicherintensiven Anwendungen eine bis zu 40 % bessere Preisleistung als die aktuelle Generation der R5-Instances.
Funktionen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
- Standardmäßig für EBS optimiert
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Mit den R6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Mbit/s) r6g.medium 1 8 Nur EBS Bis zu 10 Bis zu 4 750 r6g.large 2 16 Nur EBS Bis zu 10 Bis zu 4 750 r6g.xlarge 4 32 Nur EBS Bis zu 10 Bis zu 4 750 r6g.2xlarge 8 64 Nur EBS Bis zu 10 Bis zu 4 750 r6g.4xlarge 16 128 Nur EBS Bis zu 10 4.750 r6g.8xlarge 32 256 Nur EBS 12 9.000 r6g.12xlarge 48 384 Nur EBS 20 13.500 r6g.16xlarge 64 512 Nur EBS 25 19.000 r6g.metal 64 512 Nur EBS 25 19.000 r6gd.medium 1 8 1 x 59 NVMe-SSD Bis zu 10 Bis zu 4.750 r6gd.large 2 16 1 x 118 NVMe-SSD Bis zu 10 Bis zu 4.750 r6gd.xlarge 4 32 1 x 237 NVMe-SSD Bis zu 10 Bis zu 4.750 r6gd.2xlarge 8 64 1 x 474 NVMe-SSD Bis zu 10 Bis zu 4.750 r6gd.4xlarge 16 128 1 x 950 NVMe-SSD Bis zu 10 4.750 r6gd.8xlarge 32 256 1 x 1.900 NVMe-SSD 12 9.000 r6gd.12xlarge 48 384 2 x 1.425 NVMe-SSD 20 13.500 r6gd.16xlarge 64 512 2 x 1.900 NVMe-SSD 25 19.000 r6gd.metal 64 512 2 x 1.900 NVMe-SSD 25 19.000 Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Arbeitsspeicherintensive Anwendungen wie Open-Source-Datenbanken, In-Memory-Caches und Big Data-Analysen in Echtzeit
-
R6i
-
Amazon-R6i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) angetrieben und eignen sich ideal für speicherintensive Workloads.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Bis zu 15 % bessere Rechenpreisleistung gegenüber R5-Instances
- Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu R5-Instances
- Bis zu 50 GBit/s Netzwerkdurchsatz
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 1.024 GiB Arbeitsspeicher
- Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
- Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
- Bei R6id-Instances sind bis zu 7,6 TB lokaler NVMe-basierter SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der R6i-Instance gekoppelt ist.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) r6i.large 2 16 Nur EBS Bis zu 12,5 Bis zu 10 r6i.xlarge 4 32 Nur EBS Bis zu 12,5 Bis zu 10 r6i.2xlarge 8 64 Nur EBS Bis zu 12,5 Bis zu 10 r6i.4xlarge 16 128 Nur EBS Bis zu 12,5 Bis zu 10 r6i.8xlarge 32 256 Nur EBS 12,5 10 r6i.12xlarge 48 384 Nur EBS 18,75 15 r6i.16xlarge 64 512 Nur EBS 25 20 r6i.24xlarge 96 768 Nur EBS 37,5 30 r6i.32xlarge 128 1.024 Nur EBS 50 40 r6i.metal 128 1.024 Nur EBS 50 40 r6id.large 2 16 1 x 118 NVMe SSD Bis zu 12,5 Bis zu 10 r6id.xlarge 4 32 1 x 237 NVMe SSD Bis zu 12,5 Bis zu 10 r6id.2xlarge 8 64 1 x 474 NVMe SSD Bis zu 12,5 Bis zu 10 r6id.4xlarge 16 128 1 x 950 NVMe SSD Bis zu 12,5 Bis zu 10 r6id.8xlarge 32 256 1 x 1900 NVMe SSD 12,5 10 r6id.12xlarge 48 384 2 x 1425 NVMe SSD 18,75 15 r6id.16xlarge 64 512 2 x 1900 NVMe SSD 25 20 r6id.24xlarge 96 768 4 x 1425 NVMe SSD 37,5 30 r6id.32xlarge 128 1 024 4 x 1900 NVMe SSD 50 40 r6id.metal 128 1 024 4 x 1900 NVMe SSD 50 40 Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Speicherintensive Workloads wie SAP-, SQL- und NoSQL-Datenbanken, verteilte Web-Scale-In-Memory-Caches wie Memcached und Redis, In-Memory-Datenbanken wie SAP HANA und Big-Data-Analysen in Echtzeit wie Hadoop- und Spark-Cluster.
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
-
R6in
-
R6in- und R6idn-Instances von Amazon EC2 sind ideal für speicherintensive Workloads, die die Vorteile einer hohen Netzwerkbandbreite nutzen können, wie SAP-, SQL- und NoSQL-Datenbanken sowie In-Memory-Datenbanken wie SAP HANA. R6in- und R6idn-Instances bieten bis zu 200 Gbit/s Netzwerkbandbreite und bis zu 80 Gbit/s Amazon Elastic Block Store (EBS)-Bandbreite.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu R5n und R5dn-Instances
- Bis zu 200 Gbit/s Netzwerkgeschwindigkeit, das ist bis zu zweimal schneller verglichen zu R5n- und R5dn-Instances
- Bis zu 100 Gbit/s EBS-Bandbreite, das ist bis zu 1,6 Mal mehr als bei R5b-Instances
- Unterstützt Elastic Fabric Adapter (EFA) in den Größen 32xlarge und metal
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
- Bei R6idn-Instances sind bis zu 7,6 TB lokaler NVMe-basierter SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der R6idn-Instance gekoppelt ist
- Angetrieben von AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (GBit/s) r6in.large 2 16 Nur EBS Bis zu 25 Bis zu 25 r6in.xlarge 4 32 Nur EBS Bis zu 30 Bis zu 25 r6in.2xlarge 8 64 Nur EBS Bis zu 40 Bis zu 25 r6in.4xlarge 16 128 Nur EBS Bis zu 50 Bis zu 25 r6in.8xlarge 32 256 Nur EBS 50 25 r6in.12xlarge 48 384 Nur EBS 75 37,5 r6in.16xlarge 64 512 Nur EBS 100 50 r6in.24xlarge 96 768 Nur EBS 150 75 r6in.32xlarge 128 1.024 Nur EBS 200**** 100 r6in.metal 128 1.024 Nur EBS 200**** 100 r6idn.large 2 16 1x118-NVMe-SSD Bis zu 25 Bis zu 25 r6idn.xlarge 4 32 1x237-NVMe-SSD Bis zu 30 Bis zu 25 r6idn.2xlarge 8 64 1x474-NVMe-SSD Bis zu 40 Bis zu 25 r6idn.4xlarge 16 128 1x950-NVMe-SSD Bis zu 50 Bis zu 25 r6idn.8xlarge 32 256 1x1900-NVMe-SSD 50 25 r6idn.12xlarge 48 384 2x1425-NVMe-SSD 75 37,5 r6idn.16xlarge 64 512 2x1900-NVMe-SSD 100 50 r6idn.24xlarge 96 768 4x1425-NVMe-SSD 150 75 r6idn.32xlarge 128 1 024 4x1900-NVMe-SSD 200**** 100 r6idn.metal 128 1 024 4x1900-NVMe-SSD 200**** 100
****Für die Größen 32xlarge und Metal sind in der Instance mindestens zwei elastische Netzwerkschnittstellen erforderlich, die jeweils mit einer anderen Netzwerkkarte verbunden sind, um einen Durchsatz von 200 Gbit/s zu erreichen. Jede Netzwerkschnittstelle, die an eine Netzwerkkarte angeschlossen ist, kann maximal 170 Gbit/s erreichen. Weitere Informationen finden Sie unter Netzwerkkarten.Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz
- Für EBS optimiert
- Ereitertes Netztwerk†
Anwendungsfälle
Speicherintensive Workloads, die von einem hohen Netzwerkdurchsatz profitieren können, wie SAP, SQL- und NoSQL-Datenbanken sowie In-Memory-Datenbanken wie SAP HANA.
-
R6a
-
Amazon-EC2-R6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind ideal für speicherintensive Workloads geeignet.
Funktionen:
- Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
- Bis zu 35 % bessere Rechenpreisleistung gegenüber R5a-Instances
- Bis zu 50 GBit/s Netzwerkdurchsatz
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Instance-Größe mit bis zu 192 vCPUs und 1,536 GB Speicher
- SAP-zertifizierte Instances
- Unterstützt Elastic Fabric Adapter in der 48xlarge- und Metal-Größen
- Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
- Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)
- Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) r6a.large 2 16 Nur EBS Bis zu 12,5 Bis zu 10 r6a.xlarge 4 32 Nur EBS Bis zu 12,5 Bis zu 10 r6a.2xlarge 8 64 Nur EBS Bis zu 12,5 Bis zu 10 r6a.4xlarge 16 128 Nur EBS Bis zu 12,5 Bis zu 10 r6a.8xlarge 32 256 Nur EBS 12,5 10 r6a.12xlarge 48 384 Nur EBS 18,75 15 r6a.16xlarge 64 512 Nur EBS 25 20 r6a.24xlarge 96 768 Nur EBS 37,5 30 r6a.32xlarge 128 1024 Nur EBS 50 40 r6a.48xlarge 192 1 536 Nur EBS 50 40 r6a.metal 192 1 536 Nur EBS 50 40 Alle Instances haben die folgenden Spezifikationen:
- AMD-EPYC- Prozessoren der 3. Generation mit bis zu 3,6 GHz
- Für EBS optimiert
- Verbessertes Netzwerk
Anwendungsfälle
Speicherintensive Workloads wie SAP-, SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches wie Memcached und Redis, In-Memory-Datenbanken und Big-Data-Analysen in Echtzeit wie Hadoop- und Spark-Cluster, sowie andere Unternehmensanwendungen
- Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
-
R5
-
Amazon-EC2-R5-Instances liefern 5 % zusätzlichen Arbeitsspeicher pro vCPU als R4 und die umfangreichste Größe hat 768 GiB Arbeitsspeicher. Außerdem bieten R5-Instances eine Verbesserung von 10 % beim Preis pro GiB und eine etwa 20 % höhere CPU-Leistung gegenüber R4.
Funktionen:
- Prozessoren der Intel Xeon® Platinum 8000-Serie mit bis zu 3,1 GHz (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512)-Befehlssatz
- Bis zu 768 GiB Arbeitsspeicher pro Instance
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Mit den R5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
- Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s) r5.large 2 16 Nur EBS Bis zu 10 Bis zu 4.750 r5.xlarge 4 32 Nur EBS Bis zu 10 Bis zu 4.750 r5.2xlarge 8 64 Nur EBS Bis zu 10 Bis zu 4.750 r5.4xlarge 16 128 Nur EBS Bis zu 10 4.750 r5.8xlarge 32 256 Nur EBS 10 6.800 r5.12xlarge 48 384 Nur EBS 10 9.500 r5.16xlarge 64 512 Nur EBS 20 13.600 r5.24xlarge 96 768 Nur EBS 25 19.000 r5.metal 96* 768 Nur EBS 25 19.000 r5d.large 2 16 1 x 75 NVMe-SSD Bis zu 10 Bis zu 4.750 r5d.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 10 Bis zu 4.750 r5d.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 10 Bis zu 4.750 r5d.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 10 4.750 r5d.8xlarge 32 256 2 x 600 NVMe-SSD 10 6.800 r5d.12xlarge 48 384 2 x 900 NVMe-SSD 10 9.500 r5d.16xlarge 64 512 4 x 600 NVMe-SSD 20 13.600 r5d.24xlarge 96 768 4 x 900 NVMe-SSD 25 19.000 r5d.metal 96* 768 4 x 900 NVMe-SSD 25 19.000 * r5.metal und r5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets
Alle Instances haben die folgenden Spezifikationen:
- Intel Xeon Platinum-Prozessor mit bis zu 3,1 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
R5-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.
-
R5n
-
Amazon-EC2-R5-Instances sind ideal für speichergebundene Workloads, einschließlich Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webumfang, mittelgroße In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und andere Unternehmensanwendungen. Die Instance-Varianten mit größerer Bandbreite R5n und R5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.
Funktionen:
- Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
- Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
- 25 Gbit/s Spitzenbandbreite auf kleineren Instance-Größen
- 100 Gbit/s Netzwerkbandbreite auf den größten Instance-Größen
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R5dn-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
Instance-Größe
vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s) r5n.large 2 16 Nur EBS Bis zu 25 bis zu 4.750 r5n.xlarge 4 32 Nur EBS Bis zu 25 bis zu 4.750 r5n.2xlarge 8 64 Nur EBS Bis zu 25 Bis zu 4.750 r5n.4xlarge 16 128 Nur EBS Bis zu 25 4.750 r5n.8xlarge 32 256 Nur EBS 25 6.800 r5n.12xlarge 48 384 Nur EBS 50 9.500 r5n.16xlarge 64 512 Nur EBS 75 13.600 r5n.24xlarge 96 768 Nur EBS 100 19.000 r5n.metal 96* 768 Nur EBS 100 19.000 r5dn.large 2 16 1 x 75 NVMe-SSD Bis zu 25 bis zu 4.750 r5dn.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 25 Bis zu 4.750 r5dn.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 25 Bis zu 4.750 r5dn.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 25 4.750 r5dn.8xlarge 32 256 2 x 600 NVMe-SSD 25 6.800 r5dn.12xlarge 48 384 2 x 900 NVMe SSD 50 9.500 r5dn.16xlarge 64 512 4 x 600 NVMe-SSD 75 13.600 r5dn.24xlarge 96 768 4 x 900 NVMe-SSD 100 19.000 r5dn.metal 96* 768 4 x 900 NVMe-SSD 100 19.000 * r5n.metal und r5dn.metal bieten 96 logische Prozessoren auf 48 physischen Kernen.
Alle Instances haben die folgenden Spezifikationen:
- Kundenspezifische skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake) mit einer konstanten All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbofrequenz von 3,5 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen
-
R5b
-
Amazon-EC2-R5b-Instances sind EBS-optimierte Varianten speicheroptimierter R5-Instances. R5b-Instances erhöhen die EBS-Leistung im Vergleich zu R5-Instances gleicher Größe um das Dreifache. R5b-Instances bieten eine Bandbreite von bis zu 60 Gbit/s und eine EBS-Leistung von 260K IOPS – die höchste Blockspeicherleistung in EC2.
Funktionen:
- Benutzerdefinierte skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
- Bis zu 96 vCPUs, bis zu 768 GiB Arbeitsspeicher
- Bis zu 25 Gbit/s Netzwerkbandbreite
- Bis zu 60 Gbit/s an EBS-Bandbreite
Instance-Größe
vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s) r5b.large
2
16
Nur EBS
Bis zu 10
Bis zu 10 000
r5b.xlarge
4
32
Nur EBS
Bis zu 10
Bis zu 10 000
r5b.2xlarge
8
64
Nur EBS
Bis zu 10
Bis zu 10 000
r5b.4xlarge
16
128
Nur EBS
Bis zu 10
10 000
r5b.8xlarge
32
256
Nur EBS
10
20 000
r5b.12xlarge
48
384
Nur EBS
10
30 000
r5b.16xlarge
64
512
Nur EBS
20
40 000
r5b.24xlarge
96
768
Nur EBS
25
60 000
r5b.metal
96*
768
Nur EBS
25
60.000
Anwendungsfälle
Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webmaßstab, mittelgroße In-Memory-Datenbanken und Echtzeit-Big-Data-Analysen.
-
R5a
-
Amazon-EC2-R5a-Instances sind die neueste Generation der arbeitsspeicheroptimierten Instances. Sie sind ideal für arbeitsspeicherbasierte Workloads und verwenden Prozessoren der AMD-EPYC-7000-Serie. R5a-Instances bieten um bis zu 10 % günstigere Kosten pro GiB als vergleichbare Instances.
Funktionen:
- Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
- Bis zu 20 Gbit/s Netzwerkbandbreite mit Enhanced Networking
- Bis zu 768 GiB Arbeitsspeicher pro Instance
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Host-Server verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5a-Instance gekoppelt ist
Instance-Größe
vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (Mbit/s) r5a.large 2 16
Nur EBS Bis zu 10
Bis zu 2.880 r5a.xlarge 4 32 Nur EBS Bis zu 10 Bis zu 2.880 r5a.2xlarge 8 64 Nur EBS Bis zu 10 Bis zu 2.880 r5a.4xlarge 16 128 Nur EBS Bis zu 10 2.880 r5a.8xlarge 32 256 Nur EBS Bis zu 10 4.750 r5a.12xlarge 48 384 Nur EBS 10 6.780 r5a.16xlarge 64 512 Nur EBS 12 9.500 r5a.24xlarge 96 768 Nur EBS 20 13 570 r5ad.large 2 16 1 x 75 NVMe-SSD Bis zu 10
Bis zu 2.880 r5ad.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 10
Bis zu 2.880 r5ad.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 10
Bis zu 2.880 r5ad.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 10
2.880 r5ad.8xlarge 32 256 2 x 600 NVMe-SSD Bis zu 10 4.750 r5ad.12xlarge 48 384 2 x 900 NVMe-SSD 10 6.780 r5ad.16xlarge 64 512 4 x 600 NVMe-SSD 12 9.500 r5ad.24xlarge 96 768 4 x 900 NVMe-SSD 20 13 570 Alle Instances haben die folgenden Spezifikationen:
- Prozessoren der 2.5 GHz AMD EPYC 7000 Serie
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
R5a-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, verteilte Netzdimensionen Hauptspeicher Caches, mittelgroße Hauptspeicher Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.
- Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
-
R4
-
Amazon-EC2-R4-Instances sind für speicherintensive Anwendungen optimiert und stellen ein besseres RAM-Preisangebot pro GiB als R3 dar.
Funktionen:
- Skalierbare Hochfrequenz Intel Xeon (Broadwell E5-2686 v4) Prozessoren
- DDR4 Speicher
- Unterstützung für Enhanced Networking
Instance vCPU Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s)*** r4.large 2 15,25 Nur EBS Bis zu 10 r4.xlarge 4 30,5 Nur EBS Bis zu 10 r4.2xlarge 8 61 Nur EBS Bis zu 10 r4.4xlarge 16 122 Nur EBS Bis zu 10 r4.8xlarge 32 244 Nur EBS 10 r4.16xlarge 64 488 Nur EBS 25 Alle Instances haben die folgenden Spezifikationen:
- Bis zu 2,3 GHz skalierbarer Intel Xeon-Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Hochleistungs-Datenbanken, Data Mining und -Analyse, In-Memory-Datenbanken, verteilte In-Memory-Caches im Web-Maßstab, Anwendungen zur Echtzeitverarbeitung unstrukturierter Big Data, Hadoop/Spark-Cluster und andere Unternehmensanwendungen.
-
U7i
-
Arbeitsspeicherintensive U7i-Instances von Amazon EC2 sind speziell für die Ausführung großer In-Memory-Datenbanken konzipiert, einschließlich Produktionsbereitstellungen von SAP HANA in der Cloud.
Features:
- Bietet 896 vCPUs
- Mit DDR5-Speicher
- Bis zu 32 TiB Instance-Speicher
- Unterstützt von AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Virtualisierte Instances sind mit On-Demand- sowie mit ein- und dreijährigen Savings-Plan-Kaufoptionen erhältlich
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) u7i-12tb.224xlarge
896
12 288
Nur EBS
100
60
u7in-16tb.224xlarge
896
16 384
Nur EBS
200
100
u7in-24tb.224xlarge
896
24 576
Nur EBS
200
100
u7in-32tb.224xlarge
896
32 768
Nur EBS
200
100
U7i-Instances, die von benutzerdefinierten skalierbaren Intel Xeon Prozessoren der vierten Generation (Sapphire Rapids) angetrieben werden, bieten bis zu 32 TiB des neuesten DDR5-Speichers und bis zu 896 vCPUs.
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Ideal für die Ausführung großer Unternehmensdatenbanken, einschließlich Produktionsinstallationen der In-Memory-Datenbank SAP HANA in der Cloud. Zertifiziert von SAP für die Ausführung der Business Suite in HANA, der Business Suite der nächsten Generation S/4HANA, Data Mart Solutions in HANA, Business Warehouse in HANA und SAP BW/4HANA in Produktionsumgebungen.
-
Hoher Arbeitsspeicher (U-1)
-
Arbeitsspeicherintensive Instances (U-1) von Amazon EC2 sind speziell für die Ausführung großer In-Memory-Datenbanken konzipiert, einschließlich Produktionsbereitstellungen von SAP HANA in der Cloud.
Features:
- Jetzt mit Bare-Metal- oder virtualisiertem Speicher verfügbar
- Zwischen 3 und 24 TiB Instance-Speicher
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Virtualisierte Instances sind mit On-Demand- sowie mit ein- und dreijährigen Savings-Plan-Kaufoptionen erhältlich
Name Logische Prozessoren* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (GBit/s) u-3tb1.56xlarge 224 3 072 Nur EBS 50 19 u-6tb1.56xlarge 224 6.144 Nur EBS 100 38 u-6tb1.112xlarge 448 6.144 Nur EBS 100 38 u-6tb1.metal** 448 6.144 Nur EBS 100 38 u-9tb1.112xlarge 448 9.216 Nur EBS 100 38 u-9tb1.metal** 448 9.216 Nur EBS 100 38 u-12tb1.112xlarge 448 12.288 Nur EBS 100 38 u-12tb1.metal** 448 12.288 Nur EBS 100 38 u-18tb1.112xlarge 448 18.432 Nur EBS 100 38 u-18tb1.metal 448 18.432 Nur EBS 100 38 u-24tb1.112xlarge 448 24.576 Nur EBS 100 38 u-24tb1.metal 448 24.576 Nur EBS 100 38 **Einige Instances, die vor dem 12. März 2020 gestartet wurden, weisen möglicherweise eine geringere Leistung auf. Wenden Sie sich an Ihr Kundenteam, um für Ihre Instanz ein Upgrade auf die höhere Leistungsstufe vornehmen zu lassen (ohne zusätzliche Kosten).
* Jeder logische Prozessor ist ein Hyperthread auf 224 Kernen
- 6-TB-, 9-TB- und 12-TB-Instances werden von 2,1 GHz (mit Turbo Boost auf 3,80 GHz) skalierbaren Intel Xeon Prozessoren (Skylake 8176M) oder 2,7 GHz (mit Turbo Boost auf 4,0 GHz) skalierbaren Intel Xeon Prozessoren der 2. Generation (Cascade Lake 8280L) betrieben
- 18-TB- und 24-TB-Instances werden von skalierbaren Intel Xeon-Prozessoren der 2. Generation mit 2,7 GHz (mit Turbo Boost auf 4,0 GHz) (Cascade Lake 8280L) betrieben
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Ideal für die Ausführung großer Unternehmensdatenbanken, einschließlich Produktionsinstallationen der In-Memory-Datenbank SAP HANA in der Cloud. Zertifiziert von SAP für die Ausführung der Business Suite in HANA, der Business Suite der nächsten Generation S/4HANA, Data Mart Solutions in HANA, Business Warehouse in HANA und SAP BW/4HANA in Produktionsumgebungen.
-
X8g
-
Amazon-EC2-X8g-Instances werden von AWS-Graviton4-Prozessoren betrieben. Sie bieten das beste Preis-Leistungs-Verhältnis unter den Amazon-EC2-Instances der X-Serie.
Funktionen:
- Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
- Größere Instance-Größen mit bis zu 3x mehr vCPUs und Speicher als X2gd-Instances
- Mit dem neuesten DDR5-5600-Speicher
- Standardmäßig für Amazon EBS optimiert
- Unterstützt Elastic Fabric Adapter (EFA) in x8g.24xlarge, x8g.48xlarge, x8g.metal-24xl und x8g.metal-48xl
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (GBit/s) EBS-Bandbreite (GBit/s) x8g.medium
1
16
Nur EBS
Bis zu 12,5
Bis zu 10
x8g.large
2
32
Nur EBS
Bis zu 12,5
Bis zu 10
x8g.xlarge
4
64
Nur EBS
Bis zu 12,5
Bis zu 10
x8g.2xlarge
8
128
Nur EBS
Bis zu 15
Bis zu 10
x8g.4xlarge
16
256
Nur EBS
Bis zu 15
Bis zu 10
x8g.8xlarge
32
512
Nur EBS
15
10
x8g.12xlarge
48
768
Nur EBS
22,5
15
x8g.16xlarge
64
1 024
Nur EBS
30
20
x8g.24xlarge
96
1 536
Nur EBS
40
30
x8g.48xlarge
192
3 072
Nur EBS
50
40
x8g.metal-24xl
96
1 536
Nur EBS
40
30
x8g.metal-48xl
192
3 072
Nur EBS
50
40
Alle Instances haben die folgenden Spezifikationen:
- Speziell angefertigter AWS-Graviton4-Prozessor
- Optimiert für Amazon EBS
- Verbessertes Netzwerk†
Anwendungsfälle
Speicherintensive Workloads wie In-Memory-Datenbanken (Redis, Memcached), relationale Datenbanken (MySQL, PostgreSQL), Electronic Design Automation-Workloads (EDA), Big-Data-Analysen in Echtzeit, Caching-Server in Echtzeit und speicherintensive containerisierte Anwendungen.
-
X2gd
-
Amazon-EC2-X2gd-Instances werden von Arm-basierten AWS-Graviton2-Prozessoren angetrieben und bieten die niedrigsten Kosten pro GiB Speicher in Amazon EC2. Sie bieten eine bis zu 55 % bessere Preisleistung im Vergleich zu X1-Instances der aktuellen Generation.
Funktionen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
- Lokaler NVMe-basierter SSD-Speicher bietet Hochgeschwindigkeitszugriff mit geringer Latenz auf In-Memory-Daten
- Standardmäßig für EBS optimiert
Instance-Größe
vCPU
Arbeitsspeicher (GiB)
Instance-Speicher (GB)
Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Gbit/s)
x2gd.medium
1
16
1x59 NVMe SSD
Bis zu 10
Bis zu 4,75
x2gd.large
2
32
1x118 NVMe SSD
Bis zu 10
Bis zu 4,75
x2gd.xlarge
4
64
1x237 NVMe SSD
Bis zu 10
Bis zu 4,75
x2gd.2xlarge
8
128
1x475 NVMe SSD
Bis zu 10
Bis zu 4,75
x2gd.4xlarge
16
256
1x950 NVMe SSD
Bis zu 10
4,75
x2gd.8xlarge
32
512
1x1900 NVMe SSD
12
9,5
x2gd.12xlarge
48
768
2x1425 NVMe SSD
20
14,25
x2gd.16xlarge
64
1024
2x1900 NVMe SSD
25
19
x2gd.metal
64
1024
2x1900 NVMe SSD
25
19
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Speicherintensive Workloads wie Open-Source-Datenbanken (MySQL, MariaDB und PostgreSQL), In-Memory-Caches (Redis, KeyDB, Memcached), EDA-Workloads (Electronic Design Automation), Echtzeit-Analysen und Echtzeit-Caching-Server.
-
X2idn
-
Amazon-EC2-X2idn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation mit einer Turbofrequenz von bis zu 3,5 GHz für alle Kerne angetrieben und sind eine gute Wahl für eine Vielzahl von speicherintensiven Anwendungen.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- 16:1-Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
- Bis zu 50 % bessere Preisleistung als X1-Instances
- Bis zu 100 GBit/s Netzwerkdurchsatz
- Bis zu 80 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
Instance-Größe
vCPU
Arbeitsspeicher (GiB)
Instance-Speicher (GB)
Netzwerkbandbreite (GBit/s)
EBS-Bandbreite (Gbit/s)
x2idn.16xlarge
64
1 024
1 x 1 900 NVMe-SSD
50
40
x2idn.24xlarge
96 1 536 2 x 1 425 NVMe-SSD
75
60
x2idn.32xlarge
128 2 048
2 x 1 900 NVMe-SSD
100
80
x2idn.metal
128 2 048
2 x 1 900 NVMe-SSD
100
80
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
In-Memory-Datenbanken (z. B. SAP HANA, Redis), traditionelle Datenbanken (z. B. Oracle DB, Microsoft SQL Server) und In-Memory-Analytik (z. B. SAS, Aerospike).
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
-
X2iedn
-
Amazon-EC2-X2iedn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) mit einer Turbofrequenz von bis zu 3,5 GHz für alle Kerne angetrieben und sind eine gute Wahl für eine breite Palette von speicherintensiven Anwendungen in großem Umfang.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- 32:1 Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
- Bis zu 50 % bessere Preisleistung als X1-Instances
- Bis zu 100 GBit/s Netzwerkdurchsatz
- Bis zu 80 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Angetrieben vom AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
Instance-Größe
vCPU
Arbeitsspeicher (GiB)
Instance-Speicher (GB)
Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Gbit/s)
x2iedn.xlarge
4
128
1 x 118 NVMe-SSD
Bis zu 25
Bis zu 20
x2iedn.2xlarge
8 256
1 x 237 NVMe-SSD
Bis zu 25
Bis zu 20
x2iedn.4xlarge
16 512
1 x 475 NVMe-SSD
Bis zu 25
Bis zu 20
x2iedn.8xlarge
32 1 024
1 x 950 NVMe-SSD
25
20
x2iedn.16xlarge
64 2 048
1 x 1 900 NVMe-SSD
50
40
x2iedn.24xlarge
96 3 072
2 x 1 425 NVMe-SSD
75
60
x2iedn.32xlarge
128 4 096
2 x 1 900 NVMe-SSD
100
80
x2iedn.metal
128 4 096
2 x 1 900 NVMe-SSD
100
80
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Große In-Memory-Datenbanken (z. B. SAP HANA, Redis), traditionelle Datenbanken (z. B. Oracle DB, Microsoft SQL Server) und In-Memory-Analysen (z. B. SAS, Aerospike).
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
-
X2iezn
-
Amazon-EC2-X2iezn-Instances werden von den schnellsten Intel-Xeon-Scalable-Prozessoren (Codename Cascade Lake) in der Cloud angetrieben, mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz und sind eine gute Wahl für speicherintensive Electronic Design Automation (EDA)-Workloads.
Funktionen:
- Bis zu 4,5 GHz skalierbare Intel Xeon Prozessoren der 2. Generation (Cascade Lake 8252C)
- 32:1 Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
- Bis zu 55 % bessere Preisleistung als X1e-Instances
- Bis zu 100 GBit/s Netzwerkdurchsatz
- Bis zu 19 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Unterstützt Elastic Fabric Adapter in 12xlarge- und Metal-Größen
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) x2iezn.2xlarge 8 256 Nur EBS Bis zu 25 3,17 x2iezn.4xlarge 16 512 Nur EBS Bis zu 25 4,75 x2iezn.6xlarge 24 768 Nur EBS 50 9,5 x2iezn.8xlarge 32 1 024 Nur EBS 75 12 x2iezn.12xlarge 48 1 536 Nur EBS 100 19 x2iezn.metal 48 1 536 Nur EBS 100 19 Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Elektronische Design-Automatisierung (EDA) wie physikalische Verifikation, statische Timing-Analyse, Leistungssignierung und vollständige Chip-Gate-Level-Simulation.
-
X1
-
Amazon-EC2-X1-Instances sind für Datenbanken der Unternehmensklasse und In-Memory-Anwendungen optimiert.
Funktionen:
- Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
- Einer der günstigsten Preise pro GiB RAM
- Bis zu 1.952 GiB DRAM-basierter Instance-Speicher
- SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
- Steuerung der C- und P-State-Prozessorkonfiguration
Instance vCPU Arbeitsspeicher (GiB) SSD-Speicher (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s) x1.16xlarge 64 976 1 x 1.920 7.000 10 x1.32xlarge 128 1.952 2 x 1.920 14.000 25 Alle Instances haben die folgenden Spezifikationen:
- Skalierbarer Intel Xeon-Prozessor mit 2,3 GHz (Haswell E7-8880 v3)
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
In-Memory-Datenbanken (wie SAP HANA), Engines zur Big Data-Verarbeitung (wie Apache Spark oder Presto) und High Performance Computing (HPC). Anwendungen, die von SAP zur Ausführung von Business Warehouse on HANA (BW), Data Mart Solutions on HANA, Business Suite on HANA (SoH) und Business Suite S/4HANA zertifiziert sind.
-
X1e
-
Amazon-EC2-X1e-Instances sind für große Datenbanken, In-Memory-Datenbanken und andere speicherintensive Unternehmensanwendungen optimiert.
Funktionen:
- Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
- Einer der günstigsten Preise pro GiB RAM
- Bis zu 3.904 GiB DRAM-basierter Instance-Speicher
- SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
- Möglichkeit zur Kontrolle von C-State- und P-State-Prozessorkonfigurationen auf Instances vom Typ x1e.32xlarge, x1e.16xlarge und x1e.8xlarge
Instance vCPU Arbeitsspeicher (GiB) SSD-Speicher (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung (Gbit/s)*** x1e.xlarge 4 122 1 x 120 500 Bis zu 10 x1e.2xlarge 8 244 1 x 240 1.000 Bis zu 10 x1e.4xlarge 16 488 1 x 480 1.750 Bis zu 10 x1e.8xlarge 32 976 1 x 960 3.500 Bis zu 10 x1e.16xlarge 64 1.952 1 x 1.920 7.000 10 x1e.32xlarge 128 3.904 2 x 1.920 14.000 25 Alle Instances haben die folgenden Spezifikationen:
- Skalierbarer Intel Xeon-Prozessor mit 2,3 GHz (Haswell E7-8880 v3)
- Intel AVX†, Intel AVX2†
- EBS-optimiert
- Verbessertes Netzwerk†
Zusätzlich haben x1e.16xlarge und x1e.32xlarge
Anwendungsfälle
Hochleistungs-Datenbanken, In-Memory-Datenbanken (z. B. SAP HANA) und speicherintensive Anwendungen. Von SAP zertifizierte x1e.32xlarge-Instance zum Ausführen der nächsten Generation von Business Suite S/4HANA, Business Suite in HANA (SoH), Business Warehouse in HANA (BW) und Data Mart Solutions in HANA in der AWS Cloud.
-
z1d
-
Amazon-EC2-z1d-Instances bieten sowohl hohe Rechenkapazität als auch großen Arbeitsspeicher. Hochfrequenz-z1d-Instances bieten eine gleichbleibende Kernfrequenz von bis zu 4,0 GHz, die schnellste aller Cloud-Instances.
Funktionen:
- Spezieller skalierbarer Intel® Xeon® Prozessor (Skylake 8151) mit einer dauerhaften Frequenz von bis zu 4,0 GHz für alle Kerne und dem neuen Befehlssatz Intel Advanced Vector Extension (AVX-512)
- Bis zu 1,8 TB Instance-Speicher
- Großer Arbeitsspeicher mit bis zu 384 GiB RAM
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Mit z1d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der z1d-Instance verknüpft ist
Instance vCPU Arbeitsspeicher (GB) Netzwerkleistung (Gbit/s)*** SSD-Speicher (GB) z1d.large 2 16 Bis zu 10 1 x 75 NVMe-SSD z1d.xlarge 4 32 Bis zu 10 1 x 150 NVMe-SSD z1d.2xlarge 8 64 Bis zu 10 1 x 300 NVMe-SSD z1d.3xlarge 12 96 Bis zu 10 1 x 450 NVMe-SSD z1d.6xlarge 24 192 10 1 x 900 NVMe SSD z1d.12xlarge 48 384 25 2 x 900 NVMe SSD z1d.metal 48* 384 25 2 x 900 NVMe SSD * z1d.metal bietet 48 logische Prozessoren auf 24 physischen Kernen
Alle Instances haben die folgenden Spezifikationen:
- Intel® Xeon® Scalable-Prozessoren mit bis zu 4,0 GHz
- Intel AVX, Intel AVX2, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Ideal für Electronic Design Automation (EDA) und bestimmte relationale Datenbank-Workloads mit hohen Lizenzierungskosten pro Kern.
Jede vCPU auf Graviton-basierten Amazon-EC2-Instances ist ein Kern des AWS-Graviton-Prozessors.
Jede vCPU auf Amazon EC2-Instances, die nicht auf Graviton basieren, ist ein Thread eines x86-basierten Prozessors, mit Ausnahme von R7a-Instances.
† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.
Beschleunigtes Computing
Beschleunigte Computing-Instances verwenden Hardwarebeschleuniger oder Co-Prozessoren, um Funktionen wie Gleitkomma-Berechnungen, Grafikverarbeitung oder Datenmusterabgleich effizienter auszuführen, als dies bei auf CPUs laufender Software möglich ist.
-
P5
-
P4
-
P3
-
P2
-
G6e
-
G6
-
G5g
-
G5
-
G4dn
-
G4ad
-
G3
-
Trn2
-
Trn1
-
Inf2
-
Inf1
-
DL1
-
DL2q
-
F1
-
VT1
-
P5
-
Amazon-EC2-P5-Instances sind die neueste Generation von GPU-basierten Instances und bieten die höchste Leistung in Amazon EC2 für Deep Learning und High Performance Computing (HPC).
Features:
- Intel Sapphire Rapids CPU und PCIe Gen5 zwischen CPU und GPU in P5en-Instances; AMD-EPYC-Prozessoren der 3. Generation (AMD EPYC 7R13) und PCIe Gen4 zwischen CPU und GPU in P5- und P5e-Instances.
- Bis zu 8 NVIDIA H100 (in P5) oder H200 (in P5e und P5en) Tensor-Core-GPUs
- Netzwerk-Bandbreite bis zu 3 200 Gbit/s mit Unterstützung für Elastic Fabric Adapter (EFA) und NVIDIA GPUDirect RDMA (Remote Direct Memory Access)
- Peer-to-Peer-GPU-Kommunikation mit 900 GB/s über NVIDIA NVSwitch
Instance GPUs vCPUs Instance
Speicher (TiB)GPU
ArbeitsspeicherNetzwerkbandbreite GPUDirect RDMA GPU-Peer-to-Peer Instance-Speicher (TB) EBS-Bandbreite (Gbit/s) p5.48xlarge
8 H100
192
2
640 GB HBM3
3 200 Gbit/s EFAv2
Ja
900 GB/s NVSwitch
8 x 3.84 NVMe-SSD
80
p5e.48xlarge 8 H200 192 2 1 128 GB HBM3 3 200 Gbit/s EFAv2 Ja 900 GB/s NVSwitch 8x 3.84 NVMe-SSD 80 p5en.48xlarge 8 H200 192 2 1 128 GB HBM3 3 200 Gbit/s EFAv3 Ja 900 GB/s NVSwitch 8x 3,84 NVMe-SSD 100 P5-Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Generative KI-Anwendungen, einschließlich Beantwortung von Fragen, Codegenerierung, Video- und Bildgenerierung, Spracherkennung und mehr.
HPC-Anwendungen in großem Maßstab in der pharmazeutischen Forschung, seismischen Analyse, Wettervorhersage und Finanzmodellierung.
- Intel Sapphire Rapids CPU und PCIe Gen5 zwischen CPU und GPU in P5en-Instances; AMD-EPYC-Prozessoren der 3. Generation (AMD EPYC 7R13) und PCIe Gen4 zwischen CPU und GPU in P5- und P5e-Instances.
-
P4
-
Amazon-EC2-P4-Instances bieten hohe Leistung für Machine-Learning-Training und High Performance Computing in der Cloud.
- 3,0 GHz skalierbare Intel Xeon Prozessoren der 2. Generation (Cascade Lake P-8275CL)
- Bis zu 8 NVIDIA A100 Tensor Core GPUs
- 400-Gbit/s-Instance-Netzwerk mit Unterstützung für Elastic Fabric Adapter (EFA) und NVIDIA GPUDirect RDMA (Remote Direct Memory Access)
- Peer-to-Peer-GPU-Kommunikation mit 600 GB/s über NVIDIA NVSwitch
- Bereitgestellt in Amazon-EC2-UltraClustern, welche aus mehr als 4 000 GPUs des NVIDIA A100 Tensor Core bestehen, einem Petabit-Netzwerk sowie einem skalierbaren Speicher mit geringer Latenz und Amazon FSx für Lustre
Instance GPUs vCPUs Instance
Arbeitsspeicher (GiB)GPU
ArbeitsspeicherNetzwerkbandbreite GPUDirect RDMA GPU-Peer-to-Peer Instance-Speicher (GB) EBS-Bandbreite (GBit/s) p4d.24xlarge 8 96 1152 320 GB HBM2 400 ENA und EFA Ja 600 GB/s NVSwitch 8 x 1000 NVMe-SSD 19 p4de.24xlarge
(als Vorversion)8 96 1152 640 GB HBM2e 400 ENA und EFA Ja 600 GB/s NVSwitch 8 x 1000 NVMe-SSD 19 Alle P4d-Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 2. Generation mit 3,0 GHz
- Intel AVX, Intel AVX2, Intel AVX-512 und Intel Turbo
- EBS-optimiert
- Enhanced Networking†
- Elastic Fabric Adapter (EFA)
Anwendungsfälle
Machine Learning, High Performance Computing (HPC), numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, Spracherkennung, Entwicklung autonomer Fahrzeuge und Arzneimittelforschung.
-
P3
-
Amazon-EC2-P3-Instances bieten High Performance Computing (HPC) in der Cloud mit bis zu 8 GPUs des NVIDIA® V100 Tensor Core und einem Netzwerkdurchsatz von bis zu 100 Gbit/s für Machine-Learning- und HPC-Anwendungen.
Funktionen:
- Bis zu 8 NVIDIA Tesla V100-GPUs mit jeweils 5.120 CUDA-Kernen und 640 Tensor-Kernen
- Skalierbarer Hochfrequenz-Prozessor Intel Xeon (Broadwell E5-2686 v4) für p3.2xlarge, p3.8xlarge und p3.16xlarge.
- Skalierbarer Hochfrequenz-Prozessor Intel-Xeon (Skylake 8175) mit 2,5 GHz (Basis) für p3dn.24xlarge.
- Unterstützt NVLink für die Peer-to-Peer-GPU-Kommunikation
- Bietet eine Gesamtnetzwerkbandbreite von bis zu 100 GBit/s
- EFA-Support auf p3dn.24xlarge-Instances
Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) GPU P2P Speicher (GB) Dedizierte EBS-Bandbreite (GBit/s) Netzwerkleistung (Gbit/s)*** p3.2xlarge 1 8 61 16 - Nur EBS 1,5 Bis zu 10 p3.8xlarge 4 32 244 64 NVLink Nur EBS 7 10 p3.16xlarge 8 64 488 128 NVLink Nur EBS 14 25 p3dn.24xlarge 8 96 768 256 NVLink 2 x 900 NVMe SSD 19 100 Alle Instances haben die folgenden Spezifikationen:
p3.2xlarge, p3.8xlarge und p3.16xlarge verfügen über Intel Xeon E5-2686-v4-Prozessoren mit 2,3 GHz (Basis) und 2,7 GHz (Turbo).p3dn.24xlarge verfügt über Intel-Xeon-8175M-Prozessoren mit 2,5 GHz (Basis) und 3,1 GHz (sustained all-core turbo) und unterstützt Intel AVX-512. p3dn-24xlarge-Instances unterstützen auch den Elastic Fabric Adapter (EFA), mit dem Anwendungen von High Performance Computing (HPC ), die das Message Passing Interface (MPI) verwenden, und Machine Learning (ML)-Anwendungen, die die NVIDIA Collective Communications Library (NCCL) nutzen, auf Tausende von GPUs skaliert werden können.Anwendungsfälle
Machine/Deep Learning, High Performance Computing (HPC), numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, Spracherkennung, Entwicklung autonomer Fahrzeuge, Arzneimittelforschung.
-
P2
-
P2-Instances eignen sich für allgemeine GPU-Datenverarbeitungsanwendungen.
Funktionen:
- Skalierbarer Hochfrequenz Intel Xeon Prozessor (Broadwell E5-2686 v4)
- Leistungsstarke NVIDIA K80-GPUs mit jeweils 2.496 Parallelverarbeitungskernen und 12 GiB GPU-Speicher
- Unterstützt GPUDirect™ für Peer-to-Peer-GPU-Kommunikation
- bietet erweiterte Vernetzung durch den Elastic Network Adaptor (ENA) an, mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Platzierungsgruppe
- Standardmäßig und ohne Zusatzkosten für EBS optimiert
Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung (Gbit/s) p2.xlarge 1 4 61 12 Hoch p2.8xlarge 8 32 488 96 10 p2.16xlarge 16 64 732 192 25 Alle Instances haben die folgenden Spezifikationen:
- 2.3 GHz (Basis) und 2.7 GHz (Turbo) Intel Xeon E5-2686 v4 Prozessoren
- Intel AVX, Intel AVX2, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Machine Learning, Hochleistungsdatenbanken, numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, molekulare Modellierung, Genome, Rendering und andere serverseitige GPU-Datenverarbeitungs-Workloads
-
G6e
-
Amazon EC2 G6e-Instances wurden entwickelt, um Deep-Learning-Inferenz- und räumliche Computing-Workloads zu beschleunigen.
Features:
- AMD-EPYC-Prozessoren der 3. Generation (AMD EPYC 7R13)
- Bis zu 8 NVIDIA L40S Tensor Core GPUs
- Bis zu 400 Gbit/s Netzwerkbandbreite
- Bis zu 7,6 TB lokaler NVMe-Speicher
Instance-Name vCPUs Arbeitsspeicher (GiB) NVIDIA L40S Tensor Core GPU GPU-Speicher (GiB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) g6e.xlarge 4 32 1 48 Bis zu 20 Bis zu 5 g6e.2xlarge 8 64 1 48 Bis zu 20 Bis zu 5 g6e.4xlarge 16 128 1 48 20 8 g6e.8xlarge 32 256 1 48 25 16 g6e.16xlarge 64 512 1 48 35 20 g6e.12xlarge 48 384 4 192 100 20 g6e.24xlarge 96 768 4 192 200 30 g6e.48xlarge 192 1.536 8 384 400 60 Anwendungsfälle
Inferenz-Workloads für große Sprachmodelle und Diffusionsmodelle für Bild-, Audio- und Videogenerierung; Training mittelkomplexer generativer KI-Modelle auf einem Knoten; 3D-Simulationen, digitale Zwillinge und industrielle Digitalisierung.
-
G6
-
Amazon-EC2-G6-Instances wurden entwickelt, um grafikintensive Anwendungen und Machine-Learning-Inferenz zu unterstützen.
Features:
- AMD-EPYC-Prozessoren der 3. Generation (AMD EPYC 7R13)
- Bis zu 8 NVIDIA L4 Tensor Core GPUs
- Bis zu 100 Gbit/s Netzwerkbandbreite
- Bis zu 7,52 TB lokaler NVMe-Speicher
Instance-Name vCPUs Arbeitsspeicher (GiB) NVIDIA L4 Tensor Core GPU GPU-Speicher (GiB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) g6.xlarge 4 16 1 24 Bis zu 10 Bis zu 5 g6.2xlarge 8 32 1 24 Bis zu 10 Bis zu 5 g6.4xlarge 16 64 1 24 Bis zu 25 8 g6.8xlarge 32 128 1 24 25 16 g6.16xlarge 64 256 1 24 25 20 g6.12xlarge 48 192 4 96 40 20 g6.24xlarge 96 384 4 96 50 30 g6.48xlarge 192 768 8 192 100 60 Gr6-Instances mit einem vCPU:RAM-Verhältnis von 1:8 gr6.4xlarge 16 128 1 24 Bis zu 25 8 gr6.8xlarge 32 256 1 24 25 16 Anwendungsfälle
Bereitstellung von ML-Modellen für die Verarbeitung natürlicher Sprache, Sprachübersetzung, Video- und Bildanalyse, Spracherkennung und Personalisierung sowie Grafikworkloads wie das Erstellen und Rendern von Grafiken in Kinoqualität in Echtzeit und das Streaming von Spielen
-
G5g
-
Amazon-EC2-G5g-Instances werden mit AWS-Graviton2-Prozessoren betrieben und verfügen über T4G-Tensor-Core-GPUs von NVIDIA, um die beste Preisleistung in Amazon EC2 für Grafik-Workloads wie beispielsweise Android Game Streaming zu bieten. Sie sind die ersten Arm-basierten Instances in einer großen Cloud, die über GPU-Beschleunigung verfügen. Kunden können G5g-Instances auch für kostengünstige ML-Inferenz verwenden.
Funktionen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Bis zu 2 NVIDIA-T4G-Tensor-Core-GPUs
- Bis zu 25 Gbps Netwerkbandbreite
- Standardmäßig für EBS optimiert
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
Instance-Name vCPUs Arbeitsspeicher (RAM) (GiB) NVIDIA-T4G-Tensor-Core-GPU GPU-Speicher (GiB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) g5g.xlarge 4 8 1 16 Bis zu 10 Bis zu 3,5 g5g.2xlarge 8 16 1 16 Bis zu 10 Bis zu 3,5 g5g.4xlarge 16 32 1 16 Bis zu 10 Bis zu 3,5 g5g.8xlarge 32 64 1 16 12 9 g5g.16xlarge 64 128 2 32 25 19 g5g.metal 64 128 2 32 25 19 Anwendungsfälle
Streaming von Android-Spielen, Inferenz für Machine Learning, Grafik-Rendering, Simulationen von autonomen Fahrzeugen
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
-
G5
-
Amazon-EC2-G5-Instances wurden entwickelt, um grafikintensive Anwendungen und Machine-Learning-Inferenz zu unterstützen. Sie können auch verwendet werden, um einfache bis mittelmäßig komplexe Machine-Learning-Modelle zu trainieren.
Funktionen:
- AMD EPYC Prozessoren der 2. Generation (AMD EPYC 7R32)
- Bis zu 8 NVIDIA A10G Tensor-Core-GPUs
- Bis zu 100 Gbit/s Netzwerkbandbreite
- Bis zu 7,6 TB lokaler NVMe-Speicher
Instance-Größe GPU GPU-Speicher (GiB) vCPUs Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) g5.xlarge 1 24 4 16 1 x 250 NVMe-SSD Bis zu 10 Bis zu 3,5 g5.2xlarge 1 24 8 32 1 x 450 NVMe-SSD Bis zu 10 Bis zu 3,5 g5.4xlarge 1 24 16 64 1 x 600 NVMe-SSD Bis zu 25 8 g5.8xlarge 1 24 32 128 1 x 900 NVMe-SSD 25 16 g5.16xlarge 1 24 64 256 1 x 1 900 NVMe-SSD 25 16 g5.12xlarge 4 96 48 192 1 x 3 800 NVMe-SSD 40 16 g5.24xlarge 4 96 96 384 1 x 3 800 NVMe-SSD 50 19 g5.48xlarge 8 192 192 768 2x 3800 NVME SSD 100 19 G5-Instances haben die folgenden Spezifikationen:
- AMD-EPYC-Prozessoren der 2. Generation
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Grafikintensive Anwendungen wie Remote-Workstations, Videorendering und Cloud-Gaming für die Erstellung von erstklassiger Grafik in Echtzeit. Trainings- und Inferenz-Deep-Learning-Modelle für Machine Learning nutzen Anwendungsfälle wie die natürliche Sprachverarbeitung, Computervision und Empfehlungsengines.
-
G4dn
-
Amazon-EC2-G4dn-Instances wurden zur Beschleunigung von Machine-Learning-Inferenz und grafikintensiven Workloads entwickelt.
Features:
- Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
- Bis zu 8 NVIDIA T4 Tensor Core GPUs
- Bis zu 100 GBit/s Netzwerkdurchsatz
- Bis zu 1,8 TB lokaler NVMe-Speicher
Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** EBS-Bandbreite (GBit/s) g4dn.xlarge 1 4 16 16 1 x 125 NVMe-SSD Bis zu 25 Bis zu 3,5 g4dn.2xlarge 1 8
32 16 1 x 225 NVMe-SSD Bis zu 25 Bis zu 3,5 g4dn.4xlarge 1 16 64 16 1 x 225 NVMe-SSD Bis zu 25 4,75 g4dn.8xlarge 1 32 128 16 1 x 900 NVMe-SSD 50 9,5 g4dn.16xlarge 1 64 256 16 1 x 900 NVMe-SSD 50 9,5 g4dn.12xlarge 4 48 192 64 1 x 900 NVMe-SSD 50 9,5 g4dn.metal 8 96 384 128 2 x 900 NVMe-SSD 100 19
Alle Instances haben die folgenden Spezifikationen:- 2,5 GHz Cascade Lake 24C Prozessoren
- Intel AVX, Intel AVX2, Intel AVX-512 und Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Machine Learning-Inferenz für Anwendungen wie dem Hinzufügen von Bild-Metadaten, Objektdetektion, Ratgebersysteme, automatische Spracherkennung und Übersetzungen. G4-Instances bieten zudem eine kostengünstige Plattform für die Entwicklung und Ausführung grafikintensiver Anwendungen wie externe Grafik-Workstations, Videotranscodierung, fotorealistisches Design und Game-Streaming in der Cloud.
- Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
-
G4ad
-
Amazon-EC2-G4ad-Instances bieten die beste Preisleistung für grafikintensive Anwendungen in der Cloud.
Funktionen:
- AMD-EPYC-Prozessoren der 2. Generation (AMD EPYC 7R32)
- AMD Radeon Pro V520 GPUs
- Bis zu 2,4 TB lokaler NVMe-Speicher
Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) g4ad.xlarge 1 4 16 8 1 x 150 NVMe-SSD Bis zu 10 Bis zu 3 g4ad.2xlarge 1 8 32 8 1 x 300 NVMe-SSD Bis zu 10 Bis zu 3 g4ad.4xlarge 1 16 64 8 1 x 600 NVMe-SSD Bis zu 10 Bis zu 3 g4ad.8xlarge 2 32 128 16 1 x 1 200 NVMe-SSD 15 3 g4ad.16xlarge 4 64 256 32 1 x 2 400 NVMe-SSD 25 6
Alle Instances haben die folgenden Spezifikationen:- AMD EPYC-Prozessoren der 2. Generation
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Grafikintensive Anwendungen wie Remote-Grafik-Workstations, Video-Transcodierung, fotorealistisches Design und Game-Streaming in der Cloud.
-
G3
-
Amazon-EC2-G3-Instances sind für grafikintensive Anwendungen optimiert.
Funktionen:
- Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4)
- NVIDIA Tesla M60 GPUs mit jeweils 2048 Parallelverarbeitungskernen und 8 GiB Videospeicher
- Ermöglicht NVIDIA GRID Virtual Workstation-Funktionen, einschließlich Unterstützung für 4 Monitore mit Auflösung von bis zu 4096 x 2160 Jede in Ihrer Instance enthaltene GPU ist für genau einen „gleichzeitig verbundenen Benutzer“ lizenziert
- Bietet NVIDIA GRID Virtual Application-Funktionen für Anwendungsvirtualisierungssoftware wie Citrix XenApp Essentials und VMware Horizon und unterstützt dabei bis zu 25 gleichzeitig verbundene Benutzer pro GPU
- Jede GPU kennzeichnet einen integrierten Hardware Videoencoder, welcher konzipiert ist um bis zu 10 H.265 (HEVC) 1080p30 Datenströme und bis zu 18 H.264 1080p30 Datenströme zu unterstützen – dies ermöglicht Frame-Erfassung und -Codierung mit geringer Latenz und hochwertiges interaktives Streaming
- Enhanced Networking mit Elastic Network Adaptor (ENA) mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Placement-Gruppe
Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung (Gbit/s)*** g3s.xlarge 1 4 30,5 8 Bis zu 10 g3.4xlarge 1 16 122 8 Bis zu 10 g3.8xlarge 2 32 244 16 10 g3.16xlarge 4 64 488 32 25 Alle Instances haben die folgenden Spezifikationen:
- 2.3 GHz (Basis) und 2.7 GHz (Turbo) Intel Xeon E5-2686 v4 Prozessoren
- Intel AVX, Intel AVX2, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Workloads.
-
Trn2
-
Amazon-EC2-Trn2-Instances, die von AWS-Trainium2-Chips angetrieben werden, wurden speziell für leistungsstarkes generatives KI-Training und die Inferenz von Modellen mit Hunderten von Milliarden bis über Billionen Parametern entwickelt.
Features:
- 16 AWS-Trainium2-Chips
- Unterstützt vom AWS Neuron SDK
- Skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
- Bis zu 12,8 Tbit/s Elastic Fabric Adapter (EFA)-Netzwerkbandbreite der dritten Generation
- Bis zu 8 TB lokaler NVMe-Speicher
- Hochgeschwindigkeits-Bandbreite, Verbindung innerhalb einer Instance und zwischen Instances mit NeuronLink
- In Amazon EC2 UltraClusters bereitgestellt und in EC2 UltraServers verfügbar (Vorschau)
- Amazon-EBS-optimiert
- Verbessertes Netzwerk
Instance-Größe Verfügbar in EC2 UltraServers Trainium2-Chips Beschleunigerspeicher (TB) vCPUs Arbeitsspeicher (TB) Instance
Speicher (TB)Netzwerk
Bandbreite (Tbit/s)***EBS-Bandbreite
(Gbit/s)trn2.48xlarge Nein 16 1,5 192 2 4 x 1,92 NVMe-SSD 3,2 80
trn2u.48xlarge Ja (Vorschau) 16 1,5 192 2 4 x 1,92 NVMe-SSD 3,2 80 Anwendungsfälle
Training und Inferenz der anspruchsvollsten Basismodelle, einschließlich großer Sprachmodelle (LLMs), multimodaler Modelle, Diffusionstransformers und mehr, um eine breite Palette generativer KI-Anwendungen der nächsten Generation zu entwickeln.
- 16 AWS-Trainium2-Chips
-
Trn1
-
Amazon-EC2-Trn1-Instances, die von AWS-Trainium-Chips unterstützt werden, sind speziell für leistungsstarkes Deep-Learning-Training konzipiert und bieten Einsparungen von bis zu 50 % bei den Trainingskosten gegenüber vergleichbaren Amazon-EC2-Instances.
Feature:
- 16 AWS-Trainium-Chips
- Unterstützt vom AWS-Neuron-SDK
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation (Ice Lake SP)
- Bis zu 1 600 Gbit/s Bandbreite für Elastic Fabric Adapter (EFA) der zweiten Generation
- Bis zu 8 TB lokaler NVMe-Speicher
- Hochgeschwindigkeits-Bandbreite, Verbindung innerhalb einer Instance mit NeuronLink
- Bereitgestellt in EC2-UltraCluster, die eine Skalierung auf bis zu 30 000 AWS-Trainium-Beschleuniger ermöglichen, verbunden mit nicht-blockierenden Netzwerken im Petabit-Bereich und skalierbarem Speicher mit geringer Latenz mit Amazon FSx für Lustre
- Amazon-EBS-optimiert
- Verbessertes Netzwerk
Instance-Größe Trainium-Chips Beschleunigerspeicher (GB) vCPUs Arbeitsspeicher (GiB) Instance
Speicher (GB)Netzwerk
Bandbreite (GBit/s)***EBS-Bandbreite
(Gbit/s)trn1.2xlarge 1 32 8 32 1 x 500 NVMe SSD
Bis zu 12,5 Bis zu 20
trn1.32xlarge 16 512 128 512 4 x 2 000 NVMe-SSD
800 80 trn1n.32xlarge 16 512 128 512 4 x 2 000 NVMe-SSD 1 600 80 Anwendungsfälle
Deep-Learning-Training für natürliche Sprachverarbeitung (NLP), Computer Vision, Suche, Empfehlung, Ranking und mehr
- 16 AWS-Trainium-Chips
-
Inf2
-
Amazon-EC2-Inf2-Instances wurden speziell für Deep-Learning-Inferenzen entwickelt. Sie liefern hohe Leistung zu den niedrigsten Kosten in Amazon EC2 für generative Modelle der künstlichen Intelligenz, einschließlich großer Sprachmodelle und Vision-Transformatoren. Inf2-Instances werden von AWS Inferentia2 betrieben. Diese neuen Instances bieten eine dreifach höhere Rechenleistung, einen vierfach höheren Beschleunigerspeicher, einen bis zu vierfach höheren Durchsatz und eine bis zu zehnmal geringere Latenz verglichen mit Inf1-Instances
Feature:
- Bis zu 12 AWS-Inferentia2-Chips
- Unterstützt vom AWS-Neuron-SDK
- Dual-AMD-EPYC-Prozessoren (AMD EPYC 7R13)
- Bis zu 384 GB gemeinsam genutzter Beschleunigerspeicher (32 GB HBM pro Beschleuniger)
- Bis zu 100 GBit/s Netzwerk
Instance-Größe Inferentia2-Chips
Beschleunigerspeicher (GB) vCPU Arbeitsspeicher (GB) Lokaler Speicher (GB) Inter-Beschleuniger-Verbindungen Netzwerkbandbreite (Gbit/s) EBS-Bandbreite (GBit/s) inf2.xlarge 1 32 4 16 Nur EBS n.a. Bis zu 15 Bis zu 10 inf2.8xlarge 1 32 32 128 Nur EBS Entf. Bis zu 25 10 inf2.24xlarge 6 192 96 384 Nur EBS Ja 50 30 inf2.48xlarge 12 384 192 768 Nur EBS Ja 100 60 Anwendungsfälle
Natürliches Sprachverständnis (fortgeschrittene Textanalyse, Dokumentenanalyse, Konversationsagenten), Übersetzung, Bild- und Videogenerierung, Spracherkennung, Personalisierung, Betrugserkennung und mehr.
-
Inf1
-
Amazon-EC2-Inf1-Instances sind von Grund auf neu entwickelt worden, um Inferenzanwendungen für Machine Learning zu unterstützen.
Funktionen:
- Bis zu 16 AWS-Inferentia-Chips
- Unterstützt vom AWS-Neuron-SDK
- Hochfrequente Intel-Xeon-Scalable-Prozessoren der 2. Generation (Cascade Lake P-8259L)
- Bis zu 100 GBit/s Netzwerk
Instance-Größe Inferentia-Chips vCPUs Arbeitsspeicher (GiB) Instance-Speicher Inter-Beschleuniger-Verbindungen Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite inf1.xlarge 1 4 8 Nur EBS n.a. Bis zu 25 Bis zu 4,75 inf1.2xlarge 1 8 16 Nur EBS n.a. Bis zu 25 Bis zu 4,75 inf1.6xlarge 4 24 48 Nur EBS Ja 25 4,75 inf1.24xlarge 16 96 192 Nur EBS Ja 100 19 Anwendungsfälle
Empfehlungs-Engines, Prognosen, Bild- und Videoanalyse, erweiterte Textanalytik, Dokumentenanalyse, Sprache, Gesprächsagenten, Übersetzung, Transkription und Betrugserkennung.
-
DL1
-
Amazon-EC2-DL1-Instances werden von Gaudi-Beschleunigern von Habana Labs (einem Intel-Unternehmen) angetrieben. Diese neuen Instances liefern eine bis zu 40-prozentige Preis-Leistungs-Verbesserung im Vergleich zu aktuellen GPU-basierten EC2-Instances zum Trainieren von Deep-Learning-Modellen.
Funktionen:
- Skalierbarer Intel-Xeon-Prozessor der 2. Generation (Cascade Lake P-8275CL)
- Bis zu 8 Gaudi-Beschleuniger mit 32 GB Speicher mit hoher Bandbreite (HBM) pro Beschleuniger
- Bis zu 400 GBit/s Netzwerkdurchsatz
- 4 TB lokaler NVMe-Speicher
Instance-Größe
vCPU
Gaudi-Beschleuniger
Instance-Arbeitsspeicher (GiB)
Instance-Speicher (GB)
Beschleuniger Peer-to-Peer Bidirektional
(Gbit/s)Netzwerkbandbreite (Gbps)
EBS-Bandbreite (GBit/s)
dl1.24xlarge
96
8
768
4 x 1 000 NVMe-SSD
100
400
19
DL1-Instances haben die folgenden Spezifikationen:
- Skalierbarer Intel Xeon-Prozessor der 2. Generation
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Deep-Learning-Training, Objekterkennung, Bilderkennung, Verarbeitung natürlicher Sprache und Empfehlungsmaschinen.
- Skalierbarer Intel-Xeon-Prozessor der 2. Generation (Cascade Lake P-8275CL)
-
DL2q
-
Amazon EC2 DL2q-Instances, die von Qualcomm AI 100-Beschleunigern unterstützt werden, können verwendet werden, um Deep-Learning-Workloads (DL) kosteneffizient in der Cloud bereitzustellen oder die Leistung und Genauigkeit von DL-Workloads zu überprüfen, die auf Qualcomm-Geräten bereitgestellt werden.
Features:
- 8 Qualcomm AI 100-Beschleuniger
- Unterstützt von Qualcomm Cloud AI Platform und Apps SDK
- Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
- Bis zu 128 GB gemeinsam genutzter Beschleunigerspeicher
- Bis zu 100 GBit/s Netzwerk
Instance-Größe Qualcomm AI 100 Beschleuniger
Beschleunigerspeicher (GB) vCPU Arbeitsspeicher (GB) Lokaler Speicher (GB) Inter-Beschleuniger-Verbindungen Netzwerkbandbreite (Gbit/s) EBS-Bandbreite (Gbit/s) dl2q.24xlarge 8 128 96 768 Nur EBS Nein 100 19 Anwendungsfälle
Führen Sie beliebte DL- und generative KI-Anwendungen wie Inhaltsgenerierung, Bildanalyse, Textzusammenfassung und virtuelle Assistenten aus.; Validieren Sie KI-Workloads, bevor Sie sie auf Smartphones, Automobilen, Robotern und Extended-Reality-Headsets einsetzen.
-
F1
-
Amazon-EC2-F1-Instances bieten anpassbare Hardwarebeschleunigung mit Field Programmable Gate Arrays (FPGAs).
Instance-Funktionen:
- Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4)
- NVMe-SSD-Speicher
- Unterstützung für Enhanced Networking
FPGA-Funktionen:
- Xilinx Virtex UltraScale+ VU9P FPGAs
- 64 GiB ECC-geschützter Speicher auf 4 DDR4
- Dedizierte PCI-Express x16-Schnittstelle
- Ca. 2,5 Millionen logische Elemente
- Ca. 6.800 digitale Signalverarbeitungsmodule
- FPGA Developer AMI
Instance FPGAs vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** f1.2xlarge 1 8 122 1 x 470 Bis zu 10 f1.4xlarge 2 16 244 1 x 940 Bis zu 10 f1.16xlarge 8 64 976 4 x 940 25 Bei f1.16xgroßen Instanzen ermöglicht die dedizierte PCI-e-Fabric den FPGAs die gemeinsame Nutzung desselben Speicherplatzes und die Kommunikation untereinander über die Fabric mit bis zu 12 Gbit/s in jeder Richtung.
Alle Instances haben die folgenden Spezifikationen:
- 2.3 GHz (Basis) und 2.7 GHz (Turbo) Intel Xeon E5-2686 v4 Prozessoren
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Genomforschung, Finanzanalysen, Videoverarbeitung in Echtzeit, Big Data-Suche und -Analyse und Sicherheit.
-
VT1
-
Amazon-EC2-VT1-Instances sind für die kostengünstige Echtzeit-Videotranskodierung mit Unterstützung für eine UHD-Auflösung von bis zu 4K ausgelegt.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
- Bis zu 8 Xilinx U30 Medienbeschleunigerkarten mit beschleunigten H.264/AVC- und H.265/HEVC-Codecs
- Bis zu 25 GBit/s verstärkter Netzwerkdurchsatz
- Bis zu 19 Gbit/s an EBS-Bandbreite
Instance-Größe
U30 Accelerators
vCPU
Arbeitsspeicher (GiB)
Netzwerkbandbreite (Gbps)
EBS-Bandbreite
(Gbit/s)1080p60 Streams
4Kp60 Streams
vt1.3xlarge
1
12
24
3 125
Bis zu 4,75
8
2
vt1.6xlarge
2
24
48
6,25
4,75
16
4
vt1.24xlarge
8
96
192
25
19
64
16
Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 2. Generation
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Live-Übertragung von Veranstaltungen, Videokonferenzen und Just-in-Time-Transkodierung.
- Skalierbare Intel-Xeon-Prozessoren der 2. Generation (Cascade Lake P-8259CL)
Jede vCPU ist ein Thread entweder eines Intel-Xeon-Kerns oder eines AMD-EPYC-Kerns, mit Ausnahme von T2 und m3.medium.
† AVX, AVX2, AVX-512 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.
*** Instances, die mit "Bis zu" Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.
Speicheroptimiert
Speicherplatzoptimierte Instances sind für Workloads konzipiert, die einen hohen, sequentiellen Lese- und Schreibzugriff auf sehr große Datenmengen im lokalen Speicher erfordern. Sie sind so optimiert, dass sie Anwendungen Zehntausende von zufälligen I/O-Vorgängen (IOPS) mit geringer Latenz pro Sekunde ermöglichen.
-
I8g
-
I7ie
-
I4g
-
Im4gn
-
Is4gen
-
I4i
-
I3
-
I3en
-
D3
-
D3en
-
D2
-
H1
-
I8g
-
Amazon-EC2-I8g-Instances werden von AWS-Graviton4-Prozessoren und AWS Nitro SSDs der 3. Generation angetrieben. Sie bieten die beste Rechen- und Speicherleistung unter den speicheroptimierten Amazon-EC2-Instances.
Features:
- Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
- Mit bis zu 22,5 TB lokalem NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs der 3. Generation.
- Verfügen über den neuesten DDR5-5600-Arbeitsspeicher
- Bis zu 56,25 Gbit/s Netzwerkbandbreite
- Bis zu 30 GBit/s Bandbreite zu Amazon Elastic Block Store (EBS)
- Angetrieben vom AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) i8g.large 2 16 1 x 468 GB = 468 GB Bis zu 10 Bis zu 10 i8g.xlarge 4 32 1 x 937 GB = 937 GB Bis zu 10 Bis zu 10 i8g.2xlarge 8 64 1 x 1 875 GB = 1 875 GB Bis zu 12 Bis zu 10 i8g.4xlarge 16 128 1 x 3 750 GB = 3 750 GB Bis zu 25 Bis zu 10 i8g.8xlarge 32 256 2 x 3 750 GB = 7 500 GB Bis zu 25 10 i8g.12xlarge 48 384 3 x 3 750 GB = 11 250 GB Bis zu 28,125 15 i8g.16xlarge 64 512 4 x 3 750 GB = 15 000 GB Bis zu 37,5 20 i8g.24xlarge 96 768 6 x 3 750 GB = 22 500 GB Bis zu 56,25 30 i8g.metal-24xl 96 768 6 x 3 750 GB = 22 500 GB Bis zu 56,25 30 Alle Instances haben die folgenden Spezifikationen:
- Speziell angefertigter AWS-Graviton4-Prozessor
- Optimiert für Amazon EBS
- Verbessertes Netzwerk†
Anwendungsfälle
I/O-intensive Workloads, die einen Latenzzugriff in Echtzeit auf Daten wie relationale Datenbanken (MySQL und PostgreSQL), Echtzeitdatenbanken, NoSQL-Datenbanken (Aerospike, Apache Druid, Clickhouse, MongoDB) und Echtzeitanalytik wie Apache Spark erfordern.
- Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
-
I7ie
-
Amazon-EC2-I7ie-Instances werden von einem skalierbaren Intel-Xeon-Prozessor der 5. Generation und AWS Nitro SSDs der 3. Generation angetrieben. Diese liefern die höchste lokale NVMe-Speicherdichte in der Cloud.
Features:
- Angetrieben von skalierbaren Intel-Xeon-Prozessoren der 5. Generation mit bis zu 3,2 GHz (Emerald Rapids 8559C)
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
- Mit bis zu 120 TB lokalem NVMe-SSD-Instance-Speicher mit AWS Nitro SSD der 3. Generation
- Zwei neue virtuelle Größen i7ie.18xlarge und i7ie.48xlarge
- Verfügen über den neuesten DDR5-5600-Speicher
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Bis zu 100 Gbit/s Netzwerkbandbreite
- Bis zu 60 GBit/s Bandbreite zu Amazon Elastic Block Store (EBS)
- Unterstützt Elastic Fabric Adapter (EFA) auf i7ie.48xlarge
- Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
- Angetrieben vom AWS Nitro System, einer Kombination aus dedizierter Hardware und Software
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (Gbit/s) i7ie.large 2 16 1 x 1 250 GB = 1 250 GB Bis zu 25 Bis zu 10 i7ie.xlarge 4 32 1 x 2 500 GB = 2 500 GB Bis zu 25 Bis zu 10 i7ie.2xlarge 8 64 2 x 2 500 GB = 5 000 GB Bis zu 25 Bis zu 10 i7ie.3xlarge 12 96 1 x 7 500 GB = 7 500 GB Bis zu 25 Bis zu 10 i7ie.6xlarge 24 192 2 x 7 500 GB = 15 000 GB Bis zu 25 Bis zu 10 i7ie.12xlarge 48 384 4 x 7 500 GB = 30 000 GB Bis zu 50 15 i7ie.18xlarge 72 576 6 x 7 500 GB = 45 000 GB Bis zu 75 22,5 i7ie.24xlarge 96 768 8 x 7 500 GB = 60 000 GB Bis zu 100 30 i7ie.48xlarge 192 1 536 16 x 7 500 GB = 120 000 GB 100 60 Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 5. Generation
- Optimiert für Amazon EBS
- Verbessertes Netzwerk†
Anwendungsfälle
Anwendungen, die einen hohen Durchsatz und Echtzeit-Latenzzugriff auf große Datenmengen erfordern, die sich auf Instance-Speichern wie NoSQL-Datenbanken (z. B. Cassandra, MongoDB, Aerospike, HBase, RocksDB), verteilten Dateisystemen, Suchmaschinen und Analysen befinden.
- Angetrieben von skalierbaren Intel-Xeon-Prozessoren der 5. Generation mit bis zu 3,2 GHz (Emerald Rapids 8559C)
-
I4g
-
Amazon-EC2-I4g-Instances sind von AWS-Graviton2-Prozessoren angetrieben und bieten die beste Preisleistung für speicherintensive Workloads in Amazon EC2. I4g-Instances bieten im Vergleich zu ähnlichen speicheroptimierten Instances eine um bis zu 15 % bessere Rechenleistung.
Funktionen:
- Angetrieben von AWS-Graviton2-Prozessoren
- Mit bis zu 15 TB NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs, die im Vergleich zu I3- und I3en-Instances eine um bis zu 60 % niedrigere E/A-Latenz und eine um bis zu 75 % reduzierte Latenzschwankung bieten und über eine ständig aktive Verschlüsselung verfügen
- Optimiert für Workloads, die bis zu 8 GB Speicher pro vCPU abbilden
- Bis zu 38 GBit/s Netzwerkbandbreite mit einem auf Elastic Network Adapter (ENA) basiertem erweiterten Netzwerk
- Unterstützt Elastic Fabric Adapter (EFA) in i4g.16xlarge-Instances
- Bis zu 20 GBit/s Bandbreite zum Amazon Elastic Block Store (EBS)
- Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Unterstützung für Torn Write Prevention (TWP), um zusätzliche Leistung zu erzielen und Latenzen bei Datenbank-Workloads wie MySQL und MariaDB zu reduzieren.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit) EBS-Bandbreite (GBit/s) i4g.large 2 16 1 x 468 GB = 468 GB Bis zu 10 Bis zu 10 i4g.xlarge 4 32 1 x 937 GB = 937 GB Bis zu 10 Bis zu 10 i4g.2xlarge 8 64 1 x 1 875 GB = 1 875 GB Bis zu 12 Bis zu 10 i4g.4xlarge 16 128 1 x 3 750 GB = 3 750 GB Bis zu 25 Bis zu 10 i4g.8xlarge 32 256 2 x 3 750 GB = 7 500 GB 18,75 10 i4g.16xlarge 64 512 4 x 3 750 GB = 15 000 GB 37,5 20 Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Amazon-EC2-I4g-Instances sind für I/O-intensive Anwendungen optimiert und richten sich an Kunden, die Transaktionsdatenbanken (Amazon DynamoDB, MySQL und PostgreSQL), Amazon OpenSearch Service und Echtzeitanalysen wie Apache Spark verwenden.
-
Im4gn
-
Amazon-EC2-Im4gn-Instances werden von AWS-Graviton2-Prozessoren angetrieben und bieten die beste Preisleistung für speicherintensive Arbeitslasten in Amazon EC2. Sie bieten eine bis zu 40 % bessere Preisleistung und bis zu 44 % niedrigere Kosten pro TB Speicherplatz als I3-Instances.
Funktionen:
- Angetrieben von AWS-Graviton2-Prozessoren
- Mit bis zu 30 TB NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs, die im Vergleich zu I3- und I3en-Instances eine um bis zu 60 % niedrigere E/A-Latenz und eine um bis zu 75 % reduzierte Latenzschwankung bieten und über eine ständig aktive Verschlüsselung verfügen
- Optimiert für Workloads, die 4 GB Speicher pro vCPU abbilden
- Zweifache NVMe-SSD-Speicherdichte pro vCPU im Vergleich zu I3-Instances
- Bis zu 100 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
- Unterstützung für Elastic Fabric Adapter auf im4gn.16xlarge
- Bis zu 38 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Unterstützung für Torn Write Prevention (TWP), um zusätzliche Leistung zu erzielen und Latenzen bei Datenbank-Workloads wie MySQL und MariaDB zu reduzieren.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) im4gn.large 2 8 1 x 937 AWS Nitro SSD Bis zu 25 Bis zu 9,5 im4gn.xlarge 4 16 1 x 1 875 AWS Nitro SSD Bis zu 25 Bis zu 9,5 im4gn.2xlarge 8 32 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 9,5 im4gn.4xlarge 16 64 1 x 7 500 AWS Nitro SSD 25 9,5 im4gn.8xlarge 32 128 2 x 7 500 AWS Nitro SSD 50 19 im4gn.16xlarge 64 256 4 x 7 500 AWS Nitro SSD 100 38 Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Diese Instances maximieren die Anzahl der pro Sekunde verarbeiteten Transaktionen (TPS) für E/A-intensive und geschäftskritische Workloads mit mittelgroßen Datensätzen, die von einer hohen Rechenleistung und einem hohen Netzwerkdurchsatz profitieren können, wie beispielsweise relationale Datenbanken (MySQL, MariaDB und PostgreSQL) und NoSQL-Datenbanken (KeyDB, ScyllaDB und Cassandra). Sie eignen sich auch ideal für Workloads, die einen sehr schnellen Zugriff auf mittelgroße Datensätze auf lokalem Speicher benötigen, wie zum Beispiel Suchmaschinen und Workloads zur Datenanalytik.
- Angetrieben von AWS-Graviton2-Prozessoren
-
Is4gen
-
Amazon-EC2-Is4gen-Instances werden von AWS-Graviton2-Prozessoren angetrieben und bieten die niedrigsten Kosten pro TB SSD-Speicher und die höchste Dichte an SSD-Speicher pro vCPU in Amazon EC2 für speicherintensive Workloads. Diese Instances ermöglichen 15 % niedrigere Kosten pro TB Speicher und eine bis zu 48 % bessere Rechenleistung im Vergleich zu I3en-Instances.
Funktionen:
- Angetrieben von AWS-Graviton2-Prozessoren
- Mit bis zu 30 TB NVMe-SSD-Instance-Speicher mit AWS Nitro SSDs, die im Vergleich zu I3- und I3en-Instances eine um bis zu 60 % niedrigere E/A-Latenz und eine um bis zu 75 % reduzierte Latenzschwankung bieten und über eine ständig aktive Verschlüsselung verfügen
- Optimiert für Workloads, die bis zu 6 GB Speicher pro vCPU abbilden
- 50 % mehr NVMe-SSD-Speicher pro vCPU im Vergleich zu I3en
- Bis zu 50 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
- Bis zu 19 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Unterstützung für Torn Write Prevention (TWP), um zusätzliche Leistung zu erzielen und Latenzen bei Datenbank-Workloads wie MySQL und MariaDB zu reduzieren.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (Gbit/s) is4gen.medium 1 6 1 x 937 AWS Nitro SSD Bis zu 25 Bis zu 9,5 is4gen.large 2 12 1 x 1 875 AWS Nitro SSD Bis zu 25 Bis zu 9,5 is4gen.xlarge 4 24 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 9,5 is4gen.2xlarge 8 48 1 x 7 500 AWS Nitro SSD Bis zu 25 Bis zu 9,5 is4gen.4xlarge 16 96 2 x 7 500 AWS Nitro SSD 25 9,5 is4gen.8xlarge 32 192 4 x 7 500 AWS Nitro SSD 50 19 Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Diese Instances maximieren die Anzahl der pro Sekunde verarbeiteten Transaktionen (TPS) für E/A-fordernde Arbeitslasten, die große Datensätze aufweisen und die höchste NVMe-Speicherdichte pro vCPU abbilden können, wie beispielsweise NoSQL-Datenbanken (KeyDB, MongoDB, ScyllaDB und Cassandra), die große Datensätze aufweisen und die höchste NVMe-Speicherdichte pro vCPU abbilden können. Sie sind auch ideal für Workloads, die eine höhere Speicherdichte und einen sehr schnellen Zugriff auf große Datenmengen auf lokalem Speicher erfordern, wie Suchmaschinen (Splunk und Elasticsearch), Daten-Streaming und große verteilte Dateisysteme.
- Angetrieben von AWS-Graviton2-Prozessoren
-
I4i
-
Amazon-EC2-i4i-Instances werden von skalierbaren Intel Xeon-Prozessoren der 3. Generation (Ice Lake) angetrieben und bieten mithilfe von AWS-Nitro-NVMe-SSDs die höchste lokale Speicherleistung innerhalb von Amazon EC2.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Bis zu 30 % bessere Rechenpreisleistung als I3-Instances
- Bis zu 30 TB NVMe-Speicher von AWS Nitro SSDs, die eine um bis zu 60 % niedrigere E/A-Speicherlatenz und eine um bis zu 75 % niedrigere E/A-Speicherlatenzschwankung im Vergleich zu I3-Instances bieten
- Bis zu 75 GBit/s Netzwerkgeschwindigkeit
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 1 024 GiB Arbeitsspeicher
- Unterstützt Elastic Fabric Adapter in der 32xlarge-Größe
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Auf AWS Nitro System entwickelt, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
- Unterstützung für Torn Write Prevention (TWP), um zusätzliche Leistung zu erzielen und Latenzen bei Datenbank-Workloads wie MySQL und MariaDB zu reduzieren.
Instance-Größe vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** EBS-Bandbreite (GBit/s) i4i.large 2 16 1 x 468 AWS Nitro SSD Bis zu 10 Bis zu 10 i4i.xlarge 4 32 1 x 937 AWS Nitro SSD Bis zu 10 Bis zu 10 i4i.2xlarge 8 64 1 x 1 875 AWS Nitro SSD Bis zu 12 Bis zu 10 i4i.4xlarge 16 128 1 x 3 750 AWS Nitro SSD Bis zu 25 Bis zu 10 i4i.8xlarge 32 256 2 x 3 750 AWS Nitro SSD 18,75 10 i4i.12xlarge 48 384 3 x 3750 AWS Nitro SSD 28,12 15 i4i.16xlarge 64 512 4 x 3 750 AWS Nitro SSD 37,5 20 i4i.24xlarge 96 768 6 x 3750 AWS Nitro SSD 56,25 30 i4i.32xlarge 128 1 024 8 x 3 750 AWS Nitro SSD 75 40 i4i.metal 128 1 024 8 x 3 750 AWS Nitro SSD 75 40 Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Diese Instances wurden entwickelt, um die Transaktionen pro Sekunde (TPS) für E/A-lastige Workloads zu maximieren, die einen sehr schnellen Zugriff auf kleine bis mittelgroße Datensätze auf lokalem Speicher wie transaktionalen Datenbanken (z. B. MySQL, Oracle DB und Microsoft SQL Server) und NoSQL-Datenbanken (z. B. MongoDB, Couchbase, Aerospike und Redis) erfordern. I4i-Instances eignen sich auch ideal für Workloads, die von einer hohen Rechenleistung pro TB Speicherplatz profitieren, wie z. B. Datenanalyse und Suchmaschinen.
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
-
I3
-
Diese Instance-Familie bietet NVMe-Schnittstellen (Nonvolatile Memory Express) für SSD-gestützten Instance-Speicher – optimiert für geringe Latenz, sehr hohe Random-E/A-Leistung, hohen sequentiellen Durchsatz und hohe IOPS bei niedrigen Kosten. I3 bietet ebenfalls Bare-Metal-Instances (i3.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.
Funktionen:
- Skalierbare Hochfrequenz Intel Xeon Prozessoren (Broadwell E5-2686 v4) mit einer Basisfrequenz von 2,3 GHz
- Bis zu 25 Gbit/s Netzwerkbandbreite mit ENA-basiertem Enhanced Networking (Elastic Network Adapter).
- Hohe zufällige I/O-Leistung und hoher sequenzieller Lesedurchsatz
- Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
Instance vCPU* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung (Gbit/s)*** i3.large 2 15,25 1 x 475 NVMe-SSD Bis zu 10 i3.xlarge 4 30,5 1 x 950 NVMe-SSD Bis zu 10 i3.2xlarge 8 61 1 x 1 900 NVMe-SSD Bis zu 10 i3.4xlarge 16 122 2 x 1 900 NVMe-SSD Bis zu 10 i3.8xlarge 32 244 4 x 1 900 NVMe-SSD 10 i3.16xlarge 64 488 8 x 1 900 NVMe-SSD 25 i3.metal 72** 512 8 x 1 900 NVMe-SSD 25 Alle Instances haben die folgenden Spezifikationen:
- 2.3 GHz Intel Xeon E5 2686 v4 Processor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Kleine bis mittelgroße NoSQL-Datenbanken (z. B. Cassandra, MongoDB, Aerospike), In-Memory-Datenbanken (z. B. Redis), skalierbare Transaktionsdatenbanken, Data Warehousing, Elasticsearch, analytische Workloads.
-
I3en
-
Diese Instance-Familie bietet einen dichten, Non-Volatile Memory Express (NVMe) SSD-Instance-Speicher, der für niedrige Latenzzeiten, hohe zufällige I/O-Leistung, hohen sequentiellen Festplattendurchsatz optimiert ist, und bietet den niedrigsten Preis pro GB SSD-Instance-Speicher auf Amazon EC2. I3en bietet ebenfalls Bare Metal-Instances (i3en.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.
Funktionen:
- Bis zu 60 TB NVMe SSD Instance-Speicher
- Bis zu 100 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
- Hohe zufällige E/A-Leistung und hoher sequentieller Festplattendurchsatz
- Skalierbare Intel® Xeon® Prozessoren mit bis zu 3,1 GHz (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512)-Befehlssatz
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
- Unterstützung für Elastic Fabric Adapter auf i3en.24xlarge
Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkbandbreite (Gbit/s)*** i3en.large 2 16 1 x 1 250 NVMe-SSD
Bis zu 25 i3en.xlarge 4 32 1 x 2 500 NVMe-SSD
Bis zu 25 i3en.2xlarge 8 64 2 x 2 500 NVMe-SSD
Bis zu 25 i3en.3xlarge 12 96 1 x 7 500 NVMe-SSD
Bis zu 25 i3en.6xlarge 24 192 2 x 7 500 NVMe-SSD
25 i3en.12xlarge 48 384 4 x 7 500 NVMe-SSD
50 i3en.24xlarge
96 768 8 x 7 500 NVMe-SSD
100 i3en.metal 96 768 8 x 7 500 NVMe-SSD 100 Alle Instances haben die folgenden Spezifikationen:
- 3.1 GHz all core turbo Intel® Xeon® Scalable (Skylake)-Prozessoren
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Kleine bis große NoSQL-Datenbanken (z. B. Cassandra, MongoDB, Aerospike), In-Memory-Datenbanken (z. B. Redis), skalierbare Transaktionsdatenbanken, verteilte Dateisysteme, Data Warehousing, Elasticsearch, Analyse-Workloads.
-
D3
-
Amazon-EC2-D3-Instances sind für Anwendungen optimiert, die eine hohe sequentielle E/A-Leistung und einen hohen Festplattendurchsatz erfordern. D3-Instances stellen einen optimalen Upgrade-Pfad für Workloads dar, die auf D2-Instances ausgeführt werden und zusätzliche Rechen- und Netzwerkleistung zu einem niedrigeren Preis/TB benötigen.
Funktionen:
- Bis zu 3,1 GHz skalierbare Intel® Xeon® Prozessoren der 2. Generation (Intel Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
- Bis zu 48 TB HDD-Instance-Speicher
- Bis zu 45 % höherer Lese- und Schreibdurchsatz als bei EC2 D2-Instances
- AWS Nitro-System-basiert
Instance-Größe
vCPU
Arbeitsspeicher (GiB)
Instance-Speicher (TB)
Aggregierter Festplattendurchsatz (MiB/s) Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Mbit/s)
d3.xlarge
4
32
3 x 2 HDD
580
Bis zu 15
850
d3.2xlarge
8
64
6 x 2 HDD
1.100
Bis zu 15
1.700
d3.4xlarge
16
128
12 x 2 HDD
2.300
Bis zu 15
2.800
d3.8xlarge
32
256
24 x 2 HDD
4.600
25
5.000
*128.000 Blockgrößen, sequentielles Lesen und Schreiben (auf 100 gerundet, außer xlarge)
Alle Instances haben die folgenden Spezifikationen:
- Bis zu 3,1 GHz Intel® Xeon® Scalable (Cascade Lake)-Prozessoren der 2. Generation
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- Enhanced Networking
Anwendungsfälle
Verteilte Dateisysteme (z. B. HDFS, MapReduce-Dateisysteme), analytische Big-Data-Arbeitslasten (z. B. Elastic MapReduce, Spark, Hadoop), massiv parallele Verarbeitung (MPP), Datenlager (z. B. Redshift, HP Vertica), Protokoll- oder Datenverarbeitungsanwendungen (z. B. Kafka, Elastic Search)
- Bis zu 3,1 GHz skalierbare Intel® Xeon® Prozessoren der 2. Generation (Intel Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
-
D3en
-
Amazon-EC2-D3en-Instances sind für Anwendungen optimiert, die eine hohe sequentielle E/A-Leistung, einen hohen Festplattendurchsatz und einen kostengünstigen Speicher für sehr große Datenmengen erfordern. D3en-Instances bieten die niedrigsten Speicherkosten unter allen Cloud-Angeboten.
Funktionen:
- Bis zu 3,1 GHz skalierbare Intel® Xeon® Prozessoren der 2. Generation (Intel Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
- Bis zu 336 TB HDD-Instance-Speicher
- Bis zu 75 Gbit/s Netzwerkbandbreite
- Bis zu 2x höherer Lese- und Schreibdurchsatz als bei EC2 D2-Instances
- AWS Nitro-System-basiert
Instance-Größe
vCPU
Arbeitsspeicher (GiB)
Instance-Speicher (TB)
Aggregierter Festplattendurchsatz (MiB/s) Netzwerkbandbreite (Gbit/s)***
EBS-Bandbreite (Mbit/s)
d3en.xlarge
4
16
2 x 14 HDD
500
Bis zu 25
850
d3en.2xlarge
8
32
4 x 14 HDD
1.000
Bis zu 25
1.700
d3en.4xlarge
16
64
8 x 14 HDD
2.000
25
2.800
d3en.6xlarge
24
96
12 x 14 HDD
3.100
40
4.000
d3en.8xlarge
32
128
16 x 14 HDD
4.100
50
5.000
d3en.12xlarge
48
192
24 x 14 HDD
6.200
75
7.000
*128.000 Blockgrößen, sequentielles Lesen und Schreiben (auf 100 gerundet)
Alle Instances haben die folgenden Spezifikationen:
- 3,1 GHz All Core Turbo Intel® Xeon® Scalable (Cascade Lake)-Prozessoren der 2. Generation
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- Enhanced Networking
Anwendungsfälle
Dateispeichersysteme mit mehreren Knoten wie Lustre, BeeGFS, GPFS, VxCFS und GFS2. Data Lakes mit hoher Kapazität und konsistenter sequentieller E-/A-Leistung
- Bis zu 3,1 GHz skalierbare Intel® Xeon® Prozessoren der 2. Generation (Intel Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512) Befehlssatz
-
D2
-
Amazon-EC2-D2-Instances bieten bis zu 48 TB lokale Speicherung auf HDD, hohen Datenträgerdurchsatz und den niedrigsten Preis pro Datenträger-Durchsatzleistung auf Amazon EC2.
Funktionen:
- Skalierbare Hochfrequenz-Intel Xeon-Prozessoren (Haswell E5-2676 v3)
- HDD-Speicher
- Kontinuierlich hohe Leistung beim Start
- Hoher Datenträgerdurchsatz
- Unterstützung für Enhanced Networking
Instance vCPU* Arbeitsspeicher (GiB) Instance-Speicher (GB) Netzwerkleistung d2.xlarge 4 30,5 3 x 2.000 HDD Mittel d2.2xlarge 8 61 6 x 2 000 HDD Hoch d2.4xlarge 16 122 12 x 2 000 HDD Hoch d2.8xlarge 36 244 24 x 2 000 HDD 10 GBit/s Alle Instances haben die folgenden Spezifikationen:
- 2.4 GHz Intel Xeon E5-2676 v3 Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Data Warehouses mit massiver Parallelverarbeitung (MPP), verteiltes Computing mit MapReduce und Hadoop, verteilte Dateisysteme, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen.
-
H1
-
Amazon-EC2-H1-Instances haben bis zu 16 TB lokalen, HDD-basierten Festplattenspeicher, liefern hohen Datenträgerdurchsatz und bieten ein Gleichgewicht zwischen Rechenleistung und Arbeitsspeicher.
Funktionen:
- Angetrieben von einem skalierbaren Intel Xeon-Prozessor mit 2,3 GHz (Broadwell E5 2686 v4)
- Bis zu 16 TB HDD-Speicher
- Hoher Datenträgerdurchsatz
- Enhanced Networking von bis zu 25 Gbit/s dank ENA
Instance vCPU* Arbeitsspeicher (GiB) Netzwerkleistung (Gbit/s)*** Instance-Speicher (GB) h1.2xlarge 8 32 Bis zu 10 1 x 2 000 HDD h1.4xlarge 16 64 Bis zu 10 2 x 2 000 HDD h1.8xlarge 32 128 10 4 x 2 000 HDD h1.16xlarge 64 256 25 8 x 2 000 HDD Alle Instances haben die folgenden Spezifikationen:
- 2.3 GHz Intel Xeon E5 2686 v4 Processor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Verbessertes Netzwerk†
Anwendungsfälle
Auf MapReduce basierende Workloads, verteilte Dateisysteme wie HDFS und MapR-FS, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen wie Apache Kafka und Big Data-Workloadcluster.
** i3.metal bietet 72 logische Prozessoren auf 36 physischen Kernen.
Suchen Sie Instances früherer Generationen, die hier nicht aufgelistet sind? Lesen Sie hierzu die Seite Instances der vorherigen Generation.
HPC-optimiert
High Performance Computing (HPC)-Instances wurden speziell entwickelt, um die beste Preisleistung für die Ausführung von HPC-Workloads in großem Maßstab in AWS zu bieten. HPC-Instances sind ideal für Anwendungen, die von Hochleistungsprozessoren profitieren, wie z. B. große, komplexe Simulationen und Deep-Learning-Workloads.
-
HPC 7 g
-
Hpc7a
-
Hpc6id
-
Hpc6a
-
HPC 7 g
-
Amazon-EC2-Hpc7g-Instances sind für rechenintensive Workloads von High Performance Computing (HPC) wie Computational Fluid Dynamics (CFD), Wettervorhersagen und Molekulardynamik konzipiert.
Funktionen:
- Bis zu 64 Kerne von Graviton3E-Prozessoren mit 128 GiB Speicher
- Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 200 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe Physische Kerne Arbeitsspeicher (GiB) Instance-Speicher EFA-Netzwerkbandbreite (Gbit/s) Netzwerkbandbreite (Gbit/s*) hpc7g.4xlarge 16 128 Nur EBS 200 25 hpc7g.8xlarge 32 128 Nur EBS 200 25 hpc7g.16xlarge 64 128 Nur EBS 200 25 *500 Mbit/s Netzwerkbandbreite außerhalb der Virtual Private Cloud (VPC) und Amazon Simple Storage Service (Amazon S3) -
Hpc7a
-
Amazon-EC2-Hpc7a-Instances verfügen über AMD-EPYC-Prozessoren der 4. Generation und sind für eng gekoppelte, rechenintensive High Performance Computing (HPC)-Workloads wie Computational Fluid Dynamics (CFD), Wettervorhersagen und multiphysikalische Simulationen konzipiert.
Features:
- Bis zu 192 Kerne von AMD-EPYC-Prozessoren der 4. Generation mit 768 GB Arbeitsspeicher (AMD EPYC 9R14)
- Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 300 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe Physische Kerne Arbeitsspeicher (GiB) Instance-Speicher EFA-Netzwerkbandbreite (Gbit/s) Netzwerkbandbreite (Gbit/s)* hpc7a.12xlarge
24
768
Nur EBS 300
25
hpc7a.24xlarge
48
768
Nur EBS 300
25
hpc7a.48xlarge
96
768
Nur EBS 300
25
hpc7a.96xlarge
192
768
Nur EBS 300
25
*500 Mbit/s Netzwerkbandbreite außerhalb der Virtual Private Cloud (VPC) und Amazon Simple Storage Service (Amazon S3).
-
Hpc6id
-
Amazon-EC2-Hpc6id-Instances sind für arbeitsspeichergebundene und datenintensive High-Performance-Computing-Workloads (HPC) wie Finite-Element-Analysen (FEA) für Absturz-Simulationen, seismische Lagerstättensimulationen und strukturellen Simulationen vorgesehen.
Funktionen:
- Bis zu 3,5 GHz All-Core-Turbofrequenz, 64 Kerne von Intel-Xeon-Scalable-Prozessoren mit 5 GB/s pro vCPU Speicherbandbreite und 1 024 GB Speicher
- Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 200 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
- Simultanes Multi-Threading ist deaktiviert, um Leistung und Cluster-Management zu optimieren
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe Kerne Arbeitsspeicher (GB) SSD-Speicher (GB) Netzwerkbandbreite (GBit/s)* EFA-Netzwerkbandbreite (Gbps) hpc6id.32xlarge 64 1 024 4 x 3800 (NVMe-SSD) 25 200 *500 Gbit/s Netzwerkbandbreite außerhalb der Virtual Private Cloud (VPC) und Amazon Simple Storage Service (S3) - Bis zu 3,5 GHz All-Core-Turbofrequenz, 64 Kerne von Intel-Xeon-Scalable-Prozessoren mit 5 GB/s pro vCPU Speicherbandbreite und 1 024 GB Speicher
-
Hpc6a
-
Amazon-EC2-Hpc6a-Instances sind für eng gekoppelte, rechenintensive Workloads von High Performance Computing (HPC) optimiert und bieten kosteneffiziente Leistung. Hpc6a-Instances sind für Workloads wie computergestützte Flüssigkeitsdynamik, Molekulardynamik und Wettervorhersage konzipiert. Sie sind auch für Workloads konzipiert, die von einem verbesserten Netzwerkdurchsatz und einer höheren Paketrate profitieren können.
Funktionen:
- Bis zu 3,6 GHz-AMD-EPYC-Prozessoren der 3. Generation (AMD EPYC 7R13)
- Elastic Fabric Adapter (EFA) ist für Netzwerkbandbreitengeschwindigkeiten zwischen Knoten von bis zu 100 Gbit/s aktiviert und bietet eine höhere Leistung für netzwerkintensive Anwendungen
- Simultanes Multi-Threading ist deaktiviert, um Leistung und Cluster-Management zu optimieren
- Angetrieben durch das AWS Nitro System, eine Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
Instance-Größe Kerne Arbeitsspeicher (GB) Netzwerkbandbreite (GBit/s) EFA-Netzwerkbandbreite (GBit/s) hpc6a.48xlarge 96 384 25 100 *25 Gbit/s Netzwerkbandbreite außerhalb der Virtual Private Cloud (VPC), Amazon Simple Storage Service (S3) oder Amazon Elastic Block Store (EBS). - Bis zu 3,6 GHz-AMD-EPYC-Prozessoren der 3. Generation (AMD EPYC 7R13)
Instances-Funktionen
Amazon EC2-Instances bieten eine Vielzahl weiterer Funktionen, mit deren Hilfe Sie Ihre Anwendungen bereitstellen, verwalten und skalieren können.
Amazon EC2 bietet Ihnen die Wahl zwischen Instance-Serien mit gleichbleibender Leistung (z. B. M6, C6 und R6) und Instances mit Spitzenlastleistung (z. B. T3). Instances mit Spitzenlastleistung bieten eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.
T Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Der Stundenpreis der T-Instance deckt automatisch alle zwischenzeitlichen Auslastungsspitzen ab, wenn die durchschnittliche CPU-Auslastung einer T-Instance im Laufe eines 24-Stunden-Fensters der Basisleistung entspricht oder diese unterschreitet. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.
Bei T-Instances werden die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten per CPU-Guthaben verwaltet. Jede T-Instance erhält fortlaufend CPU-Guthaben. Die Rate hängt von der Instance-Größe ab. T-Instances sammeln im Leerlauf CPU-Guthaben und verbrauchen CPU-Guthaben, wenn sie aktiv sind. Ein CPU-Guthaben stellt die Leistung eines gesamten CPU-Kerns für eine Minute zur Verfügung.
Beispielsweise erhält eine Instance vom Typ t2.small fortlaufend Guthaben mit einer Rate von 12 CPU-Guthaben pro Stunde. Diese Fähigkeit stellt eine Basisleistung bereit, die 20 % eines CPU-Kerns entspricht (20 % x 60 Min. = 12 Min.). Wenn die Instance das erhaltene Guthaben nicht verbraucht, werden bis zu 288 CPU-Guthaben im CPU-Guthabensaldo aufbewahrt. Wenn die t2.small-Instance Spitzenlasten mit mehr als 20 % der Leistung eines Kerns verarbeiten muss, wird das vom CPU-Guthabensaldo abgezogen, um die Lastspitze nahtlos zu verarbeiten.
Wenn T2 Unlimited aktiviert ist, kann die t2.small-Instance über den Ausgangswert hinausgehen, selbst wenn ihr CPU-Guthaben auf Null gesunken ist. Bei einem Großteil der Verarbeitungslasten für allgemeine Zwecke, bei denen die durchschnittliche CPU-Auslastung der Basisleistung entspricht oder darunter liegt, deckt der Basisstundenpreis für t2.small alle CPU-Bursts ab. Wenn die Instance über einen Zeitraum von 24 Stunden, nachdem der CPU-Guthabensaldo auf Null gesunken ist, mit durchschnittlich 25 % CPU-Auslastung (5 % über der Basisleistung) ausgeführt wird, werden zusätzlich 6 Cent in Rechnung gestellt (5 Cent/vCPU-Stunde x 1 vCPU x 5 % x 24 Stunden).
Viele Anwendungen wie Webserver, Entwicklungsumgebungen und kleine Datenbanken benötigen keine gleichbleibend hohe CPU-Leistung, profitieren aber stark von schnellen CPUs, wenn sie die Leistung benötigen. T-Instances sind besonders für diese Anwendungsfälle ausgelegt. Wenn Sie gleichbleibend hohe CPU-Leistung für Anwendungen wie Videocodierung, Websites mit hohem Durchsatz oder HPC-Anwendungen benötigen, verwenden Sie Instances mit konstanter Leistung. T-Instances sind so konzipiert, als stünden ihnen dedizierte Hochgeschwindigkeits-Prozessor-Kerne zur Verfügung, wenn Ihre Anwendung CPU-Leistung benötigt. Außerdem schützen sie zugleich vor der schwankenden Leistung und anderen häufigen Nebeneffekten, die in anderen Umgebungen i. d. R. bei zu vielen Abonnements auftreten.
Je nach Anforderungen bietet Amazon EC2 Ihnen die Wahl zwischen mehreren Speicheroptionen. Amazon EBS ist ein stabiles Speichervolume auf Blockebene, das Sie einer einzelnen ausgeführten Amazon-EC2-Instance zuordnen können. Sie können Amazon EBS als primäres Speichermedium für Daten nutzen, die häufig und detailliert aktualisiert werden. Amazon EBS wird beispielsweise als Speicher empfohlen, wenn Sie eine Datenbank in Amazon EC2 ausführen. Amazon EBS-Volumes bleiben unabhängig von der Betriebsdauer einer einzelnen Amazon EC2-Instance erhalten. Sobald ein Volume einer Instance zugeordnet wurde, können Sie es wie ein physisches Festplattenlaufwerk nutzen. Amazon EBS bietet drei Volumetypen zum Erfüllen der Anforderungen Ihrer Workloads: Standard (SSD), bereitgestellte IOPS (SSD) und Magnetfestplatten. Standardvolumes (SSD) sind der neue SSD-gestützte EBS-Volumetyp für allgemeine Zwecke, den wir Kunden als Standardoption empfehlen. Standardvolumes (SSD) sind für ein breites Spektrum von Workloads einschließlich kleiner und mittelgroßer Datenbanken sowie Entwicklungs- und Testumgebungen und Startvolumes geeignet. Bereitgestellte IOPS (SSD)-Volumes bieten Speicher mit konsistenter Leistung sowie geringer Latenz und eignen sich für I/O-intensive Anwendungen wie große relationale oder NoSQL-Datenbanken. Magnetfestplattenvolumes verursachen von allen EBS-Volumetypen die niedrigsten Kosten pro GB. Magnetfestplatten-Volumes sind ideal für Workloads mit seltenen Datenzugriffen und Szenarien, bei denen die Speicherkosten so niedrig wie möglich sein sollen.
Viele Amazon-EC2-Instances können auch Speicher von Geräten beinhalten, die sich innerhalb des Hostcomputers befinden, der als Instance-Speicher bezeichnet wird. Instance-Speicher bietet Amazon-EC2-Instances temporären Speicher auf Blockebene. Die Daten auf Instance-Speichern bleiben nur für die Nutzungsdauer der zugehörigen Amazon-EC2-Instance erhalten.
Zusätzlich zu Speicher auf Blockebene mithilfe von Amazon-EBS- oder Instance-Speicher können Sie auch Amazon S3 als sehr robusten und hoch verfügbaren Objektspeicher nutzen. Weitere Informationen zu den Speicheroptionen von Amazon EC2 finden Sie in der Amazon-EC2-Dokumentation.
Gegen eine geringe zusätzliche Stundengebühr können Kunden bestimmte Amazon-EC2-Instance-Typen als EBS-optimierte Instances starten. Mit EBS-optimierten Instances können EC2-Instances die auf einem EBS-Volume bereitgestellte IOPS in vollem Umfang nutzen. EBS-optimierte Instances liefern einen dedizierten Durchsatz zwischen Amazon EC2 und Amazon EBS, mit Optionen zwischen 500 Megabit pro Sekunde (Mbit/s) und 80 Gigabit pro Sekunde (Gbit/s) und das je nach verwendetem Instance-Typ. Durch den dedizierten Durchsatz werden Konflikte zwischen I/O-Vorgängen von Amazon EBS und anderem Datenverkehr Ihrer EC2-Instance minimiert, wodurch Ihre EBS-Volumes eine optimale Leistung liefern können. EBS optimierte Instances sind für die Nutzung mit allen EBS-Volumen konzipiert. Bei Anbindung an EBS-optimierte Instances können bereitgestellte IOPS-Volumes Latenzen im einstelligen Millisekundenbereich erreichen. Außerdem sind sie so konzipiert, dass sie mindestens 10 % der bereitgestellten IOPS-Leistung in 99,9 % der Fälle liefern. Wir empfehlen bereitgestellte IOPS-Volumes mit EBS-optimierten Instances bzw. Instances, die Clusternetzwerke für Anwendungen mit hohen Speicher-E/A-Anforderungen unterstützen.
Ausgewählte EC2-Instances unterstützen Clusternetzwerke, wenn diese in einer gebräuchlichen Clusterplatzierungsgruppe ausgeführt werden. Eine Clusterplatzierungsgruppe ermöglicht einen Netzwerkbetrieb mit geringer Latenz zwischen allen Instances und Clustern. Die von einer EC2-Instance nutzbare Bandbreite richtet sich nach dem Instance-Typ und dessen Netzwerkleistung. Der Datenverkehr zwischen Instances in derselben Region kann bei einseitiger Übertragung bis zu 5 GBit/s und bei beidseitiger Übertragung bis zu 100 GBit/s in jede Richtung (Vollduplex) betragen. Der Datenverkehr von und zu S3-Buckets in derselben Region kann ebenfalls die gesamte verfügbare Aggregatsbandbreite von Instances verwenden. Instances, die in einer Platzierungsgruppe gestartet werden, können für einseitigen Datenverkehr Geschwindigkeiten von bis zu 10 GBit/s und für beidseitigen Datenverkehr Geschwindigkeiten von bis zu 100 GBit/s generieren. Der Netzwerkdatenverkehr ins Internet ist auf 5 GBit/s (Vollduplex) beschränkt. Clusternetzwerke eignen sich ideal für Hochleistungsanalysesysteme und viele wissenschaftliche und Konstruktionsanwendungen, insbesondere für diejenigen, die den MPI-Bibliotheksstandard für Parallelprogrammierung nutzen.
Amazon EC2-Instanzen, die über einen Intel-Prozessor verfügen, können den Zugriff auf die folgenden Prozessorfunktionen ermöglichen:
- Intel AES New Instructions (AES-NI): Der Befehlssatz für Intel AES-NI-Verschlüsselung verbessert den Originalalgorithmus Advanced Encryption Standard (AES) in Hinblick auf schnelleren Datenschutz und bessere Sicherheit. Alle EC2-Instances der aktuellen Generation unterstützten diese Prozessorfunktion.
- Intel Advanced Vector Extensions (Intel AVX, Intel AVX2 und Intel AVX-512): Intel AVX und Intel AVX2 sind Erweiterungen des 256-Bit-Befehlssatzes und Intel AVX-512 ist eine Erweiterung des 512-Bit-Befehlssatzes für Anwendungen mit vielen Gleitkommaoperationen. Intel AVX-Befehle verbessern die Leistung von Anwendungen für beispielsweise Bild-, Audio- und Videobearbeitung, wissenschaftliche Simulationen, Finanzanalysen sowie 3D-Modellierung und -Analysen. Diese Funktionen stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
- Intel Turbo-Boost-Technik: Die Intel Turbo-Boost-Technik bietet bei Bedarf mehr Leistung. Der Prozessor ist in der Lage, Kerne schneller auszuführen als die Basisbetriebsfrequenz, damit Sie schneller arbeiten können.
- Intel Deep Learning Boost (Intel DL Boost): Eine neue Reihe integrierter Prozessortechnologien, die auf die Beschleunigung von AI Deep Learning-Anwendungsfälle ausgelegt sind. Intel Xeon Scalable-Prozessoren der 2. Generation erweitern Intel AVX-512 mit einer neuen Vector Neural Network Instruction (VNNI/INT8), welche die Deep Learning-Inferenzleistung im Vergleich zur vorherigen Generation von Intel Xeon Scalable-Prozessoren (mit FP32) deutlich übertrifft. Dies ist unter anderem für die Bereiche Bilderkennung/-segmentierung, Objekterkennung, Spracherkennung, Sprachübersetzung, Empfehlungssysteme und Reinforcement Learning vorgesehen. VNNI ist möglicherweise nicht mit allen Linux-Verteilungen kompatibel. Bitte überprüfen Sie die Dokumentation vor der Verwendung.
Nicht alle Prozessorfunktionen sind für alle Instance-Typen verfügbar. In der detaillierten Übersicht über die Instance-Typen erfahren Sie, welche Funktionen von welchen Instance-Typen verfügbar sind.
Messen der Instance-Leistung
Amazon EC2 ermöglicht Ihnen die Bereitstellung einer Vielzahl von Instance-Typen, die verschiedene Kombinationen von CPU-, Arbeitsspeicher-, Datenträger- und Netzwerkfunktionen bieten. Das Starten neuer Instances und das parallele Ausführen von Tests ist einfach. Wir empfehlen die Leistung von Anwendungen zu messen, um geeignete Instance-Typen zu bestimmen und die Anwendungsarchitektur zu überprüfen. Außerdem können umfassende Auslastungs- und Skalierungstests nützlich sein, um zu prüfen, ob Anwendungen wie gewünscht skaliert werden können.
Amazon EC2 bietet zahlreiche Optionen für zehn verschiedene Instance-Typen mit jeweils mindestens einer Größenoption, die in unterschiedliche Instance-Familien unterteilt sind, die für diverse Anwendungen optimiert sind. Wir empfehlen, die Anforderungen Ihrer Anwendungen zu analysieren und die geeignete Instance-Familie als Ausgangspunkt für das Testen der Anwendungsleistung auszuwählen. Gehen Sie zum Bewerten der Anwendungsleistung so vor: (1.) Bestimmen Sie Ihre Anwendungsanforderungen im Vergleich zu verschiedenen Instance-Familien (ist die Anwendung beispielsweise mehr von Rechenleistung oder Arbeitsspeicher abhängig?). (2.) Ermitteln Sie die Größe Ihrer Workloads, um die geeignete Instance-Größe zu bestimmen. Für das Messen der Leistung der gesamten Anwendung gibt es keinen Ersatz, da die Anwendungsleistung von der zugrunde liegenden Infrastruktur oder durch Software- und Architektureinschränkungen beeinträchtigt werden kann. Wir empfehlen Tests auf Anwendungsebene, einschließlich der Nutzung von Tools und Services für Auslastungstests und die Erstellung von Anwendungsprofilen. Wenn Sie weitere Informationen benötigen, öffnen Sie einen Support-Fall und fragen Sie nach zusätzlichen Spezifikationen zur Netzwerkleistung für die spezifischen Instance-Typen, an denen Sie interessiert sind.