- Amazon EC2›
- Instance-Typen›
- Arbeitsspeicheroptimiert
Speicheroptimierte Amazon-EC2-Instance-Typen
Schnelle Verarbeitung riesiger Datensätze
Was sind speicheroptimierte EC2-Instance-Typen?
Arbeitsspeicheroptimierte Instances bieten eine schnelle Leistung für Workloads, die große Datenmengen im Speicher verarbeiten. Diese Instances eignen sich beispielsweise gut für In-Memory-Datenbanken, Datenanalytik und Unternehmensanwendungen.
Instance-Kategorien
Wählen Sie aus einer Reihe von EC2-Instance-Typen, die jeweils einzigartige Kombinationen aus Rechenleistung, Arbeitsspeicher und Speicher bieten, um Ihre spezifischen Workload-Anforderungen zu erfüllen.
Allzweck-Instances bieten ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkressourcen und können für eine Vielzahl Workloads verwendet werden. Diese Instances eignen sich gut für Anwendungen wie Webserver, Code-Repositorys und kleine bis mittlere Datenbanken.
Für Datenverarbeitung optimierte Instances sind ideal für rechnergebundene Anwendungen, die von Hochleistungsprozessoren profitieren. Einige Beispiele für Workloads für Computing-Instances sind Batch-Verarbeitung, Medientranscodierung und dedizierte Spieleserver.
Beschleunigte Computing-Instances verwenden Hardware-Beschleuniger oder Co-Prozessoren, um Funktionen effizienter auszuführen. Sie können beispielsweise die Berechnung von Fließkommazahlen, die Grafikverarbeitung oder den Abgleich von Datenmustern durchführen.
Speicheroptimierte Instances ermöglichen den Anwendungen Millionen von zufälligen I/O-Vorgängen (IOPS) mit geringer Latenz pro Sekunde. Sie sind für Workloads konzipiert, die einen hohen, sequenziellen Lese- und Schreibzugriff auf sehr große Datenmengen im lokalen Speicher erfordern. Sie eignen sich beispielsweise gut für Datenbanken mit hohem Durchsatz, Datenverarbeitung und Daten-Streaming.
Instances für High Performance Computing (HPC) bieten die beste Preisleistung für die Ausführung von HPC-Workloads in großem Maßstab. HPC-Instances eignen sich hervorragend für Anwendungen, die von leistungsstarken Prozessoren profitieren, wie z. B. komplexe Simulationen und Deep-Learning-Workloads und Rendern von visuellen Effekten.
Weitere Informationen zu Instance-Typen
R8g
|
Instance size
|
vCPU
|
Memory (GiB)
|
Instance storage (GB)
|
Network bandwidth (Gbps)
|
EBS bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r8g.medium
|
1 |
8 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8g.large
|
2 |
16 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8g.xlarge
|
4 |
32 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8g.2xlarge
|
8 |
64 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r8g.4xlarge
|
16 |
128 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r8g.8xlarge
|
32 |
256 |
Nur EBS |
15 |
10 |
|
r8g.12xlarge
|
48 |
384 |
Nur EBS |
22,5 |
15 |
|
r8g.16xlarge
|
64 |
512 |
Nur EBS |
30 |
20 |
|
r8g.24xlarge
|
96 |
768 |
Nur EBS |
40 |
30 |
|
r8g.48xlarge
|
192 |
1 536 |
Nur EBS |
50 |
40 |
|
r8g.metal-24xl
|
96 |
768 |
Nur EBS |
40 |
30 |
|
r8g.metal-48xl
|
192 |
1 536 |
Nur EBS |
50 |
40 |
|
r8gd.medium
|
1 |
8 |
1 x 59 NVMe-SSD |
Bis zu 12,5 |
Bis zu 10 |
|
r8gd.large
|
2 |
16 |
1 x 118 NVMe-SSD |
Bis zu 12,5 |
Bis zu 10 |
|
r8gd.xlarge
|
4 |
32 |
1 x 237 NVMe-SSD |
Bis zu 12,5 |
Bis zu 10 |
|
r8gd.2xlarge
|
8 |
64 |
1 x 474 NVMe-SSD |
Bis zu 15 |
Bis zu 10 |
|
r8gd.4xlarge
|
16 |
128 |
1 x 950 NVMe-SSD |
Bis zu 15 |
Bis zu 10 |
|
r8gd.8xlarge
|
32 |
256 |
1 x 1 900 NVMe-SSD |
15 |
10 |
|
r8gd.12xlarge
|
48 |
384 |
3 x 950 NVMe-SSD |
22,5 |
15 |
|
r8gd.16xlarge
|
64 |
512 |
2 x 1 900 NVMe-SSD |
30 |
20 |
|
r8gd.24xlarge
|
96 |
768 |
3 x 1900 NVMe SSD |
40 |
30 |
|
r8gd.48xlarge
|
192 |
1 536 |
6 x 1900 NVMe SSD |
50 |
40 |
|
r8gd.metal-24xl
|
96 |
768 |
3 x 1900 NVMe SSD |
40 |
30 |
|
r8gd.metal-48xl
|
192 |
1 536 |
6 x 1900 NVMe SSD |
50 |
40 |
Amazon-EC2-R8g-Instances werden von AWS-Graviton4-Prozessoren betrieben. Sie bieten das beste Preis-Leistungs-Verhältnis in Amazon EC2 für speicherintensive Workloads.
Features:
- Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
- Größere Instance-Größen mit bis zu 3x mehr vCPUs und Speicher als R7g-Instances
- Mit dem neuesten DDR5-5600-Speicher
- Standardmäßig für Amazon EBS optimiert
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R8gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
- Unterstützt Elastic Fabric Adapter (EFA) auf r8g.24xlarge, r8g.48xlarge, r8g.metal-24xl, r8g.metal-48xl, r8gd.24xlarge, r8gd.48xlarge, r8gd.metal-24xl und r8gd.metal-48xl
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Alle Instances haben die folgenden Spezifikationen:
- Speziell angefertigter AWS-Graviton4-Prozessor
- Optimiert für Amazon EBS
- Verbessertes Netzwerk†
Anwendungsfälle
Arbeitsspeicherintensive Workloads wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analytik in Echtzeit.
R8i
|
Instance size
|
vCPU
|
Memory (GiB)
|
Instance storage (GB)
|
Network bandwidth (Gbps)
|
Amazon EBS bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r8i.large
|
2 |
16 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8i.xlarge
|
4 |
32 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8i.2xlarge
|
8 |
64 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r8i.4xlarge
|
16 |
128 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r8i.8xlarge
|
32 |
256 |
Nur EBS |
15 |
10 |
|
r8i.12xlarge
|
48 |
384 |
Nur EBS |
22,5 |
15 |
|
r8i.16xlarge
|
64 |
512 |
Nur EBS |
30 |
20 |
|
r8i.24xlarge
|
96 |
768 |
Nur EBS |
40 |
30 |
|
r8i.32xlarge
|
128 |
1 024 |
Nur EBS |
50 |
40 |
|
r8i.48xlarge
|
192 |
1 536 |
Nur EBS |
75 |
60 |
|
r8i.96xlarge
|
384 |
3 072 |
Nur EBS |
100 |
80 |
|
r8i.metal-48xl
|
192 |
1 536 |
Nur EBS |
75 |
60 |
|
r8i.metal-96xl
|
384 |
3 072 |
Nur ESB |
100 |
80 |
Amazon-EC2-R8i-Instances werden von Intel-Xeon-6-Prozessoren angetrieben und bieten ein bis zu 15 % besseres Preis-Leistungs-Verhältnis als R7i-Instances.
Features:
- Bis zu 3,9 GHz All-Core-Turbofrequenz
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Bis zu 384 vCPUs und 3 072 GiB Arbeitsspeicher Neuester DDR5-Speicher mit 7 200 MT/s, der im Vergleich zur Vorgängergeneration 2,5-mal mehr Bandbreite bietet
- Das IBC-Feature (Instance Bandwidth Configuration) bietet Flexibilität bei der Zuweisung von Ressourcen zwischen Netzwerk- und Elastic Block Store (EBS)-Bandbreite, sodass Kunden die Netzwerk- oder EBS-Bandbreite um 25 % skalieren und die Datenbankleistung (Lese- und Schreib-) Leistung, Abfrageverarbeitung und Protokollierung verbessern können
- 2 Metal-Größen: r8i.metal-48xl und r8i.metal-96xl
- Diskrete eingebaute Beschleuniger (nur für R8i-Bare-Metal-Größen verfügbar)
- Enhanced Advanced Matrix Extensions (AMX) mit FP16-Unterstützung auf R8i-Instances ermöglicht ein breiteres Spektrum an CPU-basierten Inferenz-Workloads
- Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
- Angetrieben durch das neueste AWS Nitro System mit Karten der 6. Generation, das eine verbesserte Netzwerk- und Speicherleistung bietet
Anwendungsfälle
R8i-Instances eignen sich ideal für speicherintensive Workloads, insbesondere für solche, die größere Größen oder eine hohe kontinuierliche CPU-Auslastung benötigen, einschließlich In-Memory-Datenbanken (wie SAP HANA), verteilte In-Memory-Caches im Webmaßstab (Memcached und Redis), Big-Data-Analytik in Echtzeit (Apache-Hadoop- und Apache-Spark-Cluster) und umfangreiche Machine-Learning-Workloads.
R8i-Flex
|
Instance size
|
vCPU
|
Memory (GiB)
|
Instance storage (GB)
|
Network bandwidth (Gbps)
|
Amazon EBS bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r8i-flex.large
|
2 |
16 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8i-flex.xlarge
|
4 |
32 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8i-flex.2xlarge
|
16 |
64 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r8i-flex.4xlarge
|
16 |
128 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r8i-flex.8xlarge
|
32 |
256 |
Nur EBS |
Bis zu 15
|
Bis zu 10
|
|
r8i-flex.12xlarge
|
48 |
384 |
Nur EBS |
Bis zu 22,5
|
Bis zu 15
|
|
r8i-flex.16xlarge
|
64 |
512 |
Nur EBS |
Bis zu 30
|
Bis zu 20
|
Amazon-EC2-R8i-Flex-Instances werden von Intel-Xeon-6-Prozessoren angetrieben und bieten im Vergleich zu Instances der vorherigen Generation ein um bis zu 20 % besseres Preis-Leistungs-Verhältnis.
Features:
- Bis zu 3,9 GHz All-Core-Turbofrequenz
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Bis zu 64 vCPUs und 512 GiB Arbeitsspeicher
- Neuester DDR5-Speicher mit 7 200 MT/s, der im Vergleich zur Vorgängergeneration 2,5-mal mehr Bandbreite bietet
- Das IBC-Feature (Instance Bandwidth Configuration) bietet Flexibilität bei der Zuweisung von Ressourcen zwischen Netzwerk- und Elastic Block Store (EBS)-Bandbreite, sodass Kunden die Netzwerk- oder EBS-Bandbreite um 25 % skalieren und die Datenbankleistung (Lese- und Schreib-) Leistung, Abfrageverarbeitung und Protokollierung verbessern können
- Verbesserte Advanced Matrix Extensions (AMX) mit FP16-Datentypunterstützung beschleunigen Matrixmultiplikationsoperationen
- Unterstützung für bis zu 48 EBS-Volume-Anhänge pro Instance
- Angetrieben durch das neueste AWS Nitro System mit Karten der 6. Generation, das eine verbesserte Netzwerk- und Speicherleistung bietet
Anwendungsfälle
R8i-Flex-Instances eignen sich ideal für speicherintensive Workloads, die nicht alle Rechenressourcen vollständig nutzen, einschließlich SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches im Webmaßstab (Memcached und Redis), In-Memory-Datenbanken und Big-Data-Analytik in Echtzeit (Apache-Hadoop- und Apache-Spark-Cluster). Sie bieten eine kostengünstige Option für Workloads mit variablen CPU-Nutzungsmustern.
R8a
|
Instance size
|
vCPU
|
Memory (GiB)
|
Instance storage (GB)
|
Network bandwidth (Gbps)
|
Amazon EBS bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r8a.medium
|
1 |
8 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8a.large
|
2 |
16 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8a.xlarge
|
4 |
32 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r8a.2xlarge
|
8 |
64 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r8a.4xlarge
|
16 |
128 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r8a.8xlarge
|
32 |
256 |
Nur EBS |
15 |
10 |
|
r8a.12xlarge
|
48 |
384 |
Nur EBS |
22,5 |
15 |
|
r8a.16xlarge
|
64 |
512 |
Nur EBS |
30 |
20 |
|
r8a.24xlarge
|
96 |
768 |
Nur EBS |
40 |
30 |
|
r8a.48xlarge
|
192 |
1 536 |
Nur EBS |
75 |
60 |
|
r8a.metal-24xl
|
96 |
768 |
Nur EBS |
40 |
30 |
|
r8a.metal-48xl
|
192 |
1 536 |
Nur EBS |
75 |
60 |
Amazon-EC2-R8a-Instances, die von AMD-EPYC-Prozessoren der 4. Generation angetrieben werden, bieten im Vergleich zu R7a-Instances eine um bis zu 30 % höhere Leistung.
Features:
- Bis zu 4,5 GHz AMD-EPYC-Prozessoren der 5. Generation
- 45 % höhere Speicherbandbreite im Vergleich zu R7a-Instances
- Bis zu 192 vCPUs, bis zu 1 536 GiB Arbeitsspeicher
- Bis zu 75 Gbit/s Netzwerkbandbreite und bis zu 60 Gbit/s EBS-Bandbreite
- Unterstützung des Features Instance Bandwidth Configuration (IBC), welches die Netzwerk- oder EBS-Bandbreite um bis zu 25 % erhöht
- Amazon-EC2-R8a-Instances sind SAP-zertifiziert und bieten 38 % mehr SAPS als Amazon-EC2-R7a-Instances.
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
Anwendungsfälle
Diese Instances eignen sich hervorragend für leistungsstarke, arbeitsspeicherintensive Workloads wie SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches im Webmaßstab, In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit, umfangreiche Unternehmensanwendungen, Big-Data-Verarbeitungs-Engines, Hochleistungsdatenbanken, arbeitsspeicherintensive Analytik und Electronic Design Automation (EDA)-Anwendungen.
R7g
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r7g.medium
|
1 |
8 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7g.large
|
2 |
16 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7g.xlarge
|
4 |
32 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7g.2xlarge
|
8 |
64 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r7g.4xlarge
|
16 |
128 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
r7g.8xlarge
|
32 |
256 |
Nur EBS |
15 |
10 |
|
r7g.12xlarge
|
48 |
384 |
Nur EBS |
22,5 |
15 |
|
r7g.16xlarge
|
64 |
512 |
Nur EBS |
30 |
20 |
|
r7g.metal
|
64 |
512 |
Nur EBS |
30 |
20 |
|
r7gd.medium
|
1 |
8 |
1 x 59 NVMe-SSD |
Bis zu 12,5 |
Bis zu 10 |
|
r7gd.large
|
2 |
16 |
1 x 118 NVMe-SSD |
Bis zu 12,5 |
Bis zu 10 |
|
r7gd.xlarge
|
4 |
32 |
1 x 237 NVMe-SSD |
Bis zu 12,5 |
Bis zu 10 |
|
r7gd.2xlarge
|
8 |
64 |
1 x 474 NVMe-SSD |
Bis zu 15 |
Bis zu 10 |
|
r7gd.4xlarge
|
16 |
128 |
1 x 950 NVMe-SSD |
Bis zu 15 |
Bis zu 10 |
|
r7gd.8xlarge
|
32 |
256 |
1 x 1 900 NVMe-SSD |
15 |
10 |
|
r7gd.12xlarge
|
48 |
384 |
2 x 1 425 NVMe-SSD |
22,5 |
15 |
|
r7gd.16xlarge
|
64 |
512 |
2 x 1 900 NVMe-SSD |
30 |
20 |
|
r7gd.metal
|
64 |
512 |
2 x 1 900 NVMe-SSD |
30 |
20 |
Amazon-EC2-R7g-Instances werden von AWS-Graviton3-Prozessoren angetrieben. Sie sind ideal für arbeitssspeicherintensive Workloads.
Features:
- Angetrieben von speziell entwickelten AWS-Graviton3-Prozessoren
- Verfügt über DDR5-Speicher, der im Vergleich zu DDR4 50 % mehr Bandbreite bietet
- 20 % höhere Netzwerkbandbreite im Vergleich zu R6g-Instances
- Standardmäßig für EBS optimiert
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R7gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist
- Unterstützt Elastic Fabric Adapter (EFA) auf r7g.16xlarge-, r7g.metal-, r7gd.16xlarge- und r7gd.metal-Instances
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS-Graviton3-Prozessor mit 64-Bit-Arm-Kernen
- Für EBS optimiert
- Ereitertes Netztwerk†
Anwendungsfälle
Arbeitsspeicherintensive Workloads wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analytik in Echtzeit.
R7i
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)***
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r7i.large
|
2 |
16 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7i.xlarge
|
4 |
32 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7i.2xlarge
|
8 |
64 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7i.4xlarge
|
16 |
128 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7i.8xlarge
|
32 |
256 |
Nur EBS |
12,5 |
10 |
|
r7i.12xlarge
|
48 |
384 |
Nur EBS |
18,75 |
15 |
|
r7i.16xlarge
|
64 |
512 |
Nur EBS |
25 |
20 |
|
r7i.24xlarge
|
96 |
768 |
Nur EBS |
37,5 |
30 |
|
r7i.48xlarge
|
192 |
1 536 |
Nur EBS |
50 |
40 |
|
r7i.metal-24xl
|
96 |
768 |
Nur EBS |
37,5 |
30 |
|
r7i.metal-48xl
|
192 |
1 536 |
Nur EBS |
50 |
40 |
Amazon-EC2-R7i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 4. Generation angetrieben und bieten eine 15 % bessere Preisleistung als R6i-Instances.
Features:
- Bis zu 3,2 GHz skalierbarer Intel-Xeon-Prozessor der 4. Generation (Sapphire Rapids 8488C)
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen
- 2 Metal-Größen: r7i.metal-24xl und r7i.metal-48xl
- Separate integrierte Beschleuniger (nur für R7i-Bare-Metal-Größen verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Auslagerung und Beschleunigung von Datenoperationen, die die Leistung von Datenbanken, Verschlüsselungs- und Komprimierungs- sowie Warteschlangenmanagement-Workloads optimieren
- Modernster DDR5-Speicher, der im Vergleich zu DDR4 mehr Bandbreite bietet
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für bis zu 128 EBS-Volume-Anhänge pro Instance
- Bis zu 192 vCPUs und 1 536 GiB Arbeitsspeicher
- Unterstützt Elastic Fabric Adapter in den Größen 48xlarge und metal-48xl
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel Xeon Prozessoren der 4. Generation mit bis zu 3,2 GHz
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
R7i-Instances sind SAP-zertifiziert und ideal für alle speicherintensiven Workloads (SQL- und NoSQL-Datenbanken), verteilte In-Memory-Caches im Webmaßstab (Memcached und Redis), In-Memory-Datenbanken (SAP HANA) und Big-Data-Analytik in Echtzeit (Apache-Hadoop- und Apache-Spark-Cluster).
R7iz
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r7iz.large
|
2 |
16 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7iz.xlarge
|
4 |
32 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7iz.2xlarge
|
8 |
64 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7iz.4xlarge
|
16 |
128 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7iz.8xlarge
|
32 |
256 |
Nur EBS |
12,5 |
10 |
|
r7iz.12xlarge
|
48 |
384 |
Nur EBS |
25 |
19 |
|
r7iz.16xlarge
|
64 |
512 |
Nur EBS |
25 |
20 |
|
r7iz.32xlarge
|
128 |
1.024 |
Nur EBS |
50 |
40 |
|
r7iz.metal-16xl
|
64 |
512 |
Nur EBS |
25 |
20 |
|
r7iz.metal-32xl
|
128 |
1.024 |
Nur EBS |
50 |
40 |
Amazon-EC2-R7iz-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 4. Generation angetrieben und sind die ideale Lösung für hohe CPU und arbeitsspeicherintensive Workloads.
Features:
- Skalierbare Intel-Xeon-Prozessoren der 4. Generation (Sapphire Rapids 6455B) mit einer Turbofrequenz von bis zu 3,9 GHz für alle Kerne
- Bis zu 20 % höhere Rechenleistung als z1d-Instances
- Neue Advance Matrix Extensions (AMX) beschleunigen Matrix-Multiplikationsoperationen – erhältlich in allen Größen
- Diskrete integrierte Beschleuniger (nur für Bare-Metal-Größen von R7iz verfügbar) – Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) und QuickAssist Technology (QAT) – ermöglichen eine effiziente Übertragung und Beschleunigung von Datenoperationen, die zur Optimierung der Leistung von Datenbanken, Verschlüsselung und Komprimierung sowie Warteschlangenmanagement-Workloads beitragen
- Bis zu 50 Gbit/s Netzwerkgeschwindigkeit
- Bis zu 40 GBit/s Bandbreite zu Amazon Elastic Block Store (EBS)
- Instance-Größe mit bis zu 128 vCPUs und 1 024 GB Speicher
- Unterstützt Elastic Fabric Adapter in den Größen 32xlarge und metal-32xl
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
Anwendungsfälle
Rechenintensive und speicherintensive Workloads wie Frontend Electronic Design Automation (EDA), relationale Datenbank-Workloads mit hohen Lizenzgebühren pro Kern sowie Simulations-Workloads in den Bereichen Finanzen, Versicherungsmathematik und Datenanalyse.
R7a
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)***
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r7a.medium
|
1 |
8 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7a.large
|
2 |
16
|
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7a.xlarge
|
4 |
32
|
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7a.2xlarge
|
8 |
64
|
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7a.4xlarge
|
16 |
128
|
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
r7a.8xlarge
|
32 |
256
|
Nur EBS |
12,5 |
10 |
|
r7a.12xlarge
|
48 |
384
|
Nur EBS |
18,75 |
15 |
|
r7a.16xlarge
|
64 |
512
|
Nur EBS |
25 |
20 |
|
r7a.24xlarge
|
96 |
768 |
Nur EBS |
37,5 |
30 |
|
r7a.32xlarge
|
128 |
1.024 |
Nur EBS |
50 |
40 |
|
r7a.48xlarge
|
192 |
1 536 |
Nur EBS |
50 |
40 |
|
r7a.metal-48xl
|
192 |
1 536 |
Nur EBS |
50 |
40 |
Amazon-EC2-R7a-Instances, die von AMD EPYC-Prozessoren der 4. Generation angetrieben werden, bieten im Vergleich zu R6a-Instances eine um bis zu 50 % höhere Leistung.
Funktionen:
- Bis zu 3,7-GHz-AMD-EPYC-Prozessoren der 4. Generation (AMD EPYC 9R14)
- Bis zu 50 Gbit/s Netzwerkbandbreite
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Instance-Größen mit bis zu 192 vCPUs und 1.536 GB Arbeitsspeicher
- SAP-zertifizierte Instances
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
- Unterstützung für permanente Speicherverschlüsselung mit AMD Secure Memory Encryption (SME)
- Unterstützung für neue Prozessorfunktionen wie AVX3-512, VNNI und bfloat16.
Anwendungsfälle
Speicherintensive Workloads wie SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches im Webmaßstab, In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und Electronic Design Automation (EDA)
R6g
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)***
|
EBS Bandwidth (Mbps)
|
|---|---|---|---|---|---|
|
r6g.medium
|
1
|
8
|
Nur EBS
|
Bis zu 10
|
Bis zu 4 750
|
|
r6g.large
|
2
|
16
|
Nur EBS
|
Bis zu 10
|
Bis zu 4 750
|
|
r6g.xlarge
|
4
|
32
|
Nur EBS
|
Bis zu 10
|
Bis zu 4 750
|
|
r6g.2xlarge
|
8
|
64
|
Nur EBS
|
Bis zu 10
|
Bis zu 4 750
|
|
r6g.4xlarge
|
16
|
128
|
Nur EBS
|
Bis zu 10
|
4.750
|
|
r6g.8xlarge
|
32
|
256
|
Nur EBS
|
12
|
9.000
|
|
r6g.12xlarge
|
48
|
384
|
Nur EBS
|
20
|
13.500
|
|
r6g.16xlarge
|
64
|
512
|
Nur EBS
|
25
|
19.000
|
|
r6g.metal
|
64
|
512
|
Nur EBS
|
25
|
19.000
|
|
r6gd.medium
|
1
|
8
|
1 x 59 NVMe-SSD
|
Bis zu 10
|
Bis zu 4.750
|
|
r6gd.large
|
2
|
16
|
1 x 118 NVMe-SSD
|
Bis zu 10
|
Bis zu 4.750
|
|
r6gd.xlarge
|
4
|
32
|
1 x 237 NVMe-SSD
|
Bis zu 10
|
Bis zu 4.750
|
|
r6gd.2xlarge
|
8
|
64
|
1 x 474 NVMe-SSD
|
Bis zu 10
|
Bis zu 4.750
|
|
r6gd.4xlarge
|
16
|
128
|
1 x 950 NVMe-SSD
|
Bis zu 10
|
4.750
|
|
r6gd.8xlarge
|
32
|
256
|
1 x 1.900 NVMe-SSD
|
12
|
9.000
|
|
r6gd.12xlarge
|
48
|
384
|
2 x 1.425 NVMe-SSD
|
20
|
13.500
|
|
r6gd.16xlarge
|
64
|
512
|
2 x 1.900 NVMe-SSD
|
25
|
19.000
|
|
r6gd.metal
|
64
|
512
|
2 x 1.900 NVMe-SSD
|
25
|
19 000
|
Amazon-EC2-R6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei arbeitsspeicherintensiven Anwendungen eine bis zu 40 % bessere Preisleistung als die aktuelle Generation der R5-Instances.
Funktionen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
- Standardmäßig für EBS optimiert
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Mit den R6gd-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und es wird Speicher auf Blockebene zur Verfügung gestellt, der mit der Lebensdauer der Instance verknüpft ist.
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Arbeitsspeicherintensive Anwendungen wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analytik in Echtzeit
R6i
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)***
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r6i.large
|
2
|
16
|
Nur EBS
|
Bis zu 12,5
|
Bis zu 10
|
|
r6i.xlarge
|
4
|
32
|
Nur EBS
|
Bis zu 12,5
|
Bis zu 10
|
|
r6i.2xlarge
|
8
|
64
|
Nur EBS
|
Bis zu 12,5
|
Bis zu 10
|
|
r6i.4xlarge
|
16
|
128
|
Nur EBS
|
Bis zu 12,5
|
Bis zu 10
|
|
r6i.8xlarge
|
32
|
256
|
Nur EBS
|
12,5
|
10
|
|
r6i.12xlarge
|
48
|
384
|
Nur EBS
|
18,75
|
15
|
|
r6i.16xlarge
|
64
|
512
|
Nur EBS
|
25
|
20
|
|
r6i.24xlarge
|
96
|
768
|
Nur EBS
|
37,5
|
30
|
|
r6i.32xlarge
|
128
|
1.024
|
Nur EBS
|
50
|
40
|
|
r6i.metal
|
128
|
1.024
|
Nur EBS
|
50
|
40
|
|
r6id.large
|
2
|
16
|
1 x 118 NVMe SSD
|
Bis zu 12,5
|
Bis zu 10
|
|
r6id.xlarge
|
4
|
32
|
1 x 237 NVMe SSD
|
Bis zu 12,5
|
Bis zu 10
|
|
r6id.2xlarge
|
8
|
64
|
1 x 474 NVMe SSD
|
Bis zu 12,5
|
Bis zu 10
|
|
r6id.4xlarge
|
16
|
128
|
1 x 950 NVMe SSD
|
Bis zu 12,5
|
Bis zu 10
|
|
r6id.8xlarge
|
32
|
256
|
1 x 1900 NVMe SSD
|
12,5
|
10
|
|
r6id.12xlarge
|
48
|
384
|
2 x 1425 NVMe SSD
|
18,75
|
15
|
|
r6id.16xlarge
|
64
|
512
|
2 x 1900 NVMe SSD
|
25
|
20
|
|
r6id.24xlarge
|
96
|
768
|
4 x 1425 NVMe SSD
|
37,5
|
30
|
|
r6id.32xlarge
|
128
|
1 024
|
4 x 1900 NVMe SSD
|
50
|
40
|
|
r6id.metal
|
128
|
1 024
|
4 x 1900 NVMe SSD
|
50
|
40
|
Amazon-R6i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) angetrieben und eignen sich ideal für speicherintensive Workloads.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Bis zu 15 % bessere Rechenpreisleistung gegenüber R5-Instances
- Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu R5-Instances
- Bis zu 50 GBit/s Netzwerkdurchsatz
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Eine neue Instance-Größe (32xlarge) mit 128 vCPUs und 1.024 GiB Arbeitsspeicher
- Unterstützt Elastic Fabric Adapter in der 32xlarge- und Metal-Größen
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Support für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
- Bei R6id-Instances sind bis zu 7,6 TB lokaler NVMe-basierter SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der R6i-Instance gekoppelt ist.
Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Speicherintensive Workloads wie SAP-, SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches im Webmaßstab wie Memcached und Redis, In-Memory-Datenbanken wie SAP HANA und Big-Data-Analytik in Echtzeit wie Hadoop- und Spark-Cluster.
R6in
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r6in.large
|
2
|
16
|
Nur EBS
|
Bis zu 25
|
Bis zu 25
|
|
r6in.xlarge
|
4
|
32
|
Nur EBS
|
Bis zu 30
|
Bis zu 25
|
|
r6in.2xlarge
|
8
|
64
|
Nur EBS
|
Bis zu 40
|
Bis zu 25
|
|
r6in.4xlarge
|
16
|
128
|
Nur EBS
|
Bis zu 50
|
Bis zu 25
|
|
r6in.8xlarge
|
32
|
256
|
Nur EBS
|
50
|
25
|
|
r6in.12xlarge
|
48
|
384
|
Nur EBS
|
75
|
37,5
|
|
r6in.16xlarge
|
64
|
512
|
Nur EBS
|
100
|
50
|
|
r6in.24xlarge
|
96
|
768
|
Nur EBS
|
150
|
75
|
|
r6in.32xlarge
|
128
|
1.024
|
Nur EBS
|
200****
|
100
|
|
r6in.metal
|
128
|
1.024
|
Nur EBS
|
200****
|
100
|
|
r6idn.large
|
2
|
16
|
1x118-NVMe-SSD
|
Bis zu 25
|
Bis zu 25
|
|
r6idn.xlarge
|
4
|
32
|
1x237-NVMe-SSD
|
Bis zu 30
|
Bis zu 25
|
|
r6idn.2xlarge
|
8
|
64
|
1x474-NVMe-SSD
|
Bis zu 40
|
Bis zu 25
|
|
r6idn.4xlarge
|
16
|
128
|
1x950-NVMe-SSD
|
Bis zu 50
|
Bis zu 25
|
|
r6idn.8xlarge
|
32
|
256
|
1x1900-NVMe-SSD
|
50
|
25
|
|
r6idn.12xlarge
|
48
|
384
|
2x1425-NVMe-SSD
|
75
|
37,5
|
|
r6idn.16xlarge
|
64
|
512
|
2x1900-NVMe-SSD
|
100
|
50
|
|
r6idn.24xlarge
|
96
|
768
|
4x1425-NVMe-SSD
|
150
|
75
|
|
r6idn.32xlarge
|
128
|
1 024
|
4x1900-NVMe-SSD
|
200****
|
100
|
|
r6idn.metal
|
128
|
1 024
|
4x1900-NVMe-SSD
|
200****
|
100
|
R6in- und R6idn-Instances von Amazon EC2 sind ideal für speicherintensive Workloads, die die Vorteile einer hohen Netzwerkbandbreite nutzen können, wie SAP-, SQL- und NoSQL-Datenbanken sowie In-Memory-Datenbanken wie SAP HANA. R6in- und R6idn-Instances bieten bis zu 200 Gbit/s Netzwerkbandbreite und bis zu 100 Gbit/s Amazon Elastic Block Store (EBS)-Bandbreite.
Features:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- Bis zu 20 % höhere Arbeitsspeicherbandbreite pro vCPU im Vergleich zu R5n und R5dn-Instances
- Bis zu 200 Gbit/s Netzwerkgeschwindigkeit, das ist bis zu zweimal schneller verglichen zu R5n- und R5dn-Instances
- Bis zu 100 Gbit/s EBS-Bandbreite, das ist bis zu 1,6 Mal mehr als bei R5b-Instances
- Unterstützt Elastic Fabric Adapter (EFA) in den Größen 32xlarge und metal
- Unterstützung für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Unterstützung für neue Intel-Advanced-Vector-Extensions-Anweisungen (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
- Bei R6idn-Instances sind bis zu 7,6 TB lokaler NVMe-basierter SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der R6idn-Instance gekoppelt ist
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
****Für die Größen 32xlarge und Metal sind in der Instance mindestens zwei elastische Netzwerkschnittstellen erforderlich, die jeweils mit einer anderen Netzwerkkarte verbunden sind, um einen Durchsatz von 200 Gbit/s zu erreichen. Jede Netzwerkschnittstelle, die an eine Netzwerkkarte angeschlossen ist, kann maximal 170 Gbit/s erreichen. Weitere Informationen finden Sie unter Netzwerkkarten
Alle Instances haben die folgenden Spezifikationen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz
- Für EBS optimiert
- Ereitertes Netztwerk†
Anwendungsfälle
Speicherintensive Workloads, die von einem hohen Netzwerkdurchsatz profitieren können, wie SAP, SQL- und NoSQL-Datenbanken sowie In-Memory-Datenbanken wie SAP HANA.
R6a
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)***
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
r6a.large
|
2
|
16
|
Nur EBS
|
Bis zu 12,5
|
Bis zu 10
|
|
r6a.xlarge
|
4
|
32
|
Nur EBS
|
Bis zu 12,5
|
Bis zu 10
|
|
r6a.2xlarge
|
8
|
64
|
Nur EBS
|
Bis zu 12,5
|
Bis zu 10
|
|
r6a.4xlarge
|
16
|
128
|
Nur EBS
|
Bis zu 12,5
|
Bis zu 10
|
|
r6a.8xlarge
|
32
|
256
|
Nur EBS
|
12,5
|
10
|
|
r6a.12xlarge
|
48
|
384
|
Nur EBS
|
18,75
|
15
|
|
r6a.16xlarge
|
64
|
512
|
Nur EBS
|
25
|
20
|
|
r6a.24xlarge
|
96
|
768
|
Nur EBS
|
37,5
|
30
|
|
r6a.32xlarge
|
128
|
1024
|
Nur EBS
|
50
|
40
|
|
r6a.48xlarge
|
192
|
1 536
|
Nur EBS
|
50
|
40
|
|
r6a.metal
|
192
|
1 536
|
Nur EBS
|
50
|
40
|
Amazon-EC2-R6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation angetrieben und sind ideal für speicherintensive Workloads geeignet.
Funktionen:
- Bis zu 3,6 GHz AMD EPYC Prozessoren der 3. Generation (AMD EPYC 7R13)
- Bis zu 35 % bessere Rechenpreisleistung gegenüber R5a-Instances
- Bis zu 50 GBit/s Netzwerkdurchsatz
- Bis zu 40 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Instance-Größe mit bis zu 192 vCPUs und 1,536 GB Speicher
- SAP-zertifizierte Instances
- Unterstützt Elastic Fabric Adapter in der 48xlarge- und Metal-Größen
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor
- Unterstützung für die ständig aktive Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME)
- Unterstützung für die neuen AMD Advanced Vector Extensions (AVX-2)-Befehle zur schnelleren Ausführung von kryptografischen Algorithmen
Alle Instances haben die folgenden Spezifikationen:
- AMD-EPYC-Prozessoren der 3. Generation mit bis zu 3,6 GHz
- Für EBS optimiert
- Enhanced Networking
Anwendungsfälle
Speicherintensive Workloads wie SAP-, SQL- und NoSQL-Datenbanken, verteilte In-Memory-Caches wie Memcached und Redis, In-Memory-Datenbanken und Big-Data-Analytik in Echtzeit wie Hadoop- und Spark-Cluster, sowie andere Unternehmensanwendungen
R5
|
Instance
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Networking Performance (Gbps)***
|
EBS Bandwidth (Mbps)
|
|---|---|---|---|---|---|
|
r5.large
|
2
|
16
|
Nur EBS
|
Bis zu 10
|
Bis zu 4.750
|
|
r5.xlarge
|
4
|
32
|
Nur EBS
|
Bis zu 10
|
Bis zu 4.750
|
|
r5.2xlarge
|
8
|
64
|
Nur EBS
|
Bis zu 10
|
Bis zu 4.750
|
|
r5.4xlarge
|
16
|
128
|
Nur EBS
|
Bis zu 10
|
4.750
|
|
r5.8xlarge
|
32
|
256
|
Nur EBS
|
10
|
6.800
|
|
r5.12xlarge
|
48
|
384
|
Nur EBS
|
10
|
9.500
|
|
r5.16xlarge
|
64
|
512
|
Nur EBS
|
20
|
13.600
|
|
r5.24xlarge
|
96
|
768
|
Nur EBS
|
25
|
19.000
|
|
r5.metal
|
96*
|
768
|
Nur EBS
|
25
|
19.000
|
|
r5d.large
|
2
|
16
|
1 x 75 NVMe-SSD
|
Bis zu 10
|
Bis zu 4.750
|
|
r5d.xlarge
|
4
|
32
|
1 x 150 NVMe-SSD
|
Bis zu 10
|
Bis zu 4.750
|
|
r5d.2xlarge
|
8
|
64
|
1 x 300 NVMe-SSD
|
Bis zu 10
|
Bis zu 4.750
|
|
r5d.4xlarge
|
16
|
128
|
2 x 300 NVMe-SSD
|
Bis zu 10
|
4.750
|
|
r5d.8xlarge
|
32
|
256
|
2 x 600 NVMe-SSD
|
10
|
6.800
|
|
r5d.12xlarge
|
48
|
384
|
2 x 900 NVMe-SSD
|
10
|
9.500
|
|
r5d.16xlarge
|
64
|
512
|
4 x 600 NVMe-SSD
|
20
|
13.600
|
|
r5d.24xlarge
|
96
|
768
|
4 x 900 NVMe-SSD
|
25
|
19.000
|
|
r5d.metal
|
96*
|
768
|
4 x 900 NVMe-SSD
|
25
|
19 000
|
Amazon-EC2-R5-Instances liefern 5 % zusätzlichen Arbeitsspeicher pro vCPU als R4 und die umfangreichste Größe hat 768 GiB Arbeitsspeicher. Außerdem bieten R5-Instances eine Verbesserung von 10 % beim Preis pro GiB und eine etwa 20 % höhere CPU-Leistung gegenüber R4.
Funktionen:
- Prozessoren der Intel Xeon® Platinum 8000-Serie mit bis zu 3,1 GHz (Skylake 8175M oder Cascade Lake 8259CL) mit neuem Intel Advanced Vector Extension (AVX-512)-Befehlssatz
- Bis zu 768 GiB Arbeitsspeicher pro Instance
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- Mit den R5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
- Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
* r5.metal und r5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets
Alle Instances haben die folgenden Spezifikationen:
- Intel Xeon Platinum-Prozessor mit bis zu 3,1 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
R5-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webmaßstab, mittelgroße In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und andere Unternehmensanwendungen.
R5n
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Networking Performance (Gbps)***
|
EBS Bandwidth (Mbps)
|
|---|---|---|---|---|---|
|
r5n.large
|
2
|
16
|
Nur EBS
|
Bis zu 25
|
bis zu 4.750
|
|
r5n.xlarge
|
4
|
32
|
Nur EBS
|
Bis zu 25
|
bis zu 4.750
|
|
r5n.2xlarge
|
8
|
64
|
Nur EBS
|
Bis zu 25
|
Bis zu 4.750
|
|
r5n.4xlarge
|
16
|
128
|
Nur EBS
|
Bis zu 25
|
4.750
|
|
r5n.8xlarge
|
32
|
256
|
Nur EBS
|
25
|
6.800
|
|
r5n.12xlarge
|
48
|
384
|
Nur EBS
|
50
|
9.500
|
|
r5n.16xlarge
|
64
|
512
|
Nur EBS
|
75
|
13.600
|
|
r5n.24xlarge
|
96
|
768
|
Nur EBS
|
100
|
19.000
|
|
r5n.metal
|
96*
|
768
|
Nur EBS
|
100
|
19.000
|
|
r5dn.large
|
2
|
16
|
1 x 75 NVMe-SSD
|
Bis zu 25
|
bis zu 4.750
|
|
r5dn.xlarge
|
4
|
32
|
1 x 150 NVMe-SSD
|
Bis zu 25
|
Bis zu 4.750
|
|
r5dn.2xlarge
|
8
|
64
|
1 x 300 NVMe-SSD
|
Bis zu 25
|
Bis zu 4.750
|
|
r5dn.4xlarge
|
16
|
128
|
2 x 300 NVMe-SSD
|
Bis zu 25
|
4.750
|
|
r5dn.8xlarge
|
32
|
256
|
2 x 600 NVMe-SSD
|
25
|
6.800
|
|
r5dn.12xlarge
|
48
|
384
|
2 x 900 NVMe SSD
|
50
|
9.500
|
|
r5dn.16xlarge
|
64
|
512
|
4 x 600 NVMe-SSD
|
75
|
13.600
|
|
r5dn.24xlarge
|
96
|
768
|
4 x 900 NVMe-SSD
|
100
|
19.000
|
|
r5dn.metal
|
96*
|
768
|
4 x 900 NVMe-SSD
|
100
|
19 000
|
Amazon-EC2-R5-Instances sind ideal für speichergebundene Workloads, einschließlich Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webmaßstab, mittelgroße In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und andere Unternehmensanwendungen. Die Instance-Varianten mit größerer Bandbreite R5n und R5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.
Funktionen:
- Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
- Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
- 25 Gbit/s Spitzenbandbreite auf kleineren Instance-Größen
- 100 Gbit/s Netzwerkbandbreite auf den größten Instance-Größen
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R5dn-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
* r5n.metal und r5dn.metal bieten 96 logische Prozessoren auf 48 physischen Kernen.
Alle Instances haben die folgenden Spezifikationen:
- Kundenspezifische skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake) mit einer konstanten All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbofrequenz von 3,5 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webmaßstab, mittelgroße In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und andere Unternehmensanwendungen
R5b
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Networking Performance (Gbps)***
|
EBS Bandwidth (Mbps)
|
|---|---|---|---|---|---|
|
r5b.large
|
2 |
16 |
Nur EBS |
Bis zu 10 |
Bis zu 10 000 |
|
r5b.xlarge
|
4 |
32 |
Nur EBS |
Bis zu 10 |
Bis zu 10 000 |
|
r5b.2xlarge
|
8 |
64 |
Nur EBS |
Bis zu 10 |
Bis zu 10 000 |
|
r5b.4xlarge
|
16 |
128 |
Nur EBS |
Bis zu 10 |
10 000 |
|
r5b.8xlarge
|
32 |
256 |
Nur EBS |
10 |
20 000 |
|
r5b.12xlarge
|
48 |
384 |
Nur EBS |
10 |
30 000 |
|
r5b.16xlarge
|
64 |
512 |
Nur EBS |
20 |
40 000 |
|
r5b.24xlarge
|
96 |
768 |
Nur EBS |
25 |
60 000 |
|
r5b.metal
|
96* |
768 |
Nur EBS |
25 |
60 000 |
Amazon-EC2-R5b-Instances sind EBS-optimierte Varianten arbeitsspeicheroptimierter R5-Instances. R5b-Instances erhöhen die EBS-Leistung im Vergleich zu R5-Instances gleicher Größe um das Dreifache. R5b-Instances bieten eine Bandbreite von bis zu 60 Gbit/s und eine EBS-Leistung von 260K IOPS – die höchste Blockspeicherleistung in EC2.
Funktionen:
- Benutzerdefinierte skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake 8259CL) mit einer anhaltenden All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbo-Frequenz von 3,5 GHz
- Bis zu 96 vCPUs, bis zu 768 GiB Arbeitsspeicher
- Bis zu 25 Gbit/s Netzwerkbandbreite
- Bis zu 60 Gbit/s an EBS-Bandbreite
Anwendungsfälle
Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webmaßstab, mittelgroße In-Memory-Datenbanken und Echtzeit-Big-Data-Analytik.
R5a
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Networking Performance (Gbps)***
|
EBS Bandwidth (Mbps)
|
|---|---|---|---|---|---|
|
r5a.large
|
2
|
16
|
Nur EBS
|
Bis zu 10
|
Bis zu 2.880
|
|
r5a.xlarge
|
4
|
32
|
Nur EBS
|
Bis zu 10
|
Bis zu 2.880
|
|
r5a.2xlarge
|
8
|
64
|
Nur EBS
|
Bis zu 10
|
Bis zu 2.880
|
|
r5a.4xlarge
|
16
|
128
|
Nur EBS
|
Bis zu 10
|
2.880
|
|
r5a.8xlarge
|
32
|
256
|
Nur EBS
|
Bis zu 10
|
4.750
|
|
r5a.12xlarge
|
48
|
384
|
Nur EBS
|
10
|
6.780
|
|
r5a.16xlarge
|
64
|
512
|
Nur EBS
|
12
|
9.500
|
|
r5a.24xlarge
|
96
|
768
|
Nur EBS
|
20
|
13 570
|
|
r5ad.large
|
2
|
16
|
1 x 75 NVMe-SSD
|
Bis zu 10
|
Bis zu 2.880
|
|
r5ad.xlarge
|
4
|
32
|
1 x 150 NVMe-SSD
|
Bis zu 10
|
Bis zu 2.880
|
|
r5ad.2xlarge
|
8
|
64
|
1 x 300 NVMe-SSD
|
Bis zu 10
|
Bis zu 2.880
|
|
r5ad.4xlarge
|
16
|
128
|
2 x 300 NVMe-SSD
|
Bis zu 10
|
2.880
|
|
r5ad.8xlarge
|
32
|
256
|
2 x 600 NVMe-SSD
|
Bis zu 10
|
4.750
|
|
r5ad.12xlarge
|
48
|
384
|
2 x 900 NVMe-SSD
|
10
|
6.780
|
|
r5ad.16xlarge
|
64
|
512
|
4 x 600 NVMe-SSD
|
12
|
9.500
|
|
r5ad.24xlarge
|
96
|
768
|
4 x 900 NVMe-SSD
|
20
|
13 570
|
Amazon-EC2-R5a-Instances sind die neueste Generation der arbeitsspeicheroptimierten Instances. Sie sind ideal für arbeitsspeicherbasierte Workloads und verwenden Prozessoren der AMD-EPYC-7000-Serie. R5a-Instances bieten um bis zu 10 % günstigere Kosten pro GiB als vergleichbare Instances.
Funktionen:
- Prozessoren der AMD EPYC 7000-Serie (AMD EPYC 7571) mit einer All-Core-Turbo-Taktfrequenz von 2,5 GHz
- Bis zu 20 Gbit/s Netzwerkbandbreite mit Enhanced Networking
- Bis zu 768 GiB Arbeitsspeicher pro Instance
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Host-Server verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5a-Instance gekoppelt ist
Alle Instances haben die folgenden Spezifikationen:
- Prozessoren der 2.5 GHz AMD EPYC 7000 Serie
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
R5a-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, verteilte In-Memory-Caches im Webmaßstab, mittelgroße In-Memory-Datenbanken, Big-Data-Analytik in Echtzeit und andere Unternehmensanwendungen.
R4
|
Instance
|
vCPU
|
Mem (GiB)
|
Storage
|
Networking Performance (Gbps)***
|
|---|---|---|---|---|
|
r4.large
|
2
|
15,25
|
Nur EBS
|
Bis zu 10
|
|
r4.xlarge
|
4
|
30,5
|
Nur EBS
|
Bis zu 10
|
|
r4.2xlarge
|
8
|
61
|
Nur EBS
|
Bis zu 10
|
|
r4.4xlarge
|
16
|
122
|
Nur EBS
|
Bis zu 10
|
|
r4.8xlarge
|
32
|
244
|
Nur EBS
|
10
|
|
r4.16xlarge
|
64
|
488
|
Nur EBS
|
25
|
Amazon-EC2-R4-Instances sind für speicherintensive Anwendungen optimiert und stellen ein besseres RAM-Preisangebot pro GiB als R3 dar.
Funktionen:
- Skalierbare Hochfrequenz Intel Xeon (Broadwell E5-2686 v4) Prozessoren
- DDR4 Speicher
- Unterstützung für Enhanced Networking
Alle Instances haben die folgenden Spezifikationen:
- Bis zu 2,3 GHz skalierbarer Intel Xeon-Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Hochleistungs-Datenbanken, Data Mining und -Analyse, In-Memory-Datenbanken, verteilte In-Memory-Caches im Webmaßstab, Anwendungen zur Echtzeitverarbeitung unstrukturierter Big Data, Hadoop/Spark-Cluster und andere Unternehmensanwendungen.
U7i
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
u7i-6tb.112xlarge
|
448 |
6.144 |
Nur EBS |
100 |
100 |
|
u7i-8tb.112xlarge
|
448 |
8.192 |
Nur EBS |
100 |
100 |
|
u7i-12tb.224xlarge
|
896 |
12 288 |
Nur EBS |
100 |
100 |
|
u7in-16tb.224xlarge
|
896 |
16 384 |
Nur EBS |
200 |
100 |
|
u7in-24tb.224xlarge
|
896 |
24 576 |
Nur EBS |
200 |
100 |
|
u7in-32tb.224xlarge
|
896 |
32 768 |
Nur EBS |
200 |
100 |
|
u7inh-32tb.480xlarge
|
1.920 |
32.768 |
Nur EBS |
200 |
160 |
Arbeitsspeicherintensive Amazon-EC2-U7i-Instances wurden speziell für den Betrieb großer In-Memory-Datenbanken wie SAP HANA und Oracle entwickelt.
Features:
- Bietet bis zu 1920 vCPUs
- Mit DDR5-Speicher
- Bis zu 32 TiB Instance-Speicher
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- Virtualisierte Instances sind mit On-Demand- sowie mit ein- und dreijährigen Savings-Plan-Kaufoptionen erhältlich*
* U7INH-Instances sind als 3-Jahres-Instance-Sparplan erhältlich.
U7i-Instances, die von benutzerdefinierten skalierbaren Intel Xeon Prozessoren der vierten Generation (Sapphire Rapids) angetrieben werden, bieten bis zu 32 TiB des neuesten DDR5-Speichers und bis zu 1920 vCPUs.
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Ideal für die Ausführung großer Unternehmensdatenbanken, einschließlich der SAP HANA-In-Memory-Datenbank in der Cloud. Zertifiziert von SAP für die Ausführung der Business Suite in HANA, der Business Suite der nächsten Generation S/4HANA, Data Mart Solutions in HANA, Business Warehouse in HANA und SAP BW/4HANA in Produktionsumgebungen. Detaillierte Informationen finden Sie im SAP-HANA-Hardwareverzeichnis.
Hoher Arbeitsspeicher (U-1)
|
Name
|
Logical Processors*
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
u-3tb1.56xlarge
|
224
|
3 072
|
Nur EBS
|
50
|
19
|
|
u-6tb1.56xlarge
|
224
|
6.144
|
Nur EBS
|
100
|
38
|
|
u-6tb1.112xlarge
|
448
|
6.144
|
Nur EBS
|
100
|
38
|
|
u-6tb1.metal**
|
448
|
6.144
|
Nur EBS
|
100
|
38
|
Amazon EC2 High Memory (U-1)-Instances von sind speziell für die Ausführung großer In-Memory-Datenbanken konzipiert, einschließlich Produktionsbereitstellungen von SAP HANA in der Cloud.
Features:
- Jetzt mit Bare-Metal- oder virtualisiertem Speicher verfügbar
- Speicher für 3- und 6-TiB-Instances
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Virtualisierte Instances sind mit On-Demand- sowie mit ein- und dreijährigen Savings-Plan-Kaufoptionen erhältlich
**Einige Instances, die vor dem 12. März 2020 gestartet wurden, weisen möglicherweise eine geringere Leistung auf. Wenden Sie sich an Ihr Kundenteam, um für Ihre Instanz ein Upgrade auf die höhere Leistungsstufe vornehmen zu lassen (ohne zusätzliche Kosten).
* Jeder logische Prozessor ist ein Hyperthread auf 224 Kernen
- 3- und 6-TB-Instances werden von 2,1 GHz (mit Turbo Boost auf 3,80 GHz) skalierbaren Intel Xeon Prozessoren (Skylake 8176M) oder 2,7 GHz (mit Turbo Boost auf 4,0 GHz) skalierbaren Intel Xeon Prozessoren der 2. Generation (Cascade Lake 8280L) betrieben.
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Ideal für die Ausführung großer Unternehmensdatenbanken, einschließlich Produktionsinstallationen der In-Memory-Datenbank SAP HANA in der Cloud. Zertifiziert von SAP für die Ausführung der Business Suite in HANA, der Business Suite der nächsten Generation S/4HANA, Data Mart Solutions in HANA, Business Warehouse in HANA und SAP BW/4HANA in Produktionsumgebungen.
X8g
|
Instance size
|
vCPU
|
Memory (GiB)
|
Instance storage (GB)
|
Network bandwidth (Gbps)
|
EBS bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
x8g.medium
|
1 |
16 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
x8g.large
|
2 |
32 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
x8g.xlarge
|
4 |
64 |
Nur EBS |
Bis zu 12,5 |
Bis zu 10 |
|
x8g.2xlarge
|
8 |
128 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
x8g.4xlarge
|
16 |
256 |
Nur EBS |
Bis zu 15 |
Bis zu 10 |
|
x8g.8xlarge
|
32 |
512 |
Nur EBS |
15 |
10 |
|
x8g.12xlarge
|
48 |
768 |
Nur EBS |
22,5 |
15 |
|
x8g.16xlarge
|
64 |
1 024 |
Nur EBS |
30 |
20 |
|
x8g.24xlarge
|
96 |
1 536 |
Nur EBS |
40 |
30 |
|
x8g.48xlarge
|
192 |
3 072 |
Nur EBS |
50 |
40 |
|
x8g.metal-24xl
|
96 |
1 536 |
Nur EBS |
40 |
30 |
|
x8g.metal-48xl
|
192 |
3 072 |
Nur EBS |
50 |
40 |
Amazon-EC2-X8g-Instances werden von AWS-Graviton4-Prozessoren betrieben. Sie bieten das beste Preis-Leistungs-Verhältnis unter den Amazon-EC2-Instances der X-Serie.
Funktionen:
- Angetrieben von speziell angefertigten AWS-Graviton4-Prozessoren
- Größere Instance-Größen mit bis zu 3x mehr vCPUs und Speicher als X2gd-Instances
- Mit dem neuesten DDR5-5600-Speicher
- Standardmäßig für Amazon EBS optimiert
- Unterstützt Elastic Fabric Adapter (EFA) in x8g.24xlarge, x8g.48xlarge, x8g.metal-24xl und x8g.metal-48xl
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Alle Instances haben die folgenden Spezifikationen:
- Speziell angefertigter AWS-Graviton4-Prozessor
- Optimiert für Amazon EBS
- Verbessertes Netzwerk†
Anwendungsfälle
Speicherintensive Workloads wie In-Memory-Datenbanken (Redis, Memcached), relationale Datenbanken (MySQL, PostgreSQL), Electronic Design Automation (EDA)-Workloads, Big-Data-Analytik in Echtzeit, Caching-Server in Echtzeit und speicherintensive containerisierte Anwendungen.
X8aedz
|
Instance size
|
vCPU
|
Memory (GiB)
|
Instance storage NVMe SSD (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
x8aedz.large
|
2
|
64
|
1 x 158
|
Bis zu 18,75
|
Bis zu 15
|
|
x8aedz.xlarge
|
4
|
128
|
1 x 316
|
Bis zu 18,75
|
Bis zu 15 |
|
x8aedz.3xlarge
|
12
|
384
|
1 x 950
|
Bis zu 18,75
|
Bis zu 15 |
|
x8aedz.6xlarge
|
24 |
756
|
1 x 1 900
|
18,75
|
15 |
|
x8aedz.12xlarge
|
48
|
1 536
|
1 x 3 800
|
37,5
|
30 |
|
x8aedz.24xlarge
|
96
|
3 072
|
2 x 3 800
|
75
|
60
|
|
x8aedz.metal-12xl
|
48
|
1 536
|
1 x 3 800
|
37,5
|
30
|
|
x8aedz.metal-24xl
|
96
|
3 072
|
2 x 3 800
|
75
|
60 |
Amazon Elastic Compute Cloud (Amazon EC2)-X8AEDZ-Instances sind arbeitsspeicheroptimierte Instances der nächsten Generation, die auf AMD-EPYC-Prozessoren der 5. Generation basieren. Diese Instances bieten die höchste CPU-Frequenz, 5 GHz in der Cloud.
Ideale Anwendungsfälle:
X8AEDZ-Instances eignen sich ideal für Electronic Design Automation (EDA)-Workloads wie physisches Layout und physische Verifizierung sowie für relationale Datenbanken, die von einer hohen Single-Thread-Prozessorleistung und einem großen Speicherbedarf profitieren. Die Kombination aus 5-GHz-Prozessoren und lokalem NVMe-Speicher ermöglicht eine schnellere Verarbeitung speicherintensiver Backend-EDA-Workloads wie Raumplanung, Logikplatzierung, Taktbaumsynthese (CTS), Routing und Analyse der Leistungs-/Signalintegrität.
Schlüsseltechnologie:
- Bis zu 5 GHz AMD-EPYC-Prozessoren der 5. Generation
- Bis zu 96 vCPUs und bis zu 3 072 GiB Arbeitsspeicher
- Bis zu 75 Gbit/s Netzwerkbandbreite und bis zu 60 Gbit/s EBS-Bandbreite
- Bis zu 8 TB NVMe SSD-Speicher
- Unterstützung des IBC-Feature (Instance Bandwidth Configuration), die die Netzwerk- oder EBS-Bandbreite um bis zu 25 % erhöht
X2gd
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)***
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
x2gd.medium
|
1 |
16 |
1x59 NVMe SSD |
Bis zu 10 |
Bis zu 4,75 |
|
x2gd.large
|
2 |
32 |
1x118 NVMe SSD |
Bis zu 10 |
Bis zu 4,75 |
|
x2gd.xlarge
|
4 |
64 |
1x237 NVMe SSD |
Bis zu 10 |
Bis zu 4,75 |
|
x2gd.2xlarge
|
8 |
128 |
1x475 NVMe SSD |
Bis zu 10 |
Bis zu 4,75 |
|
x2gd.4xlarge
|
16 |
256 |
1x950 NVMe SSD |
Bis zu 10 |
4,75 |
|
x2gd.8xlarge
|
32 |
512 |
1x1900 NVMe SSD |
12 |
9,5 |
|
x2gd.12xlarge
|
48 |
768 |
2x1425 NVMe SSD |
20 |
14,25 |
|
x2gd.16xlarge
|
64 |
1024 |
2x1900 NVMe SSD |
25 |
19 |
|
x2gd.metal
|
64 |
1024 |
2x1900 NVMe SSD |
25 |
19 |
Amazon-EC2-X2gd-Instances werden von Arm-basierten AWS-Graviton2-Prozessoren angetrieben und bieten die niedrigsten Kosten pro GiB Speicher in Amazon EC2. Sie bieten eine bis zu 55 % bessere Preisleistung im Vergleich zu X1-Instances der aktuellen Generation.
Funktionen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
- Lokaler NVMe-basierter SSD-Speicher bietet Hochgeschwindigkeitszugriff mit geringer Latenz auf In-Memory-Daten
- Standardmäßig für EBS optimiert
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Speicherintensive Workloads wie Open-Source-Datenbanken (MySQL, MariaDB und PostgreSQL), In-Memory-Caches (Redis, KeyDB, Memcached), EDA-Workloads (Electronic Design Automation (EDA)), Echtzeit-Analysen und Echtzeit-Caching-Server.
X2idn
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
x2idn.16xlarge
|
64 |
1 024 |
1 x 1 900 NVMe-SSD |
50 |
40 |
|
x2idn.24xlarge
|
96
|
1 536
|
2 x 1 425 NVMe-SSD |
75 |
60 |
|
x2idn.32xlarge
|
128
|
2 048 |
2 x 1 900 NVMe-SSD |
100 |
80 |
|
x2idn.metal
|
128
|
2 048 |
2 x 1 900 NVMe-SSD |
100 |
80 |
Amazon-EC2-X2idn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation mit einer Turbofrequenz von bis zu 3,5 GHz für alle Kerne angetrieben und sind eine gute Wahl für eine Vielzahl von speicherintensiven Anwendungen.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- 16:1-Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
- Bis zu 50 % bessere Preisleistung als X1-Instances
- Bis zu 100 GBit/s Netzwerkdurchsatz
- Bis zu 80 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Support für neue Anweisungen von Intel-Advanced-Vector-Extensions (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
In-Memory-Datenbanken (z. B. SAP HANA, Redis), traditionelle Datenbanken (z. B. Oracle DB, Microsoft SQL Server) und In-Memory-Analytik (z. B. SAS, Aerospike).
X2iedn
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)***
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
x2iedn.xlarge
|
4 |
128 |
1 x 118 NVMe-SSD |
Bis zu 25 |
Bis zu 20 |
|
x2iedn.2xlarge
|
8
|
256 |
1 x 237 NVMe-SSD |
Bis zu 25 |
Bis zu 20 |
|
x2iedn.4xlarge
|
16
|
512 |
1 x 475 NVMe-SSD |
Bis zu 25 |
Bis zu 20 |
|
x2iedn.8xlarge
|
32
|
1 024 |
1 x 950 NVMe-SSD |
25 |
20 |
|
x2iedn.16xlarge
|
64
|
2 048 |
1 x 1 900 NVMe-SSD |
50 |
40 |
|
x2iedn.24xlarge
|
96
|
3 072 |
2 x 1 425 NVMe-SSD |
75 |
60 |
|
x2iedn.32xlarge
|
128
|
4 096 |
2 x 1 900 NVMe-SSD |
100 |
80 |
|
x2iedn.metal
|
128
|
4 096 |
2 x 1 900 NVMe-SSD |
100 |
80 |
Amazon-EC2-X2iedn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) mit einer Turbofrequenz von bis zu 3,5 GHz für alle Kerne angetrieben und sind eine gute Wahl für eine breite Palette von speicherintensiven Anwendungen in großem Umfang.
Funktionen:
- Skalierbare Intel-Xeon-Prozessoren der 3. Generation mit bis zu 3,5 GHz (Ice Lake 8375C)
- 32:1 Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
- Bis zu 50 % bessere Preisleistung als X1-Instances
- Bis zu 100 GBit/s Netzwerkdurchsatz
- Bis zu 80 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
- Support für Always-On-Arbeitsspeicherverschlüsselung mit Intel Total Memory Encryption (TME)
- Support für neue Anweisungen von Intel-Advanced-Vector-Extensions (AVX 512) zur schnelleren Ausführung von Verschlüsselungsalgorithmen
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Große In-Memory-Datenbanken (z. B. SAP HANA, Redis), traditionelle Datenbanken (z. B. Oracle DB, Microsoft SQL Server) und In-Memory-Analysen (z. B. SAS, Aerospike).
X2iezn
|
Instance Size
|
vCPU
|
Memory (GiB)
|
Instance Storage (GB)
|
Network Bandwidth (Gbps)***
|
EBS Bandwidth (Gbps)
|
|---|---|---|---|---|---|
|
x2iezn.2xlarge
|
8
|
256
|
Nur EBS
|
Bis zu 25
|
3,17
|
|
x2iezn.4xlarge
|
16
|
512
|
Nur EBS
|
Bis zu 25
|
4,75
|
|
x2iezn.6xlarge
|
24
|
768
|
Nur EBS
|
50
|
9,5
|
|
x2iezn.8xlarge
|
32
|
1 024
|
Nur EBS
|
75
|
12
|
|
x2iezn.12xlarge
|
48
|
1 536
|
Nur EBS
|
100
|
19
|
|
x2iezn.metal
|
48
|
1 536
|
Nur EBS
|
100
|
19
|
Amazon-EC2-X2iezn-Instances werden von den schnellsten skalierbaren Intel-Xeon-Prozessoren (Codename Cascade Lake) in der Cloud angetrieben, mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz und sind eine gute Wahl für speicherintensive Electronic Design Automation (EDA)-Workloads.
Funktionen:
- Bis zu 4,5 GHz skalierbare Intel Xeon Prozessoren der 2. Generation (Cascade Lake 8252C)
- 32:1 Verhältnis von Arbeitsspeicher zu vCPU bei allen Größen
- Bis zu 55 % bessere Preisleistung als X1e-Instances
- Bis zu 100 GBit/s Netzwerkdurchsatz
- Bis zu 19 Gbit/s Bandbreite zum Amazon Elastic Block Store
- Unterstützt Elastic Fabric Adapter in 12xlarge- und Metal-Größen
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Electronic Design Automation (EDA) wie physikalische Verifikation, statische Timing-Analyse, Leistungssignierung und vollständige Chip-Gate-Level-Simulation.
X1
|
Instance
|
vCPU
|
Mem (GiB)
|
SSD Storage (GB)
|
Dedicated EBS Bandwidth (Mbps)
|
Network Performance (Gbps)
|
|---|---|---|---|---|---|
|
x1.16xlarge
|
64
|
976
|
1 x 1.920
|
7.000
|
10
|
|
x1.32xlarge
|
128
|
1.952
|
2 x 1.920
|
14.000
|
25
|
Amazon-EC2-X1-Instances sind für Datenbanken der Unternehmensklasse und In-Memory-Anwendungen optimiert.
Funktionen:
- Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
- Einer der günstigsten Preise pro GiB RAM
- Bis zu 1.952 GiB DRAM-basierter Instance-Speicher
- SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
- Steuerung der C- und P-State-Prozessorkonfiguration
Alle Instances haben die folgenden Spezifikationen:
- Skalierbarer Intel Xeon-Prozessor mit 2,3 GHz (Haswell E7-8880 v3)
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
In-Memory-Datenbanken (wie SAP HANA), Engines zur Big Data-Verarbeitung (wie Apache Spark oder Presto) und High Performance Computing (HPC). Anwendungen, die von SAP zur Ausführung von Business Warehouse on HANA (BW), Data Mart Solutions on HANA, Business Suite on HANA (SoH) und Business Suite S/4HANA zertifiziert sind.
X1e
|
Instance
|
vCPU
|
Mem (GiB)
|
SSD Storage (GB)
|
Dedicated EBS Bandwidth (Mbps)
|
Networking Performance (Gbps)***
|
|---|---|---|---|---|---|
|
x1e.xlarge
|
4
|
122
|
1 x 120
|
500
|
Bis zu 10
|
|
x1e.2xlarge
|
8
|
244
|
1 x 240
|
1.000
|
Bis zu 10
|
|
x1e.4xlarge
|
16
|
488
|
1 x 480
|
1.750
|
Bis zu 10
|
|
x1e.8xlarge
|
32
|
976
|
1 x 960
|
3.500
|
Bis zu 10
|
|
x1e.16xlarge
|
64
|
1.952
|
1 x 1.920
|
7.000
|
10
|
|
x1e.32xlarge
|
128
|
3.904
|
2 x 1.920
|
14.000
|
25
|
Amazon-EC2-X1e-Instances sind für große Datenbanken, In-Memory-Datenbanken und andere speicherintensive Unternehmensanwendungen optimiert.
Funktionen:
- Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
- Einer der günstigsten Preise pro GiB RAM
- Bis zu 3.904 GiB DRAM-basierter Instance-Speicher
- SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
- Möglichkeit zur Kontrolle von C-State- und P-State-Prozessorkonfigurationen auf Instances vom Typ x1e.32xlarge, x1e.16xlarge und x1e.8xlarge
Alle Instances haben die folgenden Spezifikationen:
- Skalierbarer Intel Xeon-Prozessor mit 2,3 GHz (Haswell E7-8880 v3)
- Intel AVX†, Intel AVX2†
- EBS-optimiert
- Enhanced Networking†
Zusätzlich haben x1e.16xlarge und x1e.32xlarge
Anwendungsfälle
Hochleistungs-Datenbanken, In-Memory-Datenbanken (z. B. SAP HANA) und speicherintensive Anwendungen. Von SAP zertifizierte x1e.32xlarge-Instance zum Ausführen der nächsten Generation von Business Suite S/4HANA, Business Suite in HANA (SoH), Business Warehouse in HANA (BW) und Data Mart Solutions in HANA in der AWS Cloud.
z1d
|
Instance
|
vCPU
|
Mem (GiB)
|
Networking Performance (Gbps)***
|
SSD Storage (GB)
|
|---|---|---|---|---|
|
z1d.large
|
2
|
16
|
Bis zu 10
|
1 x 75 NVMe-SSD
|
|
z1d.xlarge
|
4
|
32
|
Bis zu 10
|
1 x 150 NVMe-SSD
|
|
z1d.2xlarge
|
8
|
64
|
Bis zu 10
|
1 x 300 NVMe-SSD
|
|
z1d.3xlarge
|
12
|
96
|
Bis zu 10
|
1 x 450 NVMe-SSD
|
|
z1d.6xlarge
|
24
|
192
|
10
|
1 x 900 NVMe SSD
|
|
z1d.12xlarge
|
48
|
384
|
25
|
2 x 900 NVMe SSD
|
|
z1d.metal
|
48*
|
384
|
25
|
2 x 900 NVMe SSD
|
Amazon-EC2-z1d-Instances bieten sowohl hohe Rechenkapazität als auch großen Arbeitsspeicher. Hochfrequenz-z1d-Instances bieten eine gleichbleibende Kernfrequenz von bis zu 4,0 GHz, die schnellste aller Cloud-Instances.
Funktionen:
- Spezieller skalierbarer Intel® Xeon® Prozessor (Skylake 8151) mit einer dauerhaften Frequenz von bis zu 4,0 GHz für alle Kerne und dem neuen Befehlssatz Intel Advanced Vector Extension (AVX-512)
- Bis zu 1,8 TB Instance-Speicher
- Großer Arbeitsspeicher mit bis zu 384 GiB RAM
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
- Mit z1d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der z1d-Instance verknüpft ist
* z1d.metal bietet 48 logische Prozessoren auf 24 physischen Kernen
Alle Instances haben die folgenden Spezifikationen:
- Intel® Xeon® Scalable-Prozessoren mit bis zu 4,0 GHz
- Intel AVX, Intel AVX2, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Ideal für Electronic Design Automation (EDA) und bestimmte relationale Datenbank-Workloads mit hohen Lizenzierungskosten pro Kern.
Fußnoten
Jede vCPU auf Graviton-basierten Amazon-EC2-Instances ist ein Kern des AWS-Graviton-Prozessors.
Jede vCPU auf Amazon EC2-Instances, die nicht auf Graviton basieren, ist ein Thread eines x86-basierten Prozessors, mit Ausnahme von R7a-Instances.
† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
*** Instances, die mit „Bis zu“ Netzwerkbandbreite gekennzeichnet sind, haben eine Basisbandbreite und können einen Mechanismus für Netzwerk-I/O-Guthaben nutzen, um über ihre Basisbandbreite hinaus nach bestmöglichem Einsatz zu arbeiten. Weitere Informationen finden Sie unter Instance-Netzwerk-Bandbreite.