Amazon EC2 bietet eine große Auswahl von Instance-Typen, die für unterschiedliche Anwendungsfälle optimiert sind. Instance-Typen unterstützen verschiedene Kombinationen von CPU, Arbeitsspeicher, Speicher und Netzwerkkapazität. So können Sie flexibel die ideale Ressourcenzusammenstellung für Ihre Anwendungen auswählen. Jeden Instance-Typ gibt es in einer oder mehreren Größen, sodass Sie Ihre Ressourcen an die entsprechenden Zielvorgaben anpassen können.
Allgemeine Zwecke
Allzweck-Instances bieten ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkressourcen und können für eine Vielzahl unterschiedlicher Workloads verwendet werden. Diese Instances eignen sich ideal für Anwendungen, die diese Ressourcen zu gleichen Anteilen verwenden, z. B. Webserver und Code-Repositorys.
-
A1
-
T3
-
T3a
-
T2
-
M6g
-
M5
-
M5a
-
M5n
-
M4
-
A1
-
Amazon EC2 A1-Instances bieten erhebliche Kosteneinsparungen und sind ideal für Scale-Out- und Arm-basierte Workloads geeignet, die vom umfangreichen Arm-Ökosystem unterstützt werden. A1-Instances sind die ersten EC2-Instances, die von AWS Graviton-Prozessoren mit 64-Bit-Arm-Neoverse-Kernen und kundenspezifischem Silizium von AWS betrieben werden.
Funktionen:
- Benutzerdefinierter AWS Graviton-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 10 Gbit/s
- Standardmäßig für EBS optimiert
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance vCPU Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s) a1.medium 1 2 Nur EBS
Bis zu 10 a1.larg 2 4 Nur EBS Bis zu 10 a1.xlarge 4 8 Nur EBS Bis zu 10 a1.2xlarge 8 16 Nur EBS Bis zu 10 a1.4xlarge 16 32 Nur EBS Bis zu 10 a1.metal 16* 32 Nur EBS Bis zu 10 * a1.metal bietet 16 physische Kerne
Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS Graviton-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle:
Skalieren Sie Workloads wie Web-Server, containerisierte Microservices, Cache-Flotten und verteilte Datenspeicher sowie Entwicklungsumgebungen.
-
T3
-
T3-Instances sind Allzweck-Instance-Typen mit Spitzenlastleistung der nächsten Generation, die eine CPU-Basisleistung mit der Fähigkeit bereitstellen, die CPU-Nutzung jederzeit so lange wie nötig zu steigern. T3-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen.
T3-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu nutzen. T3-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.
Funktionen:
- Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
- Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- AWS Nitro System und Intel Xeon Scalable-Hochfrequenzprozessoren führen zu einer bis zu 30-prozentigen Preis-Leistungs-Verbesserung gegenüber T2-Instances.
Instance vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s) t3.nano 2
6
0,5 Nur EBS Bis zu 5 t3.micro 2
12
1 Nur EBS
Bis zu 5 t3.small 2
24
2 Nur EBS
Bis zu 5 t3.medium 2 24
4 Nur EBS
Bis zu 5 t3.large 2 36
8 Nur EBS Bis zu 5 t3.xlarge 4 96
16 Nur EBS Bis zu 5 t3.2xlarge 8 192
32 Nur EBS Bis zu 5 Alle Instanzen haben die folgenden Spezifikationen:
- 2.5 GHz Intel Scalable-Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle:
Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen
-
T3a
-
T3a-Instances sind die nächste Generation von durchbrechenden Instances für allgemeine Zwecke, welche eine CPU-Basisleistung mit der Möglichkeit die CPU-Auslastung jederzeit und so lange wie nötig zu erhöhen, bieten. T3a-Instances bieten ein ausgewogenes Verhältnis von Rechen-, Arbeitsspeicher- und Netzwerkressourcen und sind für Anwendungen mit moderater CPU-Auslastung konzipiert, die temporäre Nutzungsspitzen aufweisen. T3a-Instances sind um bis zu 10 % günstiger als vergleichbare Instance-Typen.
T3a-Instances sammeln CPU-Guthaben an, wenn Workloads unter der Grundschwelle liegen. Jedes angesammelte CPU-Guthaben gibt der T3a-Instance die Möglichkeit, bei Bedarf eine Minute lang die Spitzenlastleistung eines vollen CPU-Kerns zu verbessern. T3a-Instances können im Modus „Unbegrenzt“ jederzeit und für eine beliebige Zeitdauer Spitzenlasten verarbeiten.
Funktionen:
- Prozessoren der AMD EPYC 7000 Serie mit einer Turbotaktfrequenz von 2,5 GHz
- Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
- Standardmodus „Unbegrenzt“ zur Sicherstellung der Leistung in Spitzenzeiten und Standardmodusoption für vorhersehbare monatliche Kosten
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance vCPU* CPU Gutschriften/Stunde Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbit/s) t3a.nano 2
6
0,5 Nur EBS Bis zu 5 t3a.micro 2
12
1 Nur EBS
Bis zu 5 t3a.small 2
24
2 Nur EBS
Bis zu 5 t3a.medium 2 24
4 Nur EBS
Bis zu 5 t3a.large 2 36
8 Nur EBS Bis zu 5 t3a.xlarge 4 96
16 Nur EBS Bis zu 5 t3a.2xlarge 8 192
32 Nur EBS Bis zu 5 Alle Instanzen haben die folgenden Spezifikationen:
- Prozessoren der 2.5 GHz AMD EPYC 7000 Serie
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle:
Microdienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Code Ablagen und geschäftskritische Anwendungen
-
T2
-
T2-Instances sind Instances mit Spitzenlastleistung, die eine CPU-Basisleistung mit der Möglichkeit zur Verarbeitung von Spitzenlasten oberhalb der Basisleistung bieten.
T2 Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T2 Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.
Die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten werden über CPU-Guthaben verwaltet. T2-Instances erhalten je nach Instance-Größe kontinuierlich CPU-Guthaben mit einer festgelegten Rate, wobei sie CPU-Guthaben sammeln, wenn sie im Leerlauf sind, bzw. Guthaben verbrauchen, wenn sie aktiv sind. T2-Instances eignen sich ideal für eine breite Palette an Verarbeitungslasten für allgemeine Zwecke wie Microservices, interaktive Anwendungen mit geringer Latenz, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungs-, Build- und Stagingumgebungen, Code-Repositorys und Produktprototypen. Weitere Informationen finden Sie unter Instances mit Spitzenlastleistung.
Funktionen:
- Intel Xeon-Hochfrequenzprozessoren
- Spitzenlastfähige CPU, durch CPU-Guthaben gesteuert, mit konstanter Basisleistung
- Preiswertester Instance-Typ für allgemeine Zwecke mit wahlweise erhältlichem kostenlosem Kontingent*
- Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen
* nur t2.micro Bei einer Konfiguration als T2 Unlimited-Instance fallen möglicherweise Gebühren an, wenn die CPU-Nutzung die Basisleistung der Instance überschreitet. Weitere Informationen finden Sie in der Dokumentation.
Instance vCPU* CPU-Guthaben / Stunde
Arbeitsspeicher (GiB) Speicher
Netzwerkleistung t2.nano 1 3 0,5 Nur EBS Gering t2.micro 1 6 1 Nur EBS
Gering bis mittel t2.small 1 12 2 Nur EBS
Gering bis mittel t2.medium 2 24 4 Nur EBS
Gering bis mittel t2.large 2 36 8 Nur EBS Gering bis mittel t2.xlarge 4 54 16 Nur EBS Mittel t2.2xlarge 8 81 32 Nur EBS Mittel Alle Instanzen haben die folgenden Spezifikationen:
- Intel AVX†, Intel Turbo†
- t2.nano, t2.micro, t2.small, t2.medium haben einen bis zu 3.3 GHz skalierbaren Prozessor von Intel
- t2.large, t2.xlarge und t2.2xlarge haben einen bis zu 3.0 GHz skalierbaren Prozessor von Intel
Anwendungsfälle
Websites und Webanwendungen, Entwicklungsumgebungen, Buildserver, Code-Repositorys, Microservices, Test- und Stagingumgebungen sowie Branchenanwendungen.
-
M6g
-
Amazon EC2 M6g-Instances werden mit armbasierten AWS Graviton2-Prozessoren betrieben. Sie bieten im Vergleich zu M5-Instanzen der aktuellen Generation ein um bis zu 40 % günstigeres Preis-Leistungs-Verhältnis und bieten ein ausgewogenes Verhältnis von Rechen-, Speicher- und Netzwerkressourcen für eine breite Palette von Workloads.
Funktionen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Neoverse-Kernen
- Unterstützung für Enhanced Networking mit einer Netzwerkbandbreite von bis zu 25 Gbit/s
- Standardmäßig für EBS optimiert
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher Netzwerkbandbreite (Gbps) EBS-Bandbreite (Mbit/s)
m6g.medium 1 4 Nur EBS Bis zu 10 bis zu 4.750 m6g.large 2 8 Nur EBS Bis zu 10 bis zu 4.750 m6g.xlarge 4 16 Nur EBS Bis zu 10 bis zu 4.750 m6g.2xlarge 8 32 Nur EBS Bis zu 10 bis zu 4.750 m6g.4xlarge 16 64 Nur EBS Bis zu 10 4.750 m6g.8xlarge 32 128 Nur EBS 12 9.000 m6g.12xlarge 48 192 Nur EBS 20 13.500 m6g.16xlarge 64 256 Nur EBS 25 18.000 Alle Instances haben die folgenden Spezifikationen:
- Benutzerdefinierter AWS Graviton2-Prozessor mit 64-Bit-Arm-Kernen
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
Anwendungen, die auf Open-Source-Software basieren, z. B. Anwendungsserver, Microservices, Spieleserver, mittelgroße Datenspeicher und Caching-Flotten.
-
M5
-
Bei M5-Instances handelt es sich um die allgemeinen Instances mit Intel-Prozessoren der Xeon® Platinum 8175M-Serie. Diese Familie bietet eine ausgewogene Kombination von Computer-, Speicher- und Netzwerkressourcen und ist für viele Anwendungen eine gute Wahl.
Funktionen:
- Intel Xeon® Platinum 8175M-Prozessoren mit bis zu 3,1 GHz mit neuem Intel Advanced Vector Extension-Befehlssatz (AVX-512)
- Neue umfangreichere Instance-Größe m5.24xlarge bietet 96 vCPUs und 384 GiB Arbeitsspeicher
- Bis zu 25 Gbit/s Netzwerkbandbreite über Enhanced Networking
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Bei M5d Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
- Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
Instance-Größe
vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher
(GiB)Netzwerkbandbreite (Gbps)
EBS-Bandbreite (Mbit/s) m5.large 2 8 Nur EBS Bis zu 10 bis zu 4.750 m5.xlarge 4 16 Nur EBS Bis zu 10 bis zu 4.750 m5.2xlarge 8 32 Nur EBS Bis zu 10 bis zu 4.750 m5.4xlarge 16 64 Nur EBS Bis zu 10 4.750 m5.8xlarge 32 128 Nur EBS 10 6.800 m5.12xlarge 48 192 Nur EBS 10 9.500 m5.16xlarge 64 256 Nur EBS 20 13.600 m5.24xlarge 96 384 Nur EBS 25 19.000 m5.metal 96* 384 Nur EBS 25 19.000 m5d.large 2 8 1 x 75 NVMe-SSD Bis zu 10 bis zu 4.750 m5d.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 10 bis zu 4.750 m5d.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 10 bis zu 4.750 m5d.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 10 4.750 m5d.8xlarge 32 128 2 x 600 NVMe-SSD 10 6.800 m5d.12xlarge 48 192 2 x 900 NVMe-SSD 10 9.500 m5d.16xlarge 64 256 4 x 600 NVMe-SSD 20 13.600 m5d.24xlarge 96 384 4 x 900 NVMe-SSD 25 19.000 m5d.metal 96* 384 4 x 900 NVMe-SSD 25 19 000 * m5.metal und m5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets
Alle Instances haben die folgenden Spezifikationen:
- Intel Xeon Platinum-Prozessor mit bis zu 3,1 GHz
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Back-End-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.
-
M5a
-
Bei M5a-Instances handelt es sich um die allgemeinen Instances der neuesten Generation mit Prozessoren der AMD EPYC 7000 Serie. M5a-Instances sind um bis zu 10 % günstiger als vergleichbare Instance-Typen.
Funktionen:
- Prozessoren der AMD EPYC 7000 Serie mit einer Turbotaktfrequenz von 2,5 GHz
- Bis zu 20 Gbit/s Netzwerkbandbreite durch Enhanced Networking
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit M5ad-Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, der an die Lebensdauer der M5a-Instance gekoppelt ist
Instance-Größe vCPU Arbeitsspeicher (RAM) (GiB)
Instance-Speicher
(GiB)
Netzwerkbandbreite (Gbps) EBS-Bandbreite (Mbit/s) m5a.large 2 8 Nur EBS Bis zu 10 Bis zu 2.880 m5a.xlarge 4 16 Nur EBS Bis zu 10 Bis zu 2.880 m5a.2xlarge 8 32 Nur EBS Bis zu 10 Bis zu 2.880 m5a.4xlarge 16 64 Nur EBS Bis zu 10 2.880 m5a.8xlarge 32 128 Nur EBS Bis zu 10 4.750 m5a.12xlarge 48 192 Nur EBS 10 6.780 m5a.16xlarge 64 256 Nur EBS 12 9.500 m5a.24xlarge 96 384 Nur EBS 20 13 570 m5ad.large 2 8 1 x 75 NVMe-SSD Bis zu 10 Bis zu 2.880 m5ad.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 10 Bis zu 2.880 m5ad.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 10 Bis zu 2.880 m5ad.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 10 2.880 m5ad.12xlarge 48 192 2 x 900 NVMe-SSD 10 6.870 m5ad.24xlarge 96 384 4 x 900 NVMe-SSD 20 13 570 Alle Instances haben die folgenden Spezifikationen:
- Prozessoren der 2.5 GHz AMD EPYC 7000 Serie
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben, welche zusätzlichen Speicher benötigen, Cachefarmen und die Ausführung von Back-End-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.
- Prozessoren der AMD EPYC 7000 Serie mit einer Turbotaktfrequenz von 2,5 GHz
-
M5n
-
M5-Instances sind für Workloads ideal, die ein Gleichgewicht zwischen Rechen-, Speicher- und Netzwerkleistung einschließlich Web- und Anwendungsservern, kleinen und mittleren Datenbankgrößen, Cluster Computing, Gaming-Servern und Cachefarmen erfordern. Die Instance-Varianten mit größerer Bandbreite M5n und M5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.
Funktion:- Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake) mit einer konstanten All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbofrequenz von 3,5 GHz
- Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
- 25 GBit/s Spitzenbandbreite auf kleineren Instance-Größen
- 100 GBit/s Netzwerkbandbreite auf den größten Instance-Größen
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Bei M5dn-Instances sind lokale NVMe-basierte SSDs physisch mit dem Host-Server verbunden und bieten Speicher auf Blockebene, welcher an die Lebensdauer der M5-Instance gekoppelt ist
Instance-Größe
vCPU Arbeitsspeicher (RAM) (GiB) Instance-Speicher
(GiB)Netzwerkbandbreite (Gbps)
EBS-Bandbreite (Mbit/s) m5n.large 2 8 Nur EBS Bis zu 25 bis zu 4.750 m5n.xlarge 4 16 Nur EBS Bis zu 25 bis zu 4.750 m5n.2xlarge 8 32 Nur EBS Bis zu 25 bis zu 4.750 m5n.4xlarge 16 64 Nur EBS Bis zu 25 4.750 m5n.8xlarge 32 128 Nur EBS 25 6.800
m5n.12xlarge 48 192 Nur EBS 50 9.500 m5n.16xlarge 64 256 Nur EBS 75 13.600 m5n.24xlarge 96 384 Nur EBS 100 19.000 m5dn.large 2 8 1 x 75 NVMe-SSD Bis zu 25 bis zu 4.750 m5dn.xlarge 4 16 1 x 150 NVMe-SSD Bis zu 25 bis zu 4.750 m5dn.2xlarge 8 32 1 x 300 NVMe-SSD Bis zu 25 bis zu 4.750 m5dn.4xlarge 16 64 2 x 300 NVMe-SSD Bis zu 25 4.750 m5dn.8xlarge 32 128 2 x 600 NVMe-SSD 25 6.800 m5dn.12xlarge 48 192 2 x 900 NVMe-SSD 50 9.500 m5dn.16xlarge 64 256 4 x 600 NVMe-SSD 75 13.600 m5dn.24xlarge 96 384 4 x 900 NVMe-SSD 100 19.000 Alle Instances haben die folgenden Spezifikationen:
- Kundenspezifische skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake) mit einer konstanten All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbofrequenz von 3,5 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Web- und Anwendungsserver, kleine und mittlere Datenbankgrößen, Cluster Computing, Spieleservern, Cachefarmen und andere Unternehmensanwendungen
-
M4
-
Die M4-Instances bieten ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen und eignen sich für zahlreiche Anwendungen.
Funktionen:
- 2,3-GHz-Prozessoren Intel Xeon® E5-2686 v4 (Broadwell) oder 2,4-GHz-Prozessoren Intel Xeon® E5-2676 v3 (Haswell)
- Standardmäßig und ohne Zusatzkosten für EBS optimiert
- Unterstützung für Enhanced Networking
- Ausbalancierte Datenverarbeitungs-, Arbeitsspeicher- und Netzwerkressourcen
Instance vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung m4.large 2 8 Nur EBS 450 Mittel m4.xlarge 4 16 Nur EBS 750 Hoch m4.2xlarge 8 32 Nur EBS 1.000 Hoch m4.4xlarge 16 64 Nur EBS 2.000 Hoch m4.10xlarge 40 160 Nur EBS 4.000 10 Gigabit m4.16xlarge 64 256 Nur EBS 10 000 25 Gigabit Alle Instanzen haben die folgenden Spezifikationen:
- 2.4 GHz Intel Xeon E5-2676 v3** Processor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Kleine und mittelgroße Datenbanken, Datenverarbeitungsaufgaben mit höherem Arbeitsspeicherbedarf, Cachefarmen und die Ausführung von Back-End-Servern für SAP, Microsoft SharePoint, Cluster Computing und andere Unternehmensanwendungen.
Jede vCPU ist ein Thread eines Intel Xeon-Kerns oder eines AMD EPYC-Kerns, mit Ausnahme von M6g-Instances, A1-Instances, T2-Instances und m3.medium.
Jede vCPU auf M6g-Instances ist der Kern eines AWS Graviton2-Prozessors.
Jede vCPU auf A1-Instances ist der Kern eines AWS Graviton-Prozessors.
† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.
** Diese M4-Instances können auf einem Intel Xeon E5-2686 v4-Prozessor (Broadwell) gestartet werden.
Für Datenverarbeitung optimiert
Rechenoptimierte Instances sind ideal für rechnergebundene Anwendungen, die von Hochleistungsprozessoren profitieren. Zu dieser Familie gehörende Instances eignen sich gut für Stapelverarbeitungs-Workloads, Medientranscodierung, Hochleistungs-Webserver, Hochleistungs-Computing (HPC), wissenschaftliche Modellierung, dedizierte Spieleserver und Ad-Server-Engines, Inferenzverfahren für Machine Learning und andere rechenintensive Anwendungen.
-
C5
-
C5n
-
C5a
-
C4
-
C5
-
C5-Instances sind für Workloads optimiert, die hohe Ansprüche an die Datenverarbeitung stellen, und bieten eine hohe Leistung zu einem niedrigen Preis.
Funktionen:
- C5-Instances bieten eine Auswahl an Prozessoren, die auf der Größe der Instance basieren.
- Die neuen C5- und C5d-Instances der Größen 12xlarge, 24xlarge und Metal verfügen über benutzerdefinierte Intel Xeon Scalable-Prozessoren der 2. Generation (Cascade Lake) mit einer konstanten All-Core-Turbofrequenz von 3,6 GHz und einer Single-Core-Turbofrequenz von bis zu 3,9 GHz.
- Andere C5-Instance-Größen werden mit dem Intel Xeon Scalable-Prozessor der zweiten Generation (Cascade Lake) oder dem Intel Xeon Platinum-Prozessor der 8000er Serie der ersten Generation (Skylake-SP) mit einer konstanten All-Core-Turbofrequenz von bis zu 3,4 GHz und einer Single-Core-Turbofrequenz von bis zu 3,5 GHz einsteigen.
- Neue, größere 24xlarge-Instance-Größe bietet 96 vCPUs, 192 GB Arbeitsspeicher und optionale 3,6 TB lokale NVMe-basierte SSDs
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Mit den C5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der C5-Instance verknüpft ist
- Elastic Network Adapter (ENA) bietet C5-Instances mit einer Netzwerkbandbreite von bis zu 25 Gbit/ und bis zu 14 Gbit/s dedizierter Bandbreite für Amazon EBS.
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GiB) Netzwerkbandbreite (Gbps)
EBS-Bandbreite (Mbit/s) c5.large 2 4 Nur EBS Bis zu 10 bis zu 4.750 c5.xlarge 4 8 Nur EBS Bis zu 10 bis zu 4.750 c5.2xlarge 8 16 Nur EBS Bis zu 10 bis zu 4.750 c5.4xlarge 16 32 Nur EBS Bis zu 10 4.750 c5.9xlarge 36 72 Nur EBS 10 9.500 c5.12xlarge 48 96 Nur EBS 12 9.500 c5.18xlarge 72 144 Nur EBS 25 19.000 c5.24xlarge 96 192 Nur EBS 25 19.000 c5.metal 96 192 Nur EBS 25 19.000 c5d.large 2 4 1 x 50 NVMe-SSD Bis zu 10 bis zu 4.750 c5d.xlarge 4 8 1 x 100 NVMe-SSD Bis zu 10 bis zu 4.750 c5d.2xlarge 8 16 1 x 200 NVMe-SSD Bis zu 10 bis zu 4.750 c5d.4xlarge 16 32 1 x 400 NVMe-SSD Bis zu 10 4.750 c5d.9xlarge 36 72 1 x 900 NVMe-SSD 10 9.500 c5d.12xlarge 48 96 2 x 900 NVMe-SSD 12 9.500 c5d.18xlarge 72 144 2 x 900 NVMe-SSD 25 19.000 c5d.24xlarge 96 192 4 x 900 NVMe-SSD 25 19.000 c5d.metal 96 192 4 x 900 NVMe-SSD 25 19.000 C5- und C5d-Instances der Größen 12xlarge, 24xlarge und Metal haben die folgenden Spezifikationen:
- Kundenspezifische skalierbare Intel Xeon-Prozessoren der zweiten Generation (Cascade Lake) mit einer konstanten All-Core-Turbofrequenz von 3,6 GHz und einer Single-Core-Turbofrequenz von bis zu 3,9 GHz.
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS-optimiert
- Enhanced Networking†
Alle C5- und C5d-Instances haben die folgenden Spezifikationen:
- Benutzerdefinierte skalierbare Intel Xeon-Prozessoren der zweiten Generation (Cascade Lake) mit einer konstanten All-Core-Turbofrequenz von 3,6 GHz und einer Single-Core-Turbofrequenz von bis zu 3,9 GHz oder einem Intel Xeon Platinum 8000-Prozessor (Skylake-SP) der ersten Generation mit einer konstanten All-Core-Turbofrequenz von bis zu 3,4 GHz und Single-Core-Turbofrequenz von bis zu 3,5 GHz.
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung
-
C5n
-
C5n-Instances eigenen sich am besten für hochgradig rechenintensive Anwendungen (einschließlich High Performance Computing (HPC)-Workloads, Data Lakes und Netzwerkanwendungen, wie Firewalls und Router), die einen verbesserten Netzwerkdurchsatz und eine bessere Paketrate für Leistung nutzen können. C5n-Instances bieten eine Netzwerkbandbreite von bis zu 100 Gbit/s und mehr Speicher im Vergleich zu C5-Instances. C5n.18xlarge-Instances unterstützen Elastic Fabric Adapter (EFA), eine Netzwerkschnittstelle für Amazon EC2-Instances, mit der Kunden Anwendungen ausführen können, die eine hohe Kommunikation zwischen Knoten erfordern, z. B. High Performance Computing (HPC)-Anwendungen mit Hilfe von Message Passing Interface (MPI) in großem Maßstab auf AWS.
Funktionen:
- Intel Xeon Platinum-Prozessoren mit 3,0 GHz mit Intel Advanced Vector Extension 512 (AVX-512)-Befehlssatz
- Jeder Kern läuft mit bis zu 3,5 GHz mit Intel Turbo-Boost-Technik
- Die höhere Instance-Größe c5n.18xlarge bietet 72 vCPUs und 192 GiB Arbeitsspeicher
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Die Netzwerkbandbreite erhöht sich um bis zu 100 Gbit/s und liefert so eine bessere Netzwerkleistung für netzwerkintensive Anwendungen.
- EFA-Support auf c5n.18xlarge-Instances
- 33 % höherer Speicherbedarf als C5-Instances
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GiB) Netzwerkbandbreite (Gbps)
EBS-Bandbreite (Mbit/s) c5n.large 2 5.25 Nur EBS Bis zu 25
bis zu 4.750 c5n.xlarge 4 10.5 Nur EBS Bis zu 25 bis zu 4.750 c5n.2xlarge 8 21 Nur EBS Bis zu 25 bis zu 4.750 c5n.4xlarge 16 42 Nur EBS Bis zu 25 4.750 c5n.9xlarge 36 96
Nur EBS 50 9.500 c5n.18xlarge 72 192 Nur EBS 100 19.000 c5n.metal 72 192 Nur EBS 100 19.000 Alle Instances haben die folgenden Spezifikationen:
- 3.0 GHz Intel Xeon Platinum Prozessor
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Leistungsstarke Webserver, wissenschaftliche Modellierung, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC), Inferenz für Machine/Deep Learning, Ad-Serving, hochgradig skalierbare Multiplayer-Spiele und Videocodierung
-
C5a
-
C5a-Instances bieten dank x86-Architektur ein hervorragendes Preis-Leistungs-Verhältnis und eignen sich für ein breites Spektrum rechenintensiver Workloads.
Funktionen:
- AMD EPYC 7002-Prozessoren der 2. Generation, die mit einer Taktrate von bis zu 3,25 GHz betrieben werden
- Höhere Effizienz und Leistung im Netzwerkbetrieb dank Unterstützung für PCIe der 4. Generation
- Elastic Network Adapter (ENA) bieten eine Netzwerkbandbreite von bis zu 20 Gbit/s für C5a-Instances und bis zu 9,5 Gbit/s dedizierte Bandbreite für Amazon EBS.
- Die Grundlage bildet AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor.
Modell vCPU Arbeitsspeicher (GiB) Instance-Speicher (GiB) Netzwerkbandbreite (Gbps)
EBS-Bandbreite (Mbit/s) c5a.large 2 4 Nur EBS 10
3 170 c5a.xlarge 4 8 Nur EBS 10 3 170 c5a.2xlarge 8 16 Nur EBS 10 3 170 c5a.4xlarge 16 32 Nur EBS 10 3 170 c5a.8xlarge 32 64
Nur EBS 10 3 170 c5a.12xlarge 48 96 Nur EBS 12 4 750 c5a.16xlarge 64 128 Nur EBS 20 6 300 c5a.24xlarge 96 192 Nur EBS 20 9 500 Für alle Instances gelten die folgenden Spezifikationen:
- AMD EPYC-Prozessor der 2. Generation mit einer Taktrate von bis zu 3,25 GHz
- Für EBS
- Enhanced Networking†
Anwendungsfälle
C5a-Instances eignen sich hervorragend für Workloads, die eine hohe vCPU-Rechenleistung und Speicherbandbreite erfordern. Dazu gehören Stapelverarbeitungsvorgänge, verteilte Analysen, Datenumwandlungsaufgaben, Protokollanalysen, Webanwendungen und andere rechenintensive Workloads.
-
C4
-
C4-Instances sind für rechenintensive Workloads optimiert und liefern Datenverarbeitung auf höchstem Niveau zu einem äußerst günstigen Preis.
Funktionen:
- Spezifisch für EC2 optimierte Intel Xeon E5-2666 v3-Hochfrequenzprozessoren (Haswell)
- Standardmäßig EBS-optimiert für eine höhere Speicherleistung ohne zusätzliche Kosten
- Höhere Netzwerkleistung durch Enhanced Networking mit Intel 82599 VF-Unterstützung
- Erfordert Amazon VPC, Amazon EBS und 64-Bit-HVM-AMIs
Instance vCPU* Arbeitsspeicher (GiB) Speicher Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung c4.large 2 3,75 Nur EBS 500 Mittel c4.xlarge 4 7,5 Nur EBS 750 Hoch c4.2xlarge 8 15 Nur EBS 1.000 Hoch c4.4xlarge 16 30 Nur EBS 2.000 Hoch c4.8xlarge 36 60 Nur EBS 4.000 10 Gigabit Alle Instanzen haben die folgenden Spezifikationen:
- 2.9 GHz Intel Xeon E5-2666 v3 Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Front-End-Serverfarmen mit hoher Leistung, Webserver, Stapelverarbeitung, verteilte Analysen, wissenschaftliche und technische Anwendungen mit hoher Leistung, Ad-Serving, Stapelverarbeitung, MMO-Gaming und Videocodierung.
Jede vCPU ist ein Thread entweder eines Intel Xeon-Kern oder eines AMD EPYC-Kern, mit Ausnahme von T2 und m3.medium.
† AVX, AVX2 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.
** Diese M4-Instances können auf einem Intel Xeon E5-2686 v4-Prozessor (Broadwell) gestartet werden.
Arbeitsspeicheroptimiert
Arbeitsspeicheroptimierte Instances bieten eine schnelle Leistung für Workloads, die große Datenmengen im Speicher verarbeiten.
-
R5
-
R5a
-
R5n
-
R4
-
X1e
-
X1
-
Hohe Speicherkapazität
-
z1d
-
R5
-
R5-Instances liefern 5 % mehr Arbeitsspeicher pro vCPU als R4 und die umfangreichste Größe hat 768 GiB Arbeitsspeicher. Außerdem bieten R5-Instances eine Verbesserung von 10 % beim Preis pro GiB und eine etwa 20 % höhere CPU-Leistung gegenüber R4.
Funktionen:
- Intel Xeon® Platinum 8175-Prozessoren mit bis zu 3,1 GHz mit neuem Intel Advanced Vector Extension-Befehlssatz (AVX-512)
- Bis zu 768 GiB Arbeitsspeicher pro Instance
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Mit den R5d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
- Neue 8xlarge- und 16xlarge-Größen sind jetzt verfügbar.
Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GiB) Netzwerkleistung (Gbit/s) EBS-Bandbreite (Mbit/s) r5.large 2 16 Nur EBS bis zu 10 bis zu 4.750 r5.xlarge 4 32 Nur EBS bis zu 10 bis zu 4.750 r5.2xlarge 8 64 Nur EBS bis zu 10 bis zu 4.750 r5.4xlarge 16 128 Nur EBS bis zu 10 4.750 r5.8xlarge 32 256 Nur EBS 10 6.800 r5.12xlarge 48 384 Nur EBS 10 9.500 r5.16xlarge 64 512 Nur EBS 20 13.600 r5.24xlarge 96 768 Nur EBS 25 19.000 r5.metal 96* 768 Nur EBS 25 19.000 r5d.large 2 16 1 x 75 NVMe-SSD bis zu 10 bis zu 4.750 r5d.xlarge 4 32 1 x 150 NVMe-SSD bis zu 10 bis zu 4.750 r5d.2xlarge 8 64 1 x 300 NVMe-SSD bis zu 10 bis zu 4.750 r5d.4xlarge 16 128 2 x 300 NVMe-SSD bis zu 10 4.750 r5d.8xlarge 32 256 2 x 600 NVMe-SSD 10 6.800 r5d.12xlarge 48 384 2 x 900 NVMe-SSD 10 9.500 r5d.16xlarge 64 512 4 x 600 NVMe-SSD 20 13.600 r5d.24xlarge 96 768 4 x 900 NVMe-SSD 25 19.000 r5d.metal 96* 768 4 x 900 NVMe-SSD 25 19 000 * r5.metal und r5d.metal bieten 96 logische Prozessoren auf 48 physischen Kernen. Sie laufen auf einzelnen Servern mit zwei physischen Intel-Sockets
Alle Instances haben die folgenden Spezifikationen:
- Intel Xeon Platinum-Prozessor mit bis zu 3,1 GHz
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
R5-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.
-
R5a
-
R5a-Instances sind die neueste Generation der arbeitsspeicheroptimierten Instances. Sie sind ideal für arbeitsspeicherbasierte Workloads und verwenden Prozessoren der AMD EPYC 7000 Serie. R5a-Instances bieten um bis zu 10 % günstigere Kosten pro GiB als vergleichbare Instances.
Funktionen:
- Prozessoren der AMD EPYC 7000 Serie mit einer Turbotaktfrequenz von 2,5 GHz
- Bis zu 20 Gbit/s Netzwerkbandbreite durch Enhanced Networking
- Bis zu 768 GiB Arbeitsspeicher pro Instance
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R5ad-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Host-Server verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5a-Instance gekoppelt ist
Instance-Größe
vCPU Arbeitsspeicher (GiB) Instance-Speicher (GiB) Netzwerkleistung (Gbps) EBS-Bandbreite (Mbit/s) r5a.large 2 16
Nur EBS Bis zu 10
Bis zu 2.880 r5a.xlarge 4 32 Nur EBS Bis zu 10 Bis zu 2.880 r5a.2xlarge 8 64 Nur EBS Bis zu 10 Bis zu 2.880 r5a.4xlarge 16 128 Nur EBS Bis zu 10 2.880 r5a.8xlarge 32 256 Nur EBS Bis zu 10 4.750 r5a.12xlarge 48 384 Nur EBS 10 6.780 r5a.16xlarge 64 512 Nur EBS 12 9.500 r5a.24xlarge 96 768 Nur EBS 20 13 570 r5ad.large 2 16 1 x 75 NVMe-SSD Bis zu 10
Bis zu 2.880 r5ad.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 10
Bis zu 2.880 r5ad.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 10
Bis zu 2.880 r5ad.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 10
2.880 r5ad.12xlarge 48 384 2 x 900 NVMe-SSD 10 6.780 r5ad.24xlarge 96 768 4 x 900 NVMe-SSD 20 13 570 Alle Instances haben die folgenden Spezifikationen:
- Prozessoren der 2.5 GHz AMD EPYC 7000 Serie
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
R5a-Instances eignen sich ideal für speicherintensive Anwendungen wie Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen.
- Prozessoren der AMD EPYC 7000 Serie mit einer Turbotaktfrequenz von 2,5 GHz
-
R5n
-
R5-Instances eignen sich ideal für arbeitsspeichergebundene Workloads, einschließlich Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen. Die Instance-Varianten mit größerer Bandbreite R5n und R5dn eignen sich ideal für Anwendungen, die von einem verbesserten Netzwerkdurchsatz und einer verbesserten Paketrate profitieren können.
Funktionen:
- Skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake) mit einer konstanten All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbofrequenz von 3,5 GHz
- Unterstützung der neuen Intel Vector Neural Network Instructions (AVX-512 VNNI), die dazu beitragen, typische Vorgänge des Machine Learning wie Convolution zu beschleunigen und die Inferenzleistung über einen weiten Bereich von Deep Learning-Workloads automatisch zu verbessern
- 25 GBit/s Spitzenbandbreite auf kleineren Instance-Größen
- 100 GBit/s Netzwerkbandbreite auf den größten Instance-Größen
- Erfordert HVM-AMIs mit Treibern für ENA und NVMe
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Instance-Speicher über EBS oder NVMe-SSDs, die physisch mit dem Hostserver verbunden sind
- Mit den R5dn-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der R5-Instance verknüpft ist
Instance vCPU Arbeitsspeicher (GiB) Instance-Speicher (GiB) Netzwerkleistung (Gbit/s) EBS-Bandbreite (Mbit/s) r5n.large 2 16 Nur EBS Bis zu 25 bis zu 4.750 r5n.xlarge 4 32 Nur EBS Bis zu 25 bis zu 4.750 r5n.2xlarge 8 64 Nur EBS Bis zu 25 bis zu 4.750 r5n.4xlarge 16 128 Nur EBS Bis zu 25 4.750 r5n.8xlarge 32 256 Nur EBS 25 6.800 r5n.12xlarge 48 384 Nur EBS 50 9.500 r5n.16xlarge 64 512 Nur EBS 75 13.600 r5n.24xlarge 96 768 Nur EBS 100 19.000 r5dn.large 2 16 1 x 75 NVMe-SSD Bis zu 25 bis zu 4.750 r5dn.xlarge 4 32 1 x 150 NVMe-SSD Bis zu 25 bis zu 4.750 r5dn.2xlarge 8 64 1 x 300 NVMe-SSD Bis zu 25 bis zu 4.750 r5dn.4xlarge 16 128 2 x 300 NVMe-SSD Bis zu 25 4.750 r5dn.8xlarge 32 256 2 x 600 NVMe-SSD 25 6.800 r5dn.12xlarge 48 384 2 x 900 NVMe SSD 50 9.500 r5dn.16xlarge 64 512 4 x 600 NVMe-SSD 75 13.600 r5dn.24xlarge 96 768 4 x 900 NVMe-SSD 100 19.000 Alle Instances haben die folgenden Spezifikationen:
- Kundenspezifische skalierbare Intel Xeon-Prozessoren der 2. Generation (Cascade Lake) mit einer konstanten All-Core-Turbo-CPU-Frequenz von 3,1 GHz und einer maximalen Single-Core-Turbofrequenz von 3,5 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Hochleistungsdatenbanken, dezentrale Web-In-Memory-Caches, mittelgroße In-Memory-Datenbanken, Echtzeitanalysen von Big Data und andere Unternehmensanwendungen
-
R4
-
R4-Instances sind für speicherintensive Anwendungen optimiert und stellen ein besseres RAM-Preisangebot pro GiB als R3 dar.
Funktionen:
- Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
- DDR4-Speicher
- Unterstützung für Enhanced Networking
Instance vCPU Arbeitsspeicher (GiB) Speicher Netzwerkleistung (Gbps) r4.large 2 15,25 Nur EBS Bis zu 10 r4.xlarge 4 30,5 Nur EBS Bis zu 10 r4.2xlarge 8 61 Nur EBS Bis zu 10 r4.4xlarge 16 122 Nur EBS Bis zu 10 r4.8xlarge 32 244 Nur EBS 10 r4.16xlarge 64 488 Nur EBS 25 Alle Instanzen haben die folgenden Spezifikationen:
- 2.3 GHz Intel Xeon E5-2686 v4 Processor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Hochleistungsdatenbanken, Data-Mining & -Analyse, In-Memory-Datenbanken, dezentrale Web-In-Memory-Caches, Anwendungen, die unstrukturierte Big Data in Echtzeit verarbeiten, Hadoop-/Spark-Cluster und andere Unternehmensanwendungen.
-
X1e
-
X1e-Instances sind optimiert für die Ausführung von Hochleistungsdatenbanken, arbeitsspeicherinternen Datenbanken und andere arbeitsspeicherlastige Unternehmensanwendungen. X1e-Instances bieten einen der günstigsten Preise pro GiB RAM unter allen Amazon EC2 Instance Typen.
Funktionen:
- Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
- Einer der günstigsten Preise pro GiB RAM
- Bis zu 3.904 GiB DRAM-basierter Instance-Speicher
- SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
- Möglichkeit zur Kontrolle von C-State- und P-State-Prozessorkonfigurationen auf Instances vom Typ x1e.32xlarge, x1e.16xlarge und x1e.8xlarge
Instance vCPU Arbeitsspeicher (GiB) SSD-Speicherung (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung x1e.xlarge 4 122 1 x 120 500 Bis zu 10 Gigabit x1e.2xlarge 8 244 1 x 240 1.000 Bis zu 10 Gigabit x1e.4xlarge 16 488 1 x 480 1.750 Bis zu 10 Gigabit x1e.8xlarge 32 976 1 x 960 3.500 Bis zu 10 Gigabit x1e.16xlarge 64 1.952 1 x 1.920 7.000 10 Gigabit x1e.32xlarge 128 3.904 2 x 1.920 14.000 25 Gigabit Alle Instanzen haben die folgenden Spezifikationen:
- 2.3 GHz Intel Xeon E7-8880 v3 Prozessor
- Intel AVX†, Intel AVX2†
- EBS-optimiert
- Enhanced Networking†
Zusätzlich haben x1e.16xlarge und x1e.32xlarge
Anwendungsfälle
Hochleistungsdatenbanken, In-Memory-Datenbanken (z. B. SAP HANA) und speicherintensive Anwendungen. x1e.32xlarge-Instance ist von SAP für die Ausführung von Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) und Data Mart Solutions on HANA der nächsten Generation in der AWS Cloud zertifiziert.
-
X1
-
X1-Instances sind für extrem große Unternehmensanwendungen und Hauptspeicher Anwendungen optimiert und bieten von allen Amazon EC2 Instance Typen mit die niedrigsten Kosten pro GiB RAM.
Funktionen:
- Intel Xeon E7-8880 v3-Hochfrequenzprozessoren (Haswell)
- Einer der günstigsten Preise pro GiB RAM
- Bis zu 1.952 GiB DRAM-basierter Instance-Speicher
- SSD-Instance-Speicher für die temporäre Speicherung auf Blockebene und standardmäßige EBS-Optimierung ohne Zusatzkosten
- Steuerung der C- und P-State-Prozessorkonfiguration
Instance vCPU Arbeitsspeicher (GiB) SSD-Speicherung (GB) Dedizierte EBS-Bandbreite (Mbit/s) Netzwerkleistung x1.16xlarge 64 976 1 x 1.920 7.000 10 Gigabit x1.32xlarge 128 1.952 2 x 1.920 14.000 25 Gigabit Alle Instanzen haben die folgenden Spezifikationen:
- 2.3 GHz Intel Xeon E7-8880 v3 Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
In-Memory-Datenbanken (wie SAP HANA), Engines zur Big Data-Verarbeitung (wie Apache Spark oder Presto) und High Performance Computing (HPC). Anwendungen, die von SAP zur Ausführung von Business Warehouse on HANA (BW), Data Mart Solutions on HANA, Business Suite on HANA (SoH) und Business Suite S/4HANA zertifiziert sind.
-
Hohe Speicherkapazität
-
High-Memory-Instances sind speziell erbaut um große Hauptspeicher-Datenbanken zu betreiben, einschließlich Produktionsbereitstellungen von SAP HANA in der Cloud.
Funktionen:
- 6, 9, 12, 18 und 24 TiB des Instanzspeichers, der größte einer beliebigen EC2-Instance
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Bare-Metal-Performance mit direktem Zugriff auf Host-Hardware
- Standardmäßig und ohne Zusatzkosten für EBS optimiert
- Verfügbar in Amazon Virtual Private Clouds (VPCs)
Name Logische Prozessoren* RAM (GiB) Netzwerkleistung (GBit/s) Dedizierte EBS-Bandbreite (GBit/s) u-6tb1.metal** 448 6 144 100 38 u-9tb1.metal** 448 9 216 100 38 u-12tb1.metal** 448 12 288 100 38 u-18tb1.metal 448 18432 100 38 u-24tb1.metal 448 24576 100 38 **Einige Instances, die vor dem 12. März 2020 gestartet wurden, weisen möglicherweise eine geringere Leistung auf. Wenden Sie sich an Ihr Kundenteam, um für Ihre Instanz ein Upgrade auf die höhere Leistungsstufe vornehmen zu lassen (ohne zusätzliche Kosten).
*Alle logischen Prozessoren verfügen über Hyper-Threading-Technologie und 224 Kerne
- 6 TB-, 9 TB- und 12 TB-Instances werden von Intel® Xeon® Platinum 8176M (Skylake) Prozessoren mit 2,1 GHz (3,8 GHz mit Turbo Boost) angetrieben
- 18 TB- und 24 TB-Instances werden von Intel® Xeon® Scalable (Cascade Lake) Prozessoren mit 2,7 GHz (4,0 GHz mit Turbo Boost) der 2. Generation angetrieben
Alle Instances haben die folgenden Spezifikationen:
Anwendungsfälle
Ideal für die Ausführung großer Unternehmensdatenbanken, einschließlich Produktionsinstallationen der In-Memory-Datenbank SAP HANA in der Cloud. Von SAP zertifiziert für Business Suite auf HANA, Business Suite S / 4HANA der nächsten Generation, Data Mart Solutions auf HANA, Business Warehouse auf HANA und SAP BW / 4HANA in Produktionsumgebungen.
-
z1d
-
Amazon EC2 z1d-Instances bieten eine hohe Rechenkapazität und einen großen Arbeitsspeicher. Hochfrequenz-z1d-Instances bieten eine gleichbleibende Kernfrequenz von bis zu 4,0 GHz, die schnellste aller Cloud-Instances.
Funktionen:
- Ein benutzerdefinierter Intel® Xeon® Scalable-Prozessor mit einer gleichbleibenden Kernfrequenz von bis zu 4,0 GHz
- Bis zu 1,8 TB Instance-Speicher
- Großer Arbeitsspeicher mit bis zu 384 GiB RAM
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Mit z1d-Instances werden lokale, NVMe-basierte SSDs physisch mit dem Hostserver verbunden und stellen Speicher auf Blockebene zur Verfügung, der mit der Lebensdauer der z1d-Instance verknüpft ist
Instance vCPU Arbeitsspeicher (GiB) Netzwerkleistung SSD-Speicherung (GB) z1d.large 2 16 Bis zu 10 Gigabit 1 x 75 NVMe-SSD z1d.xlarge 4 32 Bis zu 10 Gigabit 1 x 150 NVMe-SSD z1d.2xlarge 8 64 Bis zu 10 Gigabit 1 x 300 NVMe-SSD z1d.3xlarge 12 96 Bis zu 10 Gigabit 1 x 450 NVMe-SSD z1d.6xlarge 24 192 10 Gigabit 1 x 900 NVMe-SSD z1d.12xlarge 48 384 25 Gigabit 2 x 900 NVMe-SSD z1d.metal 48* 384 25 Gigabit 2 x 900 NVMe-SSD * z1d.metal bietet 48 logische Prozessoren auf 24 physischen Kernen
Alle Instanzen haben die folgenden Spezifikationen:
- Intel® Xeon® Scalable-Prozessoren mit bis zu 4,0 GHz
- Intel AVX, Intel AVX2, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Ideal für Electronic Design Automation (EDA) und bestimmte relationale Datenbankworkloads mit hohen Lizenzierungskosten pro Kern.
Accelerated Computing
Beschleunigte Recheninstanzen verwenden Hardwarebeschleuniger oder Co-Prozessoren, um Funktionen wie Gleitkomma-Berechnungen, Grafikverarbeitung oder Datenmusterabgleich effizienter auszuführen, als dies bei auf CPUs laufender Software möglich ist.
-
P3
-
P2
-
Inf1
-
G4
-
G3
-
F1
-
P3
-
P3-Instances sind die universalen GPU-Instances der neuesten Generation.
Funktionen:
- Bis zu 8 NVIDIA Tesla V100-GPUs mit je 5.120 CUDA-Kernen und 640 Tensor-Kernen
- Intel Xeon E5-2686 v4 (Broadwell)-Hochfrequenzprozessoren für p3.2xlarge, p3.8xlarge, and p3.16xlarge.
- Intel Xeon P-8175M-Hochfrequenzprozessoren mit 2,5 GHz (Basis) für p3dn.24xlarge.
- Unterstützt NVLink für die Peer-to-Peer-GPU-Kommunikation
- Bietet eine Gesamtnetzwerkbandbreite von bis zu 100 GBit/s
- EFA-Support auf p3dn.24xlarge-Instances
Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) GPU P2P Speicher (GB) Dedizierte EBS-Bandbreite Netzwerkleistung p3.2xlarge 1 8 61 16 - Nur EBS 1,5 Gbit/s Bis zu 10 Gigabit p3.8xlarge 4 32 244 64 NVLink Nur EBS 7 GBit/s 10 Gigabit p3.16xlarge 8 64 488 128 NVLink Nur EBS 14 GBit/s 25 Gigabit p3dn.24xlarge 8 96 768 256 NVLink 2 x 900 NVMe-SSD 19 GBit/s 100 Gigabit Alle Instanzen haben die folgenden Spezifikationen:
p3.2xlarge, p3.8xlarge und p3.16xlarge verfügen über Intel Xeon E5-2686-v4-Prozessoren mit 2,3 GHz (Basis) und 2,7 GHz (Turbo).p3dn.24xlarge verfügt über 2,5 GHz (Basis) und 3,1 GHz (nachhaltiger All-Core-Turbo) Intel Xeon P-8175M Prozessoren und unterstützt Intel AVX-512. p3dn.24xlarge-Instances unterstützen auch Elastic Fabric Adapter (EFA), der High Performance Computing (HPC)-Anwendungen mithilfe der Message Passing Interface (MPI)- und Machine Learning (ML)-Anwendungen mithilfe der NVIDIA Collective Communications Library (NCCL) ermöglicht, um auf Tausende von GPUs zu skalieren.Anwendungsfälle
Machine/Deep Learning, High Performance Computing (HPC), numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, Spracherkennung, Entwicklung autonomer Fahrzeuge, Arzneimittelforschung.
-
P2
-
P2-Instances eignen sich für allgemeine GPU-Datenverarbeitungsanwendungen.
Funktionen:
- Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
- NVIDIA K80-Hochleistungs-GPUs, jede mit 2.496 parallelen Verarbeitungskernen und 12 GiB GPU-Speicher
- Unterstützt GPUDirect™ für Peer-to-Peer-GPU-Kommunikation
- bietet erweiterte Vernetzung durch den Elastic Network Adaptor (ENA) an, mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Platzierungsgruppe
- Standardmäßig und ohne Zusatzkosten für EBS optimiert
Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung p2.xlarge 1 4 61 12 Hoch p2.8xlarge 8 32 488 96 10 Gigabit p2.16xlarge 16 64 732 192 25 Gigabit Alle Instanzen haben die folgenden Spezifikationen:
- 2.3 GHz (Basis) und 2.7 GHz (Turbo) Intel Xeon E5-2686 v4 Prozessoren
- Intel AVX, Intel AVX2, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Machine Learning, Hochleistungsdatenbanken, numerische Strömungsmechanik, Finanzinformatik, seismische Analysen, molekulare Modellierung, Genome, Rendering und andere serverseitige GPU-Datenverarbeitungslasten.
-
Inf1
-
Amazon EC2 Inf1-Instances sind von Grund auf neu entwickelt worden, um Inferenzanwendungen für Machine Learning zu unterstützen.
Funktionen:
- Bis zu 16 AWS Inferentia-Chips
- AWS Neuron SDK
- Skalieerbare Intel® Xeon®-Hochfrequenzprozessoren der 2. Generation
- Bis zu 100 GBit/s Networking
Instance-Größe vCPUs Arbeitsspeicher (GiB) Speicher Inferentia-Chips Inferentia Chip-to-Chip Interconnect Netzwerkbandbreite EBS-Bandbreite inf1.xlarge 4 8 Nur EBS 1 – Bis zu 25 GBit/s Bis zu 4,75 GBit/s inf1.2xlarge 8 16 Nur EBS 1 – Bis zu 25 GBit/s Bis zu 4,75 GBit/s inf1.6xlarge 24 48 Nur EBS 4 Ja 25 GBit/s 4,75 GBit/s inf1.24xlarge 96 192 Nur EBS 16 Ja 100 GBit/s 19 GBit/s Anwendungsfälle
Empfehlungsmodule, Prognosen, Bild- und Videoanalyse, erweiterte Textanalyse, Dokumentenanalyse, Sprache, Gesprächsagenten, Übersetzung, Transkription und Betrugserkennung.
-
G4
-
G4 Instances wurden zur Beschleunigung von Machine-Learning-Inferenz- und grafikintensiven Workloads entwickelt.
Funktionen:
- Intel Xeon Scalable-Prozessoren (Cascade Lake) der 2. Generation
- NVIDIA T4 Tensor Core GPUs
- Bis zu 100 GBit/s Netzwerkdurchsatz
- Bis zu 1,8 TB lokaler NVMe-Speicher
Instance GPUs vCPU Mem (GB) GPU-Speicher (GB) Instance-Speicher (GB) Netzwerkleistung (GBit/s) Single GPU VMs g4dn.xlarge 1 4 16 16 125 USD Bis zu 25 g4dn.2xlarge 1 8
32 16 225 Bis zu 25 g4dn.4xlarge 1 16 64 16 225 Bis zu 25 g4dn.8xlarge 1 32 128 16 1 x 900 50 g4dn.16xlarge 1 64 256 16 1 x 900 50 Multi GPU VMs g4dn.12xlarge 4 48 192 64 1 x 900 50 g4dn.metal* 8 96 384 128 2 x 900 100 * In Kürze verfügbar
Alle Instances haben die folgenden Spezifikationen:
- 2,5 GHz Cascade Lake 24C Prozessoren
- Intel AVX, Intel AVX2, Intel AVX-512 und Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Machine Learning-Inferenz für Anwendungen wie dem Hinzufügen von Bild-Metadaten, Objektdetektion, Ratgebersysteme, automatische Spracherkennung und Übersetzungen. G4-Instances bieten zudem eine kostengünstige Plattform für die Entwicklung und Ausführung grafikintensiver Anwendungen wie externe Grafik-Workstations, Videotranscodierung, fotorealistisches Design und Game-Streaming in der Cloud.
- Intel Xeon Scalable-Prozessoren (Cascade Lake) der 2. Generation
-
G3
-
G3-Instances sind für grafikintensive Anwendungen optimiert.
Funktionen:
- Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
- NVIDIA Tesla M60-GPUs mit je 2.048 parallelen Prozessorkernen und 8 GiB Videospeicher
- Ermöglicht NVIDIA GRID Virtual Workstation-Funktionen, einschließlich Unterstützung für 4 Monitore mit Auflösung von bis zu 4096 x 2160 Jede in Ihrer Instance enthaltene GPU ist für genau einen „gleichzeitig verbundenen Benutzer“ lizenziert
- Bietet NVIDIA GRID Virtual Application-Funktionen für Anwendungsvirtualisierungssoftware wie Citrix XenApp Essentials und VMware Horizon und unterstützt dabei bis zu 25 gleichzeitig verbundene Benutzer pro GPU
- Jede GPU kennzeichnet einen integrierten Hardware Videoencoder, welcher konzipiert ist um bis zu 10 H.265 (HEVC) 1080p30 Datenströme und bis zu 18 H.264 1080p30 Datenströme zu unterstützen – dies ermöglicht Frame-Erfassung und -Codierung mit geringer Latenz und hochwertiges interaktives Streaming
- Enhanced Networking mit Elastic Network Adaptor (ENA) mit bis zu 25 Gbit/s Gesamtnetzwerkbandbreite innerhalb einer Placement-Gruppe
Instance GPUs vCPU Arbeitsspeicher (GiB) GPU-Speicher (GiB) Netzwerkleistung g3s.xlarge 1 4 30,5 8 Bis zu 10 Gigabit g3.4xlarge 1 16 122 8 Bis zu 10 Gigabit g3.8xlarge 2 32 244 16 10 Gigabit g3.16xlarge 4 64 488 32 25 Gigabit Alle Instanzen haben die folgenden Spezifikationen:
- 2.3 GHz (Basis) und 2.7 GHz (Turbo) Intel Xeon E5-2686 v4 Prozessoren
- Intel AVX, Intel AVX2, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
3D-Visualisierungen, grafikintensive Remote-Workstations, 3D-Rendering, Anwendungsstreaming, Videocodierung und andere serverseitige Grafik-Verarbeitungslasten.
-
F1
-
F1-Instances bieten anpassbare Hardwarebeschleunigung mit Field Programmable Gate Arrays (FPGAs).
Instance-Funktionen:
- Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell)
- NVMe-SSD-Speicher
- Unterstützung für Enhanced Networking
FPGA-Funktionen:
- Xilinx Virtex UltraScale+ VU9P FPGAs
- 64 GiB ECC-geschützter Speicher auf 4 DDR4
- Dedizierte PCI-Express x16-Schnittstelle
- Ca. 2,5 Millionen logische Elemente
- Ca. 6.800 digitale Signalverarbeitungsmodule
- FPGA Developer AMI
Instance FPGAs vCPU Arbeitsspeicher (GiB) SSD-Speicherung (GB) Netzwerkleistung f1.2xlarge 1 8 122 470 Bis zu 10 Gigabit f1.4xlarge 2 16 244 940 Bis zu 10 Gigabit f1.16xlarge 8 64 976 4 x 940 25 Gigabit Für f1.16xlarge-Instances ermöglicht die dedizierte PCI-e-Fabric, dass die FPGAs den Speicherplatz gemeinsam nutzen und mit bis zu 12 Gbit/s in jede Richtung über die Fabric miteinander kommunizieren.
Alle Instances haben die folgenden Spezifikationen:
- 2.3 GHz (Basis) und 2.7 GHz (Turbo) Intel Xeon E5-2686 v4 Prozessoren
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Genomforschung, Finanzanalysen, Videoverarbeitung in Echtzeit, Big Data-Suche und -Analyse und Sicherheit.
Speicherplatzoptimiert
Speicherplatzoptimierte Instances sind für Workloads konzipiert, die einen hohen, sequentiellen Lese- und Schreibzugriff auf sehr große Datenmengen im lokalen Speicher erfordern. Sie sind so optimiert, dass sie Anwendungen Zehntausende von zufälligen E/A-Vorgängen mit geringer Latenz pro Sekunde (IOPS) ermöglichen.
-
I3
-
I3en
-
D2
-
H1
-
I3
-
Diese Instance-Familie bietet Non-Volatile Memory Express (NVMe)-Schnittstellen für SSD-gestützten Instance-Speicher – optimiert für geringe Latenz, sehr hohe, Random-E/A-Leistung, hohen sequentiellen Durchsatz und hohe IOPS bei niedrigen Kosten. I3 bietet ebenfalls Bare Metal-Instances (i3.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.
Funktionen:
- Intel Xeon E5-2686 v4-Hochfrequenzprozessoren (Broadwell) mit einer Basisfrequenz von 2,3 GHz
- Bis zu 25 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
- Hohe Random-E/A-Leistung und hoher sequenzieller Lesedurchsatz
- Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
Instance vCPU* Arbeitsspeicher (GiB) Lokale Speicherung (GB) Netzwerkleistung (Gbps) i3.large 2 15,25 1 x 475 NVMe-SSD Bis zu 10 i3.xlarge 4 30,5 1 x 950 NVMe-SSD Bis zu 10 i3.2xlarge 8 61 1 x 1.900 NVMe-SSD Bis zu 10 i3.4xlarge 16 122 2 x 1.900 NVMe-SSD Bis zu 10 i3.8xlarge 32 244 4 x 1.900 NVMe-SSD 10 i3.16xlarge 64 488 8 x 1.900 NVMe-SSD 25 i3.metal 72** 512 8 x 1.900 NVMe-SSD 25 Alle Instanzen haben die folgenden Spezifikationen:
- 2.3 GHz Intel Xeon E5 2686 v4 Processor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
NoSQL-Datenbanken (Cassandra, MongoDB, Redis etc.), Hauptspeicher Datenbanken (z. B. Aerospike), skalierte Transaktionsdatenbanken, Data Warehousing, Elasticsearch, Analyse Workloads.
-
I3en
-
Diese Instance-Familie bietet einen dichten, Non-Volatile Memory Express (NVMe) SSD-Instance-Speicher, der für niedrige Latenzzeiten, hohe zufällige I/O-Leistung, hohen sequentiellen Festplattendurchsatz optimiert ist, und bietet den niedrigsten Preis pro GB SSD-Instance-Speicher auf Amazon EC2. I3en bietet ebenfalls Bare Metal-Instances (i3en.metal) auf Basis von Nitro System für nicht virtualisierte Workloads, Workloads, die vom Zugriff auf physische Ressourcen profitieren, und Workloads mit Lizenzeinschränkungen.
Funktionen:
- Bis zu 60 TB NVMe SSD Instance-Speicher
- Bis zu 100 Gbit/s Netzwerkbreite mit Elastic Network Adapter (ENA)-basiertem Enhanced Networking
- Hohe zufällige E/A-Leistung und hoher sequentieller Festplattendurchsatz
- Bis zu 3,1 GHz Intel® Xeon® Scalable (Skylake) Prozessoren mit neuem Intel Advanced Vector Extension-Befehlssatz (AVX-512).
- Basierend auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor
- Unterstützung von Bare Metal-Instance-Größe für Workloads, die vom direkten Zugriff auf physische Prozessoren und physischen Arbeitsspeicher profitieren
- Support für Elastic Fabric Adapter auf i3en.24xlarge
Instance vCPU Arbeitsspeicher (GiB) Lokale Speicherung (GB) Netzwerkbandbreite i3en.large 2 16 1 x 1,250 NVMe-SSD
Bis zu 25 GBit/s i3en.xlarge 4 32 1 x 2.500 NVMe-SSD
Bis zu 25 GBit/s i3en.2xlarge 8 64 2 x 2.500 NVMe-SSD
Bis zu 25 GBit/s i3en.3xlarge 12 96 1 x 7.500 NVMe-SSD
Bis zu 25 GBit/s i3en.6xlarge 24 192 2 x 7.500 NVMe-SSD
25 GBit/s i3en.12xlarge 48 384 4 x 7.500 NVMe-SSD
50 GBit/s i3en.24xlarge
96 768 8 x 7.500 NVMe-SSD
100 GBit/s i3en.metal 96 768 8 x 7.500 NVMe-SSD 100 GBit/s Alle Instanzen haben die folgenden Spezifikationen:
- 3.1 GHz all core turbo Intel® Xeon® Scalable (Skylake)-Prozessoren
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS-optimiert
- Enhanced Networking
Anwendungsfälle
NoSQL-Datenbanken (z. B. Cassandra, MongoDB, Redis), In-Memory-Datenbanken (z. B. SAP HANA, Aerospike), skalierte Transaktionsdatenbanken, verteilte Dateisysteme, Data-Warehousing, Elasticsearch, Analytics Workloads.
-
D2
-
D2-Instances bieten bis zu 48 TB lokale Speicherung auf HDD, hohen Datenträgerdurchsatz und den niedrigsten Preis pro Datenträgerdurchsatzleistung auf Amazon EC2.
Funktionen:
- Intel Xeon E5-2676 v3-Hochfrequenzprozessoren (Haswell)
- HDD-Speicher
- Kontinuierlich hohe Leistung beim Start
- Hoher Datenträgerdurchsatz
- Unterstützung für Enhanced Networking
Instance vCPU* Arbeitsspeicher (GiB) Speicher (GB) Netzwerkleistung d2.xlarge 4 30,5 3 x 2.000 HDD Mittel d2.2xlarge 8 61 6 x 2.000 HDD Hoch d2.4xlarge 16 122 12 x 2.000 HDD Hoch d2.8xlarge 36 244 24 x 2.000 HDD 10 Gigabit Alle Instanzen haben die folgenden Spezifikationen:
- 2.4 GHz Intel Xeon E5-2676 v3 Prozessor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Data Warehouses mit massiver Parallelverarbeitung (MPP), verteiltes Computing mit MapReduce und Hadoop, verteilte Dateisysteme, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen.
-
H1
-
H1-Instances haben bis zu 16 TB lokalen Festplattenspeicher, liefern hohen Datenträgerdurchsatz und bieten ein Gleichgewicht zwischen Rechenleistung und Arbeitsspeicher.
Funktionen:
- Intel® Xeon® E5 2686 v4-Prozessoren (Broadwell) mit 2,3 GHz als Basis
- Bis zu 16 TB HDD-Speicher
- Hoher Datenträgerdurchsatz
- Enhanced Networking von bis zu 25 Gbit/s dank ENA
Instance vCPU* Arbeitsspeicher (GiB) Netzwerkleistung Speicher (GB) h1.2xlarge 8 32 Bis zu 10 Gigabit 1 x 2.000 HDD h1.4xlarge 16 64 Bis zu 10 Gigabit 2 x 2.000 HDD h1.8xlarge 32 128 10 Gigabit 4 x 2.000 HDD h1.16xlarge 64 256 25 Gigabit 8 x 2.000 HDD Alle Instanzen haben die folgenden Spezifikationen:
- 2.3 GHz Intel Xeon E5 2686 v4 Processor
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS-optimiert
- Enhanced Networking†
Anwendungsfälle
Auf MapReduce basierende Workloads, verteilte Dateisysteme wie HDFS und MapR-FS, Netzwerkdateisysteme, Protokoll- oder Datenverarbeitungsanwendungen wie Apache Kafka und Big Data-Workloadcluster.
** i3.metal bietet 72 logische Prozessoren auf 36 physischen Kernen.
Suchen Sie Instances früherer Generationen, die hier nicht aufgelistet sind? Lesen Sie hierzu die Seite Instances der vorherigen Generation.
Jede vCPU ist ein Thread entweder eines Intel Xeon-Kern oder eines AMD EPYC-Kern, mit Ausnahme von T2 und m3.medium.
† AVX, AVX2, AVX-512 und Enhanced Networking stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
* Hierbei handelt es sich um die standardmäßige und maximale Anzahl von vCPUs, die für diesen Instance-Typ verfügbar sind. Sie können beim Starten dieses Instance-Typs eine benutzerdefinierte Anzahl von vCPUs angeben. Wenn Sie mehr über zulässige Werte für die vCPU-Anzahl und die Einführung in diese Funktion erfahren möchten, lesen Sie die Dokumentation der CPU-Optimierung.
Instances-Funktionen
Amazon EC2-Instances bieten eine Vielzahl weiterer Funktionen, mit deren Hilfe Sie Ihre Anwendungen bereitstellen, verwalten und skalieren können.
Amazon EC2 bietet Ihnen die Wahl zwischen Instances mit gleichbleibender Leistung (z. B. M5, C5 und R5) und burstfähigen Instances (z. B. T3). Burstfähige Instances bieten eine CPU-Basisleistung mit der Möglichkeit, diese Leistung für den Burstverkehr zu erhöhen.
T Unlimited-Instances können so lange eine hohe CPU-Leistung aufrechterhalten, wie dies für Workloads erforderlich ist. Für die meisten allgemeinen Workloads liefern T Unlimited-Instances ausreichend Leistung ohne zusätzliche Gebühren. Der Stundenpreis der T-Instance deckt automatisch alle zwischenzeitlichen Auslastungsspitzen ab, wenn die durchschnittliche CPU-Auslastung einer T-Instance im Laufe eines 24-Stunden-Fensters der Basisleistung entspricht oder diese unterschreitet. Wenn die Instance für einen längeren Zeitraum mit einer höheren CPU-Auslastung ausgeführt werden muss, ist dies für eine pauschale Zusatzgebühr von 5 Cent pro vCPU-Stunde möglich.
Bei T-Instances werden die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten per CPU-Guthaben verwaltet. Jede T-Instance erhält fortlaufend CPU-Guthaben. Die Rate hängt von der Instance-Größe ab. T-Instances sammeln im Leerlauf CPU-Guthaben und verbrauchen CPU-Guthaben, wenn sie aktiv sind. Ein CPU-Guthaben stellt die Leistung eines gesamten CPU-Kerns für eine Minute zur Verfügung.
Beispielsweise erhält eine Instance vom Typ t2.small fortlaufend Guthaben mit einer Rate von 12 CPU-Guthaben pro Stunde. Diese Fähigkeit stellt eine Basisleistung bereit, die 20 % eines CPU-Kerns entspricht (20 % x 60 Min. = 12 Min.). Wenn die Instance das erhaltene Guthaben nicht verbraucht, werden bis zu 288 CPU-Guthaben im CPU-Guthabensaldo aufbewahrt. Wenn die t2.small-Instance Spitzenlasten mit mehr als 20 % der Leistung eines Kerns verarbeiten muss, wird das vom CPU-Guthabensaldo abgezogen, um die Lastspitze nahtlos zu verarbeiten.
Wenn die Instance das erhaltene Guthaben nicht verbraucht, werden bis zu 288 CPU-Guthaben im CPU-Guthabensaldo aufbewahrt. Bei einem Großteil der Verarbeitungslasten für allgemeine Zwecke, bei denen die durchschnittliche CPU-Auslastung der Basisleistung entspricht oder darunter liegt, deckt der Basisstundenpreis für t2.small alle CPU-Bursts ab. Wenn die Instance über einen Zeitraum von 24 Stunden, nachdem der CPU-Guthabensaldo auf Null gesunken ist, mit durchschnittlich 25 % CPU-Auslastung (5 % über der Basisleistung) ausgeführt wird, werden zusätzlich 6 Cent in Rechnung gestellt (5 Cent/vCPU-Stunde x 1 vCPU x 5 % x 24 Stunden).
Viele Anwendungen wie Webserver, Entwicklungsumgebungen und kleine Datenbanken benötigen keine gleichbleibend hohe CPU-Leistung, profitieren aber stark von schnellen CPUs, wenn sie die Leistung benötigen. T-Instances sind besonders für diese Anwendungsfälle ausgelegt. Wenn Sie gleichbleibend hohe CPU-Leistung für Anwendungen wie Videocodierung, Websites mit hohem Durchsatz oder HPC-Anwendungen benötigen, verwenden Sie Instances mit konstanter Leistung. T-Instances sind so konzipiert, als stünden ihnen dedizierte Hochgeschwindigkeits-Intel-Kerne zur Verfügung, wenn Ihre Anwendung CPU-Leistung benötigt. Außerdem schützen sie zugleich vor der schwankenden Leistung und anderen häufigen Nebeneffekten, die in anderen Umgebungen i. d. R. bei zu vielen Abonnements auftreten.
Je nach Anforderungen bietet Amazon EC2 Ihnen die Wahl zwischen mehreren Speicheroptionen. Amazon EBS ist ein stabiles Speichervolume auf Blockebene, das Sie einer einzelnen ausgeführten Amazon EC2-Instance zuordnen können. Sie können Amazon EBS als primäres Speichermedium für Daten nutzen, die häufig und detailliert aktualisiert werden. Amazon EBS wird beispielsweise als Speicher empfohlen, wenn Sie eine Datenbank in Amazon EC2 ausführen. Amazon EBS-Volumes bleiben unabhängig von der Betriebsdauer einer einzelnen Amazon EC2-Instance erhalten. Sobald ein Volume einer Instance zugeordnet wurde, können Sie es wie ein physisches Festplattenlaufwerk nutzen. Amazon EBS bietet drei Volumetypen zum Erfüllen der Anforderungen Ihrer Workloads: Standard (SSD), bereitgestellte IOPS (SSD) und Magnetfestplatten. Standardvolumes (SSD) sind der neue SSD-gestützte EBS-Volumetyp für allgemeine Zwecke, den wir Kunden als Standardoption empfehlen. Standardvolumes (SSD) sind für ein breites Spektrum von Workloads einschließlich kleiner und mittelgroßer Datenbanken sowie Entwicklungs- und Testumgebungen geeignet und ideal für Startvolumes. Bereitgestellte IOPS-Volumes (SSD) bieten Speicher mit konsistenter Leistung sowie geringer Latenz und eignen sich für E/A-intensive Anwendungen wie große relationale oder NoSQL-Datenbanken. Magnetfestplattenvolumes verursachen von allen EBS-Volumetypen die niedrigsten Kosten pro GB. Magnetfestplattenvolumes sind ideal für Workloads mit seltenen Datenzugriffen und Szenarien, bei denen die Speicherkosten so niedrig wie möglich sein sollen.
Viele Amazon EC2-Instances können auch über Speicher auf Festplatten verfügen, die physisch an den Hostcomputer angeschlossen sind. Dieser Festplattenspeicher wird als Instance-Speicher bezeichnet. Instance-Speicher bietet Amazon EC2-Instances temporären Speicher auf Blockebene. Die Daten auf Instance-Speichervolumes bleiben nur für die Nutzungsdauer der zugehörigen Amazon EC2-Instance erhalten.
Zusätzlich zu Speicher auf Blockebene mithilfe von Amazon EBS- oder Instance-Speicher können Sie auch Amazon S3 als sehr stabilen und hoch verfügbaren Objektspeicher nutzen. Weitere Informationen zu den Speicheroptionen von Amazon EC2 finden Sie in der Amazon EC2-Dokumentation.
Gegen eine geringe zusätzliche Stundengebühr können Kunden bestimmte Amazon EC2-Instance-Typen als EBS-optimierte Instances starten. Für C5-, C4-, M5-, M4-, P3-, P2-, G3- und D2-Instances ist diese Funktion standardmäßig ohne Zusatzkosten aktiviert. Mit EBS-optimierten Instances können EC2-Instances die auf einem EBS-Volume bereitgestellte IOPS in vollem Umfang nutzen. EBS-optimierte Instances liefern je nach verwendetem Instance-Typ zwischen Amazon EC2 und Amazon EBS einen dedizierten Durchsatz mit Optionen von 500 bis 4.000 MBit/s. Durch den dedizierten Durchsatz werden Konflikte zwischen E/A-Vorgängen von Amazon EBS und anderem Datenverkehr Ihrer EC2-Instance minimiert, wodurch Ihre EBS-Volumes eine optimale Leistung liefern können. EBS optimierte Instances sind für die Nutzung mit allen EBS-Volumen konzipiert. Bei Anbindung an EBS-optimierte Instances können bereitgestellte IOPS-Volumes Latenzen im einstelligen Millisekundenbereich erreichen. Außerdem sind sie so konzipiert, dass sie mindestens 10 % der bereitgestellten IOPS-Leistung in 99,9 % der Fälle liefern. Wir empfehlen bereitgestellte IOPS-Volumes mit EBS-optimierten Instances bzw. Instances, die Clusternetzwerke für Anwendungen mit hohen Speicher-E/A-Anforderungen unterstützen.
Ausgewählte EC2-Instances unterstützen Clusternetzwerke, wenn diese in einer gebräuchlichen Clusterplatzierungsgruppe ausgeführt werden. Eine Clusterplatzierungsgruppe ermöglicht einen Netzwerkbetrieb mit geringer Latenz zwischen allen Instances und Clustern. Die von einer EC2-Instance nutzbare Bandbreite richtet sich nach dem Instance-Typ und dessen Netzwerkleistung. Der Datenverkehr zwischen Instances in derselben Region kann bei einseitiger Übertragung bis zu 5 GBit/s und bei beidseitiger Übertragung bis zu 100 GBit/s in jede Richtung (Vollduplex) betragen. Der Datenverkehr von und zu S3-Buckets in derselben Region kann ebenfalls die gesamte verfügbare Aggregatsbandbreite von Instances verwenden. Instances, die in einer Platzierungsgruppe gestartet werden, können für einseitigen Datenverkehr Geschwindigkeiten von bis zu 10 GBit/s und für beidseitigen Datenverkehr Geschwindigkeiten von bis zu 100 GBit/s generieren. Der Netzwerkdatenverkehr ins Internet ist auf 5 GBit/s (Vollduplex) beschränkt. Clusternetzwerke eignen sich ideal für Hochleistungsanalysesysteme und viele wissenschaftliche und Konstruktionsanwendungen, insbesondere für diejenigen, die den MPI-Bibliotheksstandard für Parallelprogrammierung nutzen.
Amazon EC2-Instanzen, die über einen Intel-Prozessor verfügen, können den Zugriff auf die folgenden Prozessorfunktionen ermöglichen:
- Intel AES New Instructions (AES-NI): Der Befehlssatz für Intel AES-NI-Verschlüsselung verbessert den Originalalgorithmus Advanced Encryption Standard (AES) in Hinblick auf schnelleren Datenschutz und bessere Sicherheit. Alle EC2-Instances der aktuellen Generation unterstützten diese Prozessorfunktion.
- Intel Advanced Vector Extensions (Intel AVX, Intel AVX2 und Intel AVX-512): Intel AVX und Intel AVX2 sind Erweiterungen des 256-Bit-Befehlssatzes und Intel AVX-512 ist eine Erweiterung des 512-Bit-Befehlssatzes für Anwendungen mit vielen Gleitkommaoperationen. Intel AVX-Befehle verbessern die Leistung von Anwendungen für beispielsweise Bild-, Audio- und Videobearbeitung, wissenschaftliche Simulationen, Finanzanalysen sowie 3D-Modellierung und -Analysen. Diese Funktionen stehen nur für Instances zur Verfügung, die mit HVM-AMIs gestartet wurden.
- Intel Turbo-Boost-Technik: Die Intel Turbo-Boost-Technik bietet bei Bedarf mehr Leistung. Der Prozessor ist in der Lage, Kerne schneller auszuführen als die Basisbetriebsfrequenz, damit Sie schneller arbeiten können.
- Intel Deep Learning Boost (Intel DL Boost): Eine neue Reihe integrierter Prozessortechnologien, die auf die Beschleunigung von AI Deep Learning-Anwendungsfälle ausgelegt sind. Intel Xeon Scalable-Prozessoren der 2. Generation erweitern Intel AVX-512 mit einer neuen Vector Neural Network Instruction (VNNI/INT8), welche die Deep Learning-Inferenzleistung im Vergleich zur vorherigen Generation von Intel Xeon Scalable-Prozessoren (mit FP32) deutlich übertrifft. Dies ist unter anderem für die Bereiche Bilderkennung/-segmentierung, Objekterkennung, Spracherkennung, Sprachübersetzung, Empfehlungssysteme und Reinforcement Learning vorgesehen. VNNI ist möglicherweise nicht mit allen Linux-Verteilungen kompatibel. Bitte überprüfen Sie die Dokumentation vor der Verwendung.
Nicht alle Prozessorfunktionen sind für alle Instance-Typen verfügbar. In der detaillierten Übersicht über die Instance-Typen erfahren Sie, welche Funktionen von welchen Instance-Typen verfügbar sind.
Messen der Instance-Leistung
Amazon EC2 ermöglicht Ihnen die Bereitstellung einer Vielzahl von Instance-Typen, die verschiedene Kombinationen von CPU-, Arbeitsspeicher-, Datenträger- und Netzwerkfunktionen bieten. Das Starten neuer Instances und das parallele Ausführen von Tests ist einfach. Wir empfehlen die Leistung von Anwendungen zu messen, um geeignete Instance-Typen zu bestimmen und die Anwendungsarchitektur zu überprüfen. Außerdem können umfassende Auslastungs- und Skalierungstests nützlich sein, um zu prüfen, ob Anwendungen wie gewünscht skaliert werden können.
Amazon EC2 bietet zahlreiche Optionen für zehn verschiedene Instance-Typen mit jeweils mindestens einer Größenoption, die in sechs unterschiedliche Instance-Familien unterteilt sind, die für diverse Anwendungen optimiert sind. Wir empfehlen, die Anforderungen Ihrer Anwendungen zu analysieren und die geeignete Instance-Familie als Ausgangspunkt für das Testen der Anwendungsleistung auszuwählen. Gehen Sie zum Bewerten der Anwendungsleistung so vor: (1.) Bestimmen Sie Ihre Anwendungsanforderungen im Vergleich zu verschiedenen Instance-Familien (ist die Anwendung beispielsweise mehr von Rechenleistung oder Arbeitsspeicher abhängig?). (2.) Ermitteln Sie die Größe Ihrer Workloads, um die geeignete Instance-Größe zu bestimmen. Für das Messen der Leistung der gesamten Anwendung gibt es keinen Ersatz, da die Anwendungsleistung von der zugrunde liegenden Infrastruktur oder durch Software- und Architektureinschränkungen beeinträchtigt werden kann. Wir empfehlen Tests auf Anwendungsebene, einschließlich der Nutzung von Tools und Services für Auslastungstests und die Erstellung von Anwendungsprofilen. Wenn Sie weitere Informationen benötigen, dann öffnen Sie einen Support-Fall und fordern Sie Netzwerkleistungsspezifikationen für die Instance-Typen an, an denen Sie interessiert sind.