マネージド Amazon RDS に移行しましょう。 Amazon Aurora と RDS がシームレスなリレーショナルデータベース管理とイノベーションを実現する方法をご覧ください。ブログを読む
Amazon EC2 インスタンスタイプ
Amazon EC2 は、さまざまなユースケースに合うように最適化されたインスタンスタイプの幅広い選択肢を提供します。インスタンスタイプを構成する CPU、メモリ、ストレージ、ネットワークキャパシティーの組み合わせはそれぞれのタイプごとに異なり、アプリケーションのリソースとして適切なインスタンスタイプを柔軟に選択できます。各インスタンスタイプには、1 つまたは複数のインスタンスサイズが含まれており、目的のワークロードの要件に合わせてリソースをスケールできます。
一般用途向け
汎用インスタンスは、バランスの取れたコンピューティング、メモリ、ネットワークのリソースを提供し、多様なワークロードに使用できます。汎用インスタンスは、ウェブサーバーやコードリポジトリなど、インスタンスのリソースを同じ割合で使用するアプリケーションに最適です。
-
M7g
-
M7i
-
M7i-flex
-
M7a
-
Mac
-
M6g
-
M6i
-
M6in
-
M6a
-
M5
-
M5n
-
M5zn
-
M5a
-
M4
-
T4g
-
T3
-
T3a
-
T2
-
M7g
-
Amazon EC2 M7g インスタンスは、Arm ベースの AWS Graviton3 プロセッサを使用します。汎用アプリケーションに対して、Amazon EC2 の中で最高の料金パフォーマンスを実現します。
特徴:
- カスタムビルドの AWS Graviton3 プロセッサを搭載
- DDR4 比で帯域幅が 50% 多い最新の DDR5 メモリを搭載
- M6g インスタンスと比較して、ネットワーク帯域幅が 20% 強化
- デフォルトで EBS 最適化済み
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- M7gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルストレージを提供します
- m7g.16xlarge、m7g.metal、m7gd.16xlarge、m7gd.metal で Elastic Fabric Adapter (EFA) に対応
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) m7g.medium
1
4
EBS のみ
最大 12.5
最大 10
m7g.large
2
8
EBS のみ
最大 12.5
最大 10
m7g.xlarge
4
16
EBS のみ
最大 12.5
最大 10
m7g.2xlarge
8
32
EBS のみ
最大 15
最大 10
m7g.4xlarge
16
64
EBS のみ
最大 15
最大 10
m7g.8xlarge
32
128
EBS のみ
15
10
m7g.12xlarge
48
192
EBS のみ
22.5
15
m7g.16xlarge
64
256
EBS のみ
30
20
m7g.metal
64
256
EBS のみ
30
20
m7gd.medium
1
4
1 x 59 NVMe SSD
最大 12.5
最大 10
m7gd.large
2
8
1 x 118 NVMe SSD
最大 12.5
最大 10
m7gd.xlarge
4
16
1 x 237 NVMe SSD
最大 12.5
最大 10
m7gd.2xlarge
8
32
1 x 474 NVMe SSD
最大 15
最大 10
m7gd.4xlarge
16
64
1 x 950 NVMe SSD
最大 15
最大 10
m7gd.8xlarge
32
128
1 x 1900 NVMe SSD
15
10
m7gd.12xlarge
48
192
2 x 1425 NVMe SSD
22.5
15
m7gd.16xlarge
64
256
2 x 1900 NVMe SSD
30
20
m7gd.metal
64
256
2 x 1900 NVMe SSD
30
20
すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton3 プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
アプリケーションサーバー、マイクロサービス、ゲーミングサーバー、中規模データストア、キャッチングフリートなど、オープンソースソフトウェア上に構築されたアプリケーション。
-
M7i
-
Amazon EC2 M7i インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、M6i インスタンスより 15% 優れた料金パフォーマンスを実現します。
特徴:
- 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
- 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
- 2 種類のメタルサイズ: m7i.metal-24xl と m7i.metal-48xl
- 専用の組み込みアクセラレータ (M7i ベアメタルサイズでのみ使用可能)— Data Streaming Accelerator (DSA)、In-Memory Analytics Accelerator (IAA)、QuickAssist Technology (QAT)— データ操作の効率的なオフロードと高速化を実現し、データベース、暗号化と圧縮、およびキュー管理のワークロードのパフォーマンスを最適化
- DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- インスタンスあたり最大 128 個の EBS ボリュームアタッチメントをサポート
- 最大 192 基の仮想 CPU と 768 GiB のメモリ
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) m7i.large
2
8
EBS のみ
最大 12.5
最大 10
m7i.xlarge
4
16
EBS のみ
最大 12.5
最大 10
m7i.2xlarge
8
32
EBS のみ
最大 12.5
最大 10
m7i.4xlarge
16
64
EBS のみ
最大 12.5
最大 10
m7i.8xlarge
32
128
EBS のみ
12.5
10
m7i.12xlarge
48
192
EBS のみ
18.75
15
m7i.16xlarge
64
256
EBS のみ
25
20
m7i.24xlarge
96
384
EBS のみ
37.5
30
m7i.48xlarge
192
768
EBS のみ
50
40
m7i.metal-24xl
96
384
EBS のみ
37.5
30
m7i.metal-48xl
192
768
EBS のみ
50
40
ユースケース
M7i インスタンスは、特に大規模なアプリケーションサーバー、大規模データベース、ゲームサーバー、CPU ベースの機械学習、動画ストリーミングなど、より大きなサイズや高い CPU 使用率を必要とする汎用ワークロードに最適です。 -
M7i-flex
-
Amazon EC2 M7i-flex インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、M6i インスタンスより 19% 優れた料金パフォーマンスを実現します。
特徴:
- ほとんどの汎用ワークロードにおいて、クラウドでコストパフォーマンスとコストメリットを実現する最も簡単な方法
- 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
- 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
- DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ。
- デフォルトで EBS 最適化済み
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) m7i-flex.large
2
8
EBS のみ
最大 12.5
最大 10
m7i-flex.xlarge
4
16
EBS のみ
最大 12.5
最大 10
m7i-flex.2xlarge
8
32
EBS のみ
最大 12.5
最大 10
m7i-flex.4xlarge
16
64
EBS のみ
最大 12.5
最大 10
m7i-flex.8xlarge
32
128
EBS のみ
最大 12.5
最大 10
ユースケース
M7i-flex インスタンスは、ウェブサーバーやアプリケーションサーバー、仮想デスクトップ、バッチ処理、マイクロサービス、データベース、エンタープライズアプリケーションなど、汎用ワークロードの大部分をシームレスに実行するための最初の選択肢として最適です。 -
M7a
-
第 4 世代 AMD EPYC プロセッサを搭載した Amazon EC2 M7a インスタンスは、M6a インスタンスと比較して最大 50% 高いパフォーマンスを発揮します。
特徴:
- 最大 3.7 GHz の第 4 世代 AMD EPYC プロセッサ (AMD EPYC 9R14)
- 最大 50 Gbps のネットワーク帯域幅
- Amazon Elastic Block Store (Amazon EBS) への最大 40 Gbps の帯域幅
- 最大 192 vCPU と 768 GiB のメモリを搭載したインスタンスサイズ
- SAP 認定インスタンス
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- AMD のセキュアメモリー暗号化(SME)による常時メモリ暗号化のサポート
- AVX3-512、VNNI、bfloat16 などの新しいプロセッサー機能をサポートします。
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) m7a.medium
1
4
EBS のみ
最大 12.5
最大 10
m7a.large
2
8
EBS のみ
最大 12.5
最大 10
m7a.xlarge
4
16
EBS のみ
最大 12.5
最大 10
m7a.2xlarge
8
32
EBS のみ
最大 12.5
最大 10
m7a.4xlarge
16
64
EBS のみ
最大 12.5
最大 10
m7a.8xlarge
32
128
EBS のみ
12.5
10
m7a.12xlarge
48
192
EBS のみ
18.75
15
m7a.16xlarge
64
256
EBS のみ
25
20
m7a.24xlarge
96
384
EBS のみ
37.5
30
m7a.32xlarge
128
512
EBS のみ
50
40
m7a.48xlarge
192
768
EBS のみ
50
40
m7a.metal-48xl
192
768
EBS のみ
50
40
ユースケース
金融アプリケーション、アプリケーションサーバー、シミュレーションモデリング、ゲーム、中規模データストア、アプリケーション開発環境、キャッシュフリートなど、高性能と高スループットの恩恵を受けるアプリケーション。
-
Mac
-
Amazon EC2 Mac インスタンスにより、お客様は、クラウドでオンデマンドの macOS ワークロードを実行できるようになり、すべての Apple デベロッパーが AWS の柔軟性、スケーラビリティ、およびコストメリットの恩恵を受けることができます。Amazon EC2 Mac インスタンスを利用することで、iPhone、iPad、Mac、Vision Pro、Apple Watch、Apple TV、Safari 向けのアプリケーションを作成することができます。これらのインスタンスは、デベロッパーが Xcode IDE を必要とするアプリケーションを開発、構築、テスト、署名できるように macOS へのアクセスを提供します。EC2 Mac インスタンスは専用のベアメタルインスタンスで、EC2 コンソールと AWS コマンドラインインターフェイス経由で専有ホストとしてアクセスできます。
x86 ベースの EC2 Mac インスタンスには、以下の特徴を持つ、Mac mini コンピュータの組み合わせが搭載されています:
- インテル第 8 世代 3.2 GHz (4.6GHz ターボ) Core i7 プロセッサ
- 物理コア 6 個、論理コア 12 個
- 32 GiB のメモリ
- Amazon Elastic Block Store (EBS) 経由でインスタンスストレージを利用可能
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) mac1.metal 12 32 EBS のみ 10 8 EC2 M1 Mac インスタンスには、以下の特徴を持つ、Apple シリコン Mac mini コンピュータの組み合わせが搭載されています:
- 8 CPU コアを持つ Apple M1 チップ
- 8 GPU コア
- 16 GiB のメモリ
- 16 コア Apple Neural Engine
- Amazon Elastic Block Store (EBS) 経由でインスタンスストレージを利用可能
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) mac2.metal 8 16 EBS のみ 10 8 EC2 M1 Ultra Mac インスタンスには、次の特徴を備えた、Apple シリコン Mac Studio コンピュータの組み合わせが搭載されています:
- 20 CPU コアを持つ Apple M1 Ultra チップ
- 64 GPU コア
- 128 GiB のメモリ
- 32 コア Apple Neural Engine
- Amazon Elastic Block Store (EBS) を通じてインスタンスストレージを利用可能
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) mac2-m1ultra.metal 20 128 EBS のみ 10 8 EC2 M2 Mac インスタンスには、以下の特徴を持つ、Apple シリコン Mac mini コンピュータの組み合わせが搭載されています:
- 8 CPU コアを持つ Apple M2 チップ
- 10 GPU コア
- 24 GiB のメモリ
- 16 コア Apple Neural Engine
- Amazon Elastic Block Store (EBS) 経由でインスタンスストレージを利用可能
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) mac2-m2.metal 8 24 EBS のみ 10 8 EC2 M2 Pro Mac インスタンスには、以下の特徴を持つ、Apple シリコン Mac mini コンピュータの組み合わせが搭載されています:
- 12 CPU コアを持つ Apple M2 Pro チップ
- 19 GPU コア
- 32 GiB のメモリ
- 16 コア Apple Neural Engine
- Amazon Elastic Block Store (EBS) 経由でインスタンスストレージを利用可能
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) mac2-m2pro.metal 12 32 EBS のみ 10 8 ユースケース
Xcode IDE での iOS、iPadOS、macOS、visionOS、WatchOS、および tvOS アプリケーションの開発、構築、テスト、および署名
-
M6g
-
Amazon EC2 M6g インスタンスは、Arm ベースの AWS Graviton2 プロセッサを使用します。価格/性能比は現世代の M5 インスタンスよりも最大 40% 向上しており、幅広いワークロードにおいて、バランスの取れたコンピューティング性能、メモリ、およびネットワーキング リソースを提供します。
特徴:
- 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- 最大 25 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
- デフォルトで EBS 最適化済み
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- M6gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルのストレージを提供します
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps) m6g.medium 1 4 EBS のみ 最大 10 最大 4,750 m6g.large 2 8 EBS のみ 最大 10 最大 4,750 m6g.xlarge 4 16 EBS のみ 最大 10 最大 4,750 m6g.2xlarge 8 32 EBS のみ 最大 10 最大 4,750 m6g.4xlarge 16 64 EBS のみ 最大 10 4,750 m6g.8xlarge 32 128 EBS のみ 12 9,000 m6g.12xlarge 48 192 EBS のみ 20 13,500 m6g.16xlarge 64 256 EBS のみ 25 19,000 m6g.metal 64 256 EBS のみ 25 19,000 m6gd.medium 1 4 1 x 59 NVMe SSD 最大 10 最大 4,750 m6gd.large 2 8 1 x 118 NVMe SSD 最大 10 最大 4,750 m6gd.xlarge 4 16 1 x 237 NVMe SSD 最大 10 最大 4,750 m6gd.2xlarge 8 32 1 x 474 NVMe SSD 最大 10 最大 4,750 m6gd.4xlarge 16 64 1 x 950 NVMe SSD 最大 10 4,750 m6gd.8xlarge 32 128 1 x 1900 NVMe SSD 12 9,000 m6gd.12xlarge 48 192 2 x 1425 NVMe SSD 20 13,500 m6gd.16xlarge 64 256 2 x 1900 NVMe SSD 25 19,000 m6gd.metal 64 256 2 x 1900 NVMe SSD 25 19,000 すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
アプリケーションサーバー、マイクロサービス、ゲーミングサーバー、中規模データストア、キャッシングサーバー群など、オープンソースソフトウェア上に構築されたアプリケーション。
-
M6i
-
Amazon EC2 M6i インスタンスは、第 3 世代のインテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載しています。このファミリーは、バランスの取れたコンピューティング、メモリ、およびネットワークのリソースを提供し、多くのアプリケーションに適しています。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- M5 インスタンスと比較して、コンピューティング料金パフォーマンスが最大 15% 向上
- M5 インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 20% 向上
- 最大 50 Gbps のネットワークスピード
- Amazon Elastic Block Store (EBS) への最大 40 Gbps の帯域幅
- 新しいインスタンスサイズ (32xlarge)、128 vCPU、512 GiB メモリ
- 32xlarge とメタルサイズの Elastic Fabric Adapter に対応
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの処理を高速化するインテル Advanced Vector Extensions (AVX-512) の新命令をサポート
- M6id インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、M6i インスタンスの寿命に連動するブロックレベルのストレージを提供
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) m6i.large 2 8 EBS のみ 最大 12.5 最大 10 m6i.xlarge 4 16 EBS のみ 最大 12.5 最大 10 m6i.2xlarge 8 32 EBS のみ 最大 12.5 最大 10 m6i.4xlarge 16 64 EBS のみ 最大 12.5 最大 10 m6i.8xlarge 32 128 EBS のみ 12.5 10 m6i.12xlarge 48 192 EBS のみ 18.75 15 m6i.16xlarge 64 256 EBS のみ 25 20 m6i.24xlarge 96 384 EBS のみ 37.5 30 m6i.32xlarge 128 512 EBS のみ 50 40 m6i.metal 128 512 EBS のみ 50 40 m6id.large 2 8 1x118 NVMe SSD 最大 12.5 最大 10 m6id.xlarge 4 16 1x237 NVMe SSD 最大 12.5 最大 10 m6id.2xlarge 8 32 1x474 NVMe SSD 最大 12.5 最大 10 m6id.4xlarge 16 64 1x950 NVMe SSD 最大 12.5 最大 10 m6id.8xlarge 32 128 1x1900 NVMe SSD 12.5 10 m6id.12xlarge 48 192 2x1425 NVMe SSD 18.75 15 m6id.16xlarge 64 256 2x1900 NVMe SSD 25 20 m6id.24xlarge 96 384 4x1425 NVMe SSD 37.5 30 m6id.32xlarge 128 512 4x1900 NVMe SSD 50 40 m6id.metal 128 512 4x1900 NVMe SSD 50 40 ユースケース
これらのインスタンスは SAP 認定を受けており、エンタープライズアプリケーションをサポートするバックエンドサーバー (Microsoft Exchange、SharePoint、SAP Business Suite、MySQL、Microsoft SQL Server、PostgreSQL データベースなど)、ゲームサーバー、キャッシュサーバーフリートなどのワークロードや、アプリケーション開発環境に最適です。
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
-
M6in
-
Amazon EC2 M6in および M6idn インスタンスは、バックエンドサーバー、エンタープライズ、ゲームサーバー、キャッシングフリートアプリケーションなどのネットワーク集約型ワークロードに最適です。第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載し、オールコアターボ周波数は 3.5 GHz で、最大 200 Gbps のネットワーク帯域幅と最大 80 Gbps の Amazon EBS 帯域幅を提供します。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- M5n および M5dn インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 20% 向上
- M5n、M5dn インスタンスと比較して最大 2 倍となる最大 200 Gbps のネットワーク速度
- M5n、M5dn インスタンスと比較して最大 5.2 倍となる最大 100 Gbps の EBS 帯域幅
- 32xlarge および metal サイズでの EFA サポート
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの処理を高速化するインテル Advanced Vector Extensions (AVX-512) の新命令をサポート
- M6idn インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、M6idn インスタンスの寿命に連動するブロックレベルのストレージを提供
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンス vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) m6in.large 2 8 EBS のみ
最大 25 最大 25 m6in.xlarge 4 16 EBS のみ 最大 30 最大 25 m6in.2xlarge 8 32 EBS のみ 最大 40 最大 25 m6in.4xlarge 16 64 EBS のみ 最大 50 最大 25 m6in.8xlarge 32 128 EBS のみ 50 25 m6in.12xlarge 48 192 EBS のみ 75 37.5 m6in.16xlarge 64 256 EBS のみ 100 50 m6in.24xlarge 96 384 EBS のみ 150 75 m6in.32xlarge 128 512 EBS のみ 200**** 100 m6in.metal 128 512 EBS のみ 200**** 100 m6idn.large 2 8 1x118 NVMe SSD
最大 25 最大 25 m6idn.xlarge 4 16 1x237 NVMe SSD 最大 30 最大 25 m6idn.2xlarge 8 32 1x474 NVMe SSD 最大 40 最大 25 m6idn.4xlarge 16 64 1x950 NVMe SSD
最大 50 最大 25 m6idn.8xlarge 32 128 1x1900 NVMe SSD
50 25 m6idn.12xlarge 48 192 2x1425 NVMe SSD 75 37.5 m6idn.16xlarge 64 256 2x1900 NVMe SSD 100 50 m6idn.24xlarge 96 384 4x1425 NVMe SSD 150 75 m6idn.32xlarge 128 512 4x1900 NVMe SSD 200**** 100 m6idn.metal 128 512 4x1900 NVMe SSD 200**** 100 ****32xlarge および metal サイズの場合、200 Gbps のスループットを達成するために、それぞれ異なるネットワークカードにアタッチされた、少なくとも 2 つの Elastic Network Interface がインスタンス上に必要です。ネットワークカードにアタッチされた各ネットワークインターフェイスは、最大 170 Gbps を達成できます。詳細については、「ネットワークカード」を参照
すべてのインスタンスの仕様は以下のとおりです
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサー
- EBS 最適化
- 拡張ネットワーキング†
ユースケース:
これらのインスタンスは SAP 認定を受けており、高いネットワークスループットを活用できるワークロード。ワークロードには、高性能ファイルシステム、分散型ウェブスケールインメモリキャッシュ、キャッシングフリート、リアルタイムビッグデータ分析、5G User Plane Function (UPF) などの通信事業者アプリケーション、およびアプリケーション開発環境などが含まれます。
-
M6a
-
Amazon EC2 M6a インスタンスは、第 3 世代の AMD EPYC プロセッサを搭載し、汎用的なワークロードに最適です。
特徴:
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
- M5a インスタンスと比較して、コンピューティング料金パフォーマンスが最大 35% 向上
- 最大 50 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 40 Gbps の帯域幅
- 最大 192 vCPU と 768 GiB のメモリを搭載したインスタンスサイズ
- SAP 認定インスタンス
- 48xlarge サイズの Elastic Fabric Adapter に対応
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- AMD Transparent Single Key Memory Encryption (TSME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの実行を高速化する AMD Advanced Vector Extensions (AVX-2) の新命令をサポート
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) m6a.large 2 8 EBS のみ 最大 12.5 最大 10 m6a.xlarge 4 16 EBS のみ 最大 12.5 最大 10 m6a.2xlarge 8 32 EBS のみ 最大 12.5 最大 10 m6a.4xlarge 16 64 EBS のみ 最大 12.5 最大 10 m6a.8xlarge 32 128 EBS のみ 12.5 10 m6a.12xlarge 48 192 EBS のみ 18.75 15 m6a.16xlarge 64 256 EBS のみ 25 20 m6a.24xlarge 96 384 EBS のみ 37.5 30 m6a.32xlarge 128 512 EBS のみ 50 40 m6a.48xlarge 192 768 EBS のみ 50 40 m6a.metal 192 768 EBS のみ 50 40 すべてのインスタンスの仕様は以下のとおりです
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
これらのインスタンスは SAP 認定を受けており、エンタープライズアプリケーションをサポートするバックエンドサーバー (Microsoft Exchange、SharePoint、SAP Business Suite、MySQL、Microsoft SQL Server、PostgreSQL データベースなど)、マルチプレイヤーゲームサーバー、キャッシュサーバーフリートなどのワークロードや、アプリケーション開発環境に最適です。
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
-
M5
-
Amazon EC2 M5 インスタンスは、インテル Xeon® Platinum 8175M あるいは、8259CL プロセッサを搭載した最新世代の汎用インスタンスです。これらのインスタンスでは、コンピューティング、メモリ、ネットワークの各リソースがバランスよく提供されるため、多くのアプリケーションに適しています。
特徴:
- 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した最大 3.1 GHz のインテル Xeon スケーラブルプロセッサ (Skylake 8175M または Cascade Lake 8259CL)
- 96 個の vCPU と 384 GiB のメモリを提供する、さらに大きな新しいインスタンスサイズの m5.24xlarge
- 拡張ネットワーキングを採用した最大 25 Gbps のネットワーク帯域幅
- ENA および NVMe 用のドライバーを含む HVM AMI が必要
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- M5d インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、M5 インスタンスの寿命に連係するブロックレベルのストレージを提供
- 8xlarge と 16xlarge のサイズが新たに利用可能になりました。
インスタンスサイズ
vCPU メモリ (GiB) インスタンスストレージ
(GB)ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Mbps) m5.large 2 8 EBS のみ 最大 10 最大 4,750 m5.xlarge 4 16 EBS のみ 最大 10 最大 4,750 m5.2xlarge 8 32 EBS のみ 最大 10 最大 4,750 m5.4xlarge 16 64 EBS のみ 最大 10 4,750 m5.8xlarge 32 128 EBS のみ 10 6,800 m5.12xlarge 48 192 EBS のみ 12 9,500 m5.16xlarge 64 256 EBS のみ 20 13,600 m5.24xlarge 96 384 EBS のみ 25 19,000 m5.metal 96* 384 EBS のみ 25 19,000 m5d.large 2 8 1 x 75 NVMe SSD 最大 10 最大 4,750 m5d.xlarge 4 16 1 x 150 NVMe SSD 最大 10 最大 4,750 m5d.2xlarge 8 32 1 x 300 NVMe SSD 最大 10 最大 4,750 m5d.4xlarge 16 64 2 x 300 NVMe SSD 最大 10 4,750 m5d.8xlarge 32 128 2 x 600 NVMe SSD 10 6,800 m5d.12xlarge 48 192 2 x 900 NVMe SSD 12 9,500 m5d.16xlarge 64 256 4 x 600 NVMe SSD 20 13,600 m5d.24xlarge 96 384 4 x 900 NVMe SSD 25 19,000 m5d.metal 96* 384 4 x 900 NVMe SSD 25 19,000 * m5.metal と m5d.metal では 48 個の物理コアに 96 個の論理プロセッサが提供されます。これらはインテルの物理ソケットを 2 個搭載した 1 台のサーバー上で稼働します。
すべてのインスタンスの仕様は以下のとおりです
- 最大 3.1 GHz のインテル Xeon Platinum プロセッサ
- インテル AVX†、インテル AVX2†、インテル AVX-512†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
小規模/中規模のデータベース、追加のメモリが必要となるデータ処理タスク、キャッシングフリート、および SAP、Microsoft SharePoint、クラスターコンピューティング、その他エンタープライズアプリケーションのためのバックエンドサーバーの実行
-
M5n
-
Amazon EC2 M5 インスタンスはウェブやアプリケーションサーバー、小規模/中規模データベース、クラスターコンピューティング、ゲーミングサーバー、キャッシングフリートなど、コンピューティング、メモリ、およびネットワーク間でバランスを必要とするワークロードに最適です。より高い帯域幅、M5n と M5dn、インスタンスのバリアントは、より優れたネットワークスループットおよびパケット率パフォーマンスを活用できるアプリケーションにおいて理想的です。
機能:- 持続的な全コアターボ CPU 周波数最大 3.1 GHz、最大シングルコアのターボ周波数最大 3.5 GHz を備えた第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8259CL) の搭載
- 新しいインテル Vector Neural Network Instructions (AVX-512 VNNI) のサポートも提供されています。これは、畳み込みなどの典型的な機械学習の演算速度を向上させます。また、幅広い分野の深層学習ワークロードで推論パフォーマンスを自動的に向上させます。
- 小さめのインスタンスサイズにおけるピーク帯域幅 25 Gbps
- 最大インスタンスサイズにおけるネットワーク帯域幅 100 Gbps
- ENA および NVMe 用のドライバーを含む HVM AMI が必要
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- M5dn インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、M5 インスタンスの寿命に連係するブロックレベルのストレージを提供
インスタンスサイズ
vCPU メモリ (GiB) インスタンスストレージ
(GB)ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Mbps) m5n.large 2 8 EBS のみ 最大 25 最大 4,750 m5n.xlarge 4 16 EBS のみ 最大 25 最大 4,750 m5n.2xlarge 8 32 EBS のみ 最大 25 最大 4,750 m5n.4xlarge 16 64 EBS のみ 最大 25 4,750 m5n.8xlarge 32 128 EBS のみ 25 6,800
m5n.12xlarge 48 192 EBS のみ 50 9,500 m5n.16xlarge 64 256 EBS のみ 75 13,600 m5n.24xlarge 96 384 EBS のみ 100 19,000 m5n.metal 96* 384 EBS のみ 100 19,000 m5dn.large 2 8 1 x 75 NVMe SSD 最大 25 最大 4,750 m5dn.xlarge 4 16 1 x 150 NVMe SSD 最大 25 最大 4,750 m5dn.2xlarge 8 32 1 x 300 NVMe SSD 最大 25 最大 4,750 m5dn.4xlarge 16 64 2 x 300 NVMe SSD 最大 25 4,750 m5dn.8xlarge 32 128 2 x 600 NVMe SSD 25 6,800 m5dn.12xlarge 48 192 2 x 900 NVMe SSD 50 9,500 m5dn.16xlarge 64 256 4 x 600 NVMe SSD 75 13,600 m5dn.24xlarge 96 384 4 x 900 NVMe SSD 100 19,000 m5dn.metal 96* 384 4 x 900 NVMe SSD 100 19,000 * m5n.metal および m5dn.metal は、48 個の物理コアに 96 個の論理プロセッサを提供します。
すべてのインスタンスの仕様は以下のとおりです
- 持続的な全コアターボ CPU 周波数最大 3.1 GHz、最大シングルコアのターボ周波数最大 3.5 GHz の第 2 世代カスタムインテル Xeon スケーラブルプロセッサ (Cascade Lake) の搭載
- インテル AVX†、インテル AVX2†、インテル AVX-512、インテルターボ、インテル DL Boost
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
ウェブとアプリケーションサーバー、小規模/大規模データベース、クラスターコンピューティング、ゲーミングサーバー、キャッシングフリート、その他のエンタープライズアプリケーション
-
M5zn
-
Amazon EC2 M5zn インスタンスは、クラウドで最速のインテル Xeon スケーラブルプロセッサを搭載し、最大 4.5 GHz のオールコアターボ周波数を備えています。
特徴:
- 最大 4.5 GHz となるオールコアターボ周波数の第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8252C)
- 最大インスタンス規模とベアメタルバリアントで、最大 100 Gbps のネットワーク帯域幅
- Amazon Elastic Block Store へ最大 19 Gbps
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- 12x と M5zn インスタンスのメタルサイズが最新世代の Elastic Network Adapter を活用し、Elastic Fabric Adapter での一貫した低レイテンシーを実現
インスタンスサイズ vCPU メモリ (GiB)
インスタンスストレージ
(GB)
ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps) m5zn.large 2 8 EBS のみ 最大 25 最大 3,170 m5zn.xlarge 4 16 EBS のみ 最大 25 最大 3,170 m5zn.2xlarge 8 32 EBS のみ 最大 25 3,170 m5zn.3xlarge 12 48 EBS のみ 最大 25 4,750 m5zn.6xlarge 24 96 EBS のみ 50 9,500 m5zn.12xlarge 48 192 EBS のみ 100 19,000 m5zn.metal 48 192 EBS のみ 100 19,000 2 x 300 NVMe SSD 2 x 300 NVMe SSD ユースケース
M5zn インスタンスは、非常に高いシングルスレッドパフォーマンスと高スループット、ハイパフォーマンスコンピューティングなどの低レイテンシーネットワーキング、ならびに自動車、航空宇宙、エネルギー、および通信業界向けのシミュレーションモデリングの恩恵を受けるアプリケーションに最適です。
-
M5a
-
Amazon EC2 M5a インスタンスは、AMD EPYC 7000 シリーズプロセッサを搭載した最新世代の汎用インスタンスです。M5a インスタンスは、同等のインスタンスタイプに比べて最大 10% のコスト削減を実現します。 M5ad インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連動するブロックレベルのストレージを提供します。
特徴:
- 全コアターボのクロック速度が 2.5 GHz の AMD EPYC 7000 シリーズプロセッサ (AMD EPYC 7571)
- 拡張ネットワーキングを使用した最大 20 Gbps のネットワーク帯域幅
- ENA および NVMe 用のドライバーを含む HVM AMI が必要
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- M5ad インスタンスでは、NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、M5a インスタンスの寿命に連動するブロックレベルのストレージを提供
インスタンスサイズ vCPU メモリ (GiB)
インスタンスストレージ
(GB)
ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps) m5a.large 2 8 EBS のみ 最大 10 最大 2,880 m5a.xlarge 4 16 EBS のみ 最大 10 最大 2,880 m5a.2xlarge 8 32 EBS のみ 最大 10 最大 2,880 m5a.4xlarge 16 64 EBS のみ 最大 10 2,880 m5a.8xlarge 32 128 EBS のみ 最大 10 4,750 m5a.12xlarge 48 192 EBS のみ 10 6,780 m5a.16xlarge 64 256 EBS のみ 12 9,500 m5a.24xlarge 96 384 EBS のみ 20 13,570 m5ad.large 2 8 1 x 75 NVMe SSD 最大 10 最大 2,880 m5ad.xlarge 4 16 1 x 150 NVMe SSD 最大 10 最大 2,880 m5ad.2xlarge 8 32 1 x 300 NVMe SSD 最大 10 最大 2,880 m5ad.4xlarge 16 64 2 x 300 NVMe SSD 最大 10 2,880 m5ad.8xlarge 32 128 2 x 600 NVMe SSD 最大 10 4,750 m5ad.12xlarge 48 192 2 x 900 NVMe SSD 10 6,870 m5ad.16xlarge 64 256 4 x 600 NVMe SSD 12 9,500 m5ad.24xlarge 96 384 4 x 900 NVMe SSD 20 13,570 すべてのインスタンスの仕様は以下のとおりです
- 2.5 GHz AMD EPYC 7000 シリーズプロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
小規模/中規模のデータベース、追加のメモリが必要となるデータ処理タスク、キャッシングフリート、および SAP、Microsoft SharePoint、クラスターコンピューティング、その他エンタープライズアプリケーションのためのバックエンドサーバーの実行
- 全コアターボのクロック速度が 2.5 GHz の AMD EPYC 7000 シリーズプロセッサ (AMD EPYC 7571)
-
M4
-
Amazon EC2 M4 インスタンスでは、コンピューティング、メモリ、ネットワークの各リソースがバランスよく提供されるため、多くのアプリケーションに適しています。
特徴:
- 最大 2.4 GHz のインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4 または Haswell E5-2676 v3)
- デフォルトで EBS 最適化、追加料金なし
- 拡張ネットワークのサポート
- コンピューティング、メモリ、ネットワークリソースのバランス
インスタンス vCPU* メモリ (GiB) ストレージ 専用 EBS 帯域幅 (Mbps) ネットワークパフォーマンス *** m4.large 2 8 EBS のみ 450 中 m4.xlarge 4 16 EBS のみ 750 高 m4.2xlarge 8 32 EBS のみ 1,000 高 m4.4xlarge 16 64 EBS のみ 2,000 高 m4.10xlarge 40 160 EBS のみ 4,000 10 ギガビット m4.16xlarge 64 256 EBS のみ 10,000 25 ギガビット すべてのインスタンスの仕様は以下のとおりです
- 2.4 GHz インテル Xeon E5-2676 v3** プロセッサ
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
小規模/中規模のデータベース、追加のメモリが必要となるデータ処理タスク、キャッシングフリート、および SAP、Microsoft SharePoint、クラスターコンピューティング、その他エンタープライズアプリケーションのためのバックエンドサーバーの実行。
-
T4g
-
Amazon EC2 T4g インスタンスは、Arm ベースのカスタムビルドの AWS Graviton2 プロセッサを搭載していて、T3 インスタンスよりも最大 40% 高いコストパフォーマンスを発揮します。対象は、多岐にわたるバースト可能な汎用ワークロードです。
T4g インスタンスは、ワークロードがベースライン未満で動作しているときに CPU クレジットを獲得します。取得した CPU クレジット 1 つにつき、必要なときに T4g インスタンスで CPU コアをフルパフォーマンスで 1 分間バーストできます。Unlimited モードでは、T4g インスタンスはいつでも必要な時間バーストすることができます。
特徴:
- t4g.small インスタンスの無料トライアルは、2024 年 12 月 31 日まで (1 か月あたり最大 750 時間)。詳細については、よくある質問をご覧ください。
- CPU クレジットと、一貫したベースラインパフォーマンスによって制御されるバースト可能な CPU
- ピーク期間中のパフォーマンスを確保するデフォルトの Unlimited モードと、予測可能な月額コストで使えるスタンダードモードオプション
- 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- デフォルトで EBS 最適化済み
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) ベースラインパフォーマンス/vCPU CPU クレジット取得/時間 ネットワークバースト幅 (Gbps)*** EBS バースト幅 (Mbps) t4g.nano 2 0.5 5% 6 最大 5 最大 2,085 t4g.micro 2 1 10% 12 最大 5 最大 2,085 t4g.small 2 2 20% 24 最大 5 最大 2,085 t4g.medium 2 4 20% 24 最大 5 最大 2,085 t4g.large 2 8 30% 36 最大 5 最大 2,780 t4g.xlarge 4 16 40% 96 最大 5 最大 2,780 t4g.2xlarge 8 32 40% 192 最大 5 最大 2,780 すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース:
マイクロサービス、低レイテンシーのインタラクティブアプリケーション、小規模/中規模のデータベース、仮想デスクトップ、開発環境、コードリポジトリ、およびビジネスクリティカルなアプリケーション。
- t4g.small インスタンスの無料トライアルは、2024 年 12 月 31 日まで (1 か月あたり最大 750 時間)。詳細については、よくある質問をご覧ください。
-
T3
-
Amazon EC2 T3 インスタンスは次世代の汎用バーストインスタンスタイプで、ベースラインレベルの CPU パフォーマンスと共に、いつでも必要に応じて CPU 使用率をバーストできる機能を備えています。T3 インスタンスはバランスの取れたコンピューティング、メモリ、およびネットワークのリソースを提供し、使用中に一時的なスパイクが生じる中程度の CPU 使用率を持つアプリケーション向けに設計されています。
T3 インスタンスは、ワークロードがベースライン値未満で動作しているときに CPU クレジットを加算します。取得した CPU クレジット 1 つにつき、必要なときに T3 インスタンスで CPU コアをフルパフォーマンスで 1 分間バーストできます。Unlimited モードでは、T3 インスタンスはいつでも必要な時間バーストできます。
特徴:
- 最大 3.1 GHz のインテル Xeon スケーラブルプロセッサ (Skylake 8175M または Cascade Lake 8259CL)
- CPU クレジットと、一貫したベースラインパフォーマンスによって制御されるバースト可能な CPU
- ピーク期間中のパフォーマンスを確保するデフォルトの Unlimited モードと、予測可能な月額コストで使えるスタンダードモードオプション
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- AWS Nitro System と高周波インテル Xeon スケーラブルプロセッサによって、価格性能比が T2 インスタンスよりも最大 30% 向上
インスタンス vCPU* CPU クレジット/時間 メモリ (GiB) ストレージ ネットワークパフォーマンス (Gbps)*** t3.nano 2
6
0.5 EBS のみ 最大 5 t3.micro 2
12
1 EBS のみ
最大 5 t3.small 2
24
2 EBS のみ
最大 5 t3.medium 2 24
4 EBS のみ
最大 5 t3.large 2 36
8 EBS のみ 最大 5 t3.xlarge 4 96
16 EBS のみ 最大 5 t3.2xlarge 8 192
32 EBS のみ 最大 5 すべてのインスタンスの仕様は以下のとおりです
- 最大 3.1 GHz のインテル Xeon スケーラブルプロセッサ
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース:
マイクロサービス、低レイテンシーのインタラクティブアプリケーション、小規模/中規模のデータベース、仮想デスクトップ、開発環境、コードリポジトリ、およびビジネスクリティカルなアプリケーション
- 最大 3.1 GHz のインテル Xeon スケーラブルプロセッサ (Skylake 8175M または Cascade Lake 8259CL)
-
T3a
-
Amazon EC2 T3a インスタンスは次世代の汎用バーストインスタンスタイプで、ベースラインレベルの CPU パフォーマンスと共に、いつでも必要に応じて CPU 使用率をバーストできる機能を備えています。T3a インスタンスはバランスの取れたコンピューティング、メモリ、およびネットワークのリソースを提供し、使用中に一時的なスパイクが生じるような中程度の CPU 使用率を持つアプリケーション向けに設計されています。T3a インスタンスは、同等のインスタンスタイプに比べて最大 10% のコスト削減を実現します。
T3a インスタンスは、ワークロードがベースライン未満で動作しているときに、CPU クレジットを加算します。取得した CPU クレジット1 つにつき、必要なときに T3a インスタンスで CPU コアをフルパフォーマンスで 1 分間バーストできます。Unlimited モードの T3a インスタンスは、いつでも必要な時間バーストできます。
特徴:
- 全コアターボのクロック速度が 2.5 GHz の AMD EPYC 7000 シリーズプロセッサ (AMD EPYC 7571)
- CPU クレジットと、一貫したベースラインパフォーマンスによって制御されるバースト可能な CPU
- ピーク期間中のパフォーマンスを確保するデフォルトの Unlimited モードと、予測可能な月額コストで使えるスタンダードモードオプション
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンス vCPU* CPU クレジット/時間 メモリ (GiB) ストレージ ネットワークパフォーマンス (Gbps)*** t3a.nano 2
6
0.5 EBS のみ 最大 5 t3a.micro 2
12
1 EBS のみ
最大 5 t3a.small 2
24
2 EBS のみ
最大 5 t3a.medium 2 24
4 EBS のみ
最大 5 t3a.large 2 36
8 EBS のみ 最大 5 t3a.xlarge 4 96
16 EBS のみ 最大 5 t3a.2xlarge 8 192
32 EBS のみ 最大 5 すべてのインスタンスの仕様は以下のとおりです
- 2.5 GHz AMD EPYC 7000 シリーズプロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース:
マイクロサービス、低レイテンシーのインタラクティブアプリケーション、小規模/中規模のデータベース、仮想デスクトップ、開発環境、コードリポジトリ、およびビジネスクリティカルなアプリケーション
-
T2
-
Amazon EC2 T2 インスタンスは、ベースラインレベルの CPU パフォーマンスを提供し、ベースラインを超えてバーストする機能を備えているバーストパフォーマンスインスタンスです。
T2 Unlimited インスタンスは、ワークロードが必要とする時間だけ高 CPU パフォーマンスを維持できます。T2 Unlimited インスタンスはほとんどの汎用ワークロードについて追加料金なしで十分なパフォーマンスを提供します。長時間にわたって高い CPU 使用率でインスタンスを実行する必要がある場合でも、固定の追加料金 (vCPU 時間あたり 5 セント) で実行できます。
ベースラインパフォーマンスとバースト機能は、CPU クレジットによって制御されます。T2 インスタンスは継続的に、インスタンスサイズに応じて規定のレートで CPU クレジットを獲得します。アイドル状態のときには CPU クレジットが加算され、アクティブなときに CPU クレジットを消費します。T2 インスタンスはマイクロサービス、低レイテンシーのインタラクティブアプリケーション、小規模および中規模のデータベース、仮想デスクトップ、開発、構築、およびステージ環境、コードリポジトリ、製品プロトタイプなどの幅広い汎用ワークロードに最適です。詳細については、バースト可能パフォーマンスインスタンスを参照してください。
特徴:
- 最大 3.3 GHz のインテル Xeon スケーラブルプロセッサ (Haswell E5-2676 v3 または Broadwell E5-2686 v4)
- 高クロックのインテル Xeon プロセッサ
- CPU クレジットと、一貫したベースラインパフォーマンスによって制御されるバースト可能な CPU
- 無料利用枠で使える低コストな汎用インスタンスタイプ*
- コンピューティング、メモリ、ネットワークリソースのバランス
* t2.micro のみ。T2 Unlimited として設定すると、平均 CPU 使用率がインスタンスのベースラインを越えた場合に料金が発生することがあります。詳細については、こちらのドキュメントを参照してください。
インスタンス vCPU* CPU クレジット/時間
メモリ (GiB) ストレージ
ネットワークパフォーマンス t2.nano 1 3 0.5 EBS のみ 低 t2.micro 1 6 1 EBS のみ
低~中 t2.small 1 12 2 EBS のみ
低~中 t2.medium 2 24 4 EBS のみ
低~中 t2.large 2 36 8 EBS のみ 低~中 t2.xlarge 4 54 16 EBS のみ 中 t2.2xlarge 8 81 32 EBS のみ 中 すべてのインスタンスの仕様は以下のとおりです
- インテル AVX†、インテルターボ†
- t2.nano、t2.micro、t2.small、t2.medium には最大 3.3 GHz のインテル Xeon スケーラブルプロセッサが搭載されています
- t2.large、t2.xlarge、および t2.2xlarge には最大 3.0 GHz のインテルスケーラブルプロセッサが搭載されています
ユースケース
ウェブサイトやウェブアプリケーション、開発環境、ビルドサーバー、コードリポジトリ、マイクロサービス、テストやステージングの環境、基幹業務アプリケーション。
- 最大 3.3 GHz のインテル Xeon スケーラブルプロセッサ (Haswell E5-2676 v3 または Broadwell E5-2686 v4)
Graviton ベースの Amazon EC2 インスタンスの各 vCPU は、AWS Graviton プロセッサのコアです。
Graviton ベースではない Amazon EC2 インスタンスの各 vCPU は、M7a インスタンス、T2 インスタンスと m3.medium を除き、x86 ベースのプロセッサのスレッドとなります。
† AVX、AVX2、拡張ネットワーキングは、HVM AMI で起動したインスタンスでのみ使用可能です。
* これは、このインスタンスタイプで提供されている vCPU のデフォルトの最大数です。このインスタンスタイプの起動時には、任意の数の vCPU を指定できます。有効な vCPU 数と、この機能の使用開始方法に関する詳細については、こちらの CPU 最適化のドキュメントページをご覧ください。
** これらの M4 インスタンスは、インテル Xeon E5-2686 v4 (Broadwell) プロセッサで起動する場合があります。
*** ネットワーク帯域幅が「最大」と表示されているインスタンスは、ベースライン帯域幅を持ち、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えるバーストをベストエフォートの原則で行うことができます。詳細については、「インスタンスネットワーク帯域幅」を参照してください。
コンピューティング最適化
コンピューティング最適化インスタンスは、高パフォーマンスプロセッサの恩恵を受けるコンピューティングバウンドなアプリケーションに最適です。 このカテゴリに属するインスタンスは、バッチ処理ワークロード、メディアトランスコーディング、ハイパフォーマンスウェブサーバー、ハイパフォーマンスコンピューティング (HPC)、科学モデリング、専用ゲームサーバーおよび広告サーバーエンジン、機械学習推論、および他のコンピューティングを多用するアプリケーションに最適です。
-
C7g
-
C7gn
-
C7i
-
C7i-flex
-
C7a
-
C6g
-
C6gn
-
C6i
-
C6in
-
C6a
-
C5
-
C5n
-
C5a
-
C4
-
C7g
-
Amazon EC2 C7g インスタンスは、Arm ベースの AWS Graviton3 プロセッサを使用します。計算量の多いアプリケーションに対して、Amazon EC2 の中で最高の料金パフォーマンスを実現します。
特徴:
- カスタムビルドの AWS Graviton3 プロセッサを搭載
- DDR4 比で帯域幅が 50% 多い最新の DDR5 メモリを搭載
- C6g インスタンスと比較して、ネットワーク帯域幅が 20% 強化
- デフォルトで EBS 最適化済み
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- C7gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルストレージを提供します
- c7g.16xlarge、c7g.metal、c7gd.16xlarge、c7gd.metal インスタンスで Elastic Fabric Adapter をサポートします
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) c7g.medium
1
2
EBS のみ
最大 12.5
最大 10
c7g.large
2
4
EBS のみ
最大 12.5
最大 10
c7g.xlarge
4
8
EBS のみ
最大 12.5
最大 10
c7g.2xlarge
8
16
EBS のみ
最大 15
最大 10
c7g.4xlarge
16
32
EBS のみ
最大 15
最大 10
c7g.8xlarge
32
64
EBS のみ
15
10
c7g.12xlarge
48
96
EBS のみ
22.5
15
c7g.16xlarge
64
128
EBS のみ
30
20
c7g.metal 64 128 EBS のみ 30 20 c7gd.medium
1
2
1 x 59 NVMe SSD
最大 12.5
最大 10
c7gd.large
2
4
1 x 118 NVMe SSD
最大 12.5
最大 10
c7gd.xlarge
4
8
1 x 237 NVMe SSD
最大 12.5
最大 10
c7gd.2xlarge
8
16
1 x 474 NVMe SSD
最大 15
最大 10
c7gd.4xlarge
16
32
1 x 950 NVMe SSD
最大 15
最大 10
c7gd.8xlarge
32
64
1 x 1900 NVMe SSD
15
10
c7gd.12xlarge
48
96
2 x 1425 NVMe SSD
22.5
15
c7gd.16xlarge
64
128
2 x 1900 NVMe SSD
30
20
c7gd.metal
64
128
2 x 1900 NVMe SSD
30
20
すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton3 プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
ハイパフォーマンスコンピューティング (HPC)、バッチ処理、広告配信、動画エンコーディング、ゲーム、科学的モデリング、分散分析、および CPU ベースの機械学習推論。
- カスタムビルドの AWS Graviton3 プロセッサを搭載
-
C7gn
-
Amazon EC2 C7gn インスタンスは、Arm ベースの AWS Graviton3E プロセッサを使用します。C7gn インスタンスは、現世代の同等の x86 ベースのネットワーク最適化インスタンスと比較して、最大 200 Gbps のネットワーク帯域幅と vCPU あたり最大 3 倍高いパケット処理パフォーマンスを提供します。
特徴:
- カスタムビルドの AWS Graviton3E プロセッサを搭載
- DDR4 比で帯域幅が 50% 多い最新の Double Data Rate 5 (DDR5) メモリを搭載
- 最大 200 Gbps のネットワーク帯域幅
- Amazon Elastic Block Store (EBS) への最大 40 Gbps の帯域幅
- C6gn インスタンスと比較して、ネットワーク帯域幅が 2 倍強化
- デフォルトで EBS 最適化済み
- c7gn.16xlarge および c7gn.metal インスタンスで Elastic Fabric Adapter (EFA)に対応
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) c7gn.medium
1
2
EBS のみ
最大 25
最大 10
c7gn.large
2
4
EBS のみ
最大 30
最大 10
c7gn.xlarge
4
8
EBS のみ
最大 40
最大 10
c7gn.2xlarge
8
16
EBS のみ
最大 50
最大 10
c7gn.4xlarge
16
32
EBS のみ
50
最大 10
c7gn.8xlarge
32
64
EBS のみ
100
最大 20
c7gn.12xlarge
48
96
EBS のみ
150
最大 30
c7gn.16xlarge
64
128
EBS のみ
200
最大 40
c7gn.Metal
64
128
EBS のみ
200
最大 40
すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton3 プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
ネットワーク仮想アプライアンス、データ分析、CPU ベース人工知能および機械学習 (AI/ML) 推論などのネットワーク集約型ワークロード - カスタムビルドの AWS Graviton3E プロセッサを搭載
-
C7i
-
Amazon EC2 C7i インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、C6i インスタンスより 15% 優れた料金パフォーマンスを実現します。
特徴:
- 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
- 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
- 2 種類のメタルサイズ: c7i.metal-24xl と c7i.metal-48xl
- 専用の組み込みアクセラレータ (C7i ベアメタルサイズでのみ使用可能)— Data Streaming Accelerator (DSA)、In-Memory Analytics Accelerator (IAA)、QuickAssist Technology (QAT)— データ操作の効率的なオフロードと高速化を実現し、データベース、暗号化と圧縮、およびキュー管理のワークロードのパフォーマンスを最適化
- DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- インスタンスあたり最大 128 EBS ボリュームアタッチメントをサポート
- 最大 192 基の vCPU と 384 GiB のメモリ
- 48xlarge サイズと metal-48xl サイズの Elastic Fabric Adapterをサポート
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro Systemを搭載
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) c7i.large
2
4
EBS のみ
最大 12.5
最大 10
c7i.xlarge
4
8
EBS のみ
最大 12.5
最大 10
c7i.2xlarge
8
16
EBS のみ
最大 12.5
最大 10
c7i.4xlarge
16
32
EBS のみ
最大 12.5
最大 10
c7i.8xlarge
32
64
EBS のみ
12.5
10
c7i.12xlarge
48
96
EBS のみ
18.75
15
c7i.16xlarge
64
128
EBS のみ
25
20
c7i.24xlarge
96
192
EBS のみ
37.5
30
c7i.48xlarge
192
384
EBS のみ
50
40
c7i.metal-24xl
96
192
EBS のみ
37.5
30
c7i.metal-48xl
192
384
EBS のみ
50
40
すべてのインスタンスの仕様は以下のとおりです:
- 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサー
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
C7i インスタンスは、バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、広告配信、高度スケーラブルマルチプレイヤーゲーム、動画エンコーディングなど、コンピューティングを多用するワークロードに理想的です。
-
C7i-flex
-
Amazon EC2 C7i-flex インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、C6i インスタンスより 19% 優れた料金パフォーマンスを実現します。
特徴:
- コンピューティングを多用するほとんどのワークロードにおいて、クラウドでコストパフォーマンスとコストメリットを実現する極めて簡単な方法
- 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
- 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
- DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ。
- デフォルトで EBS 最適化済み
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) c7i-flex.large
2
4
EBS のみ
最大 12.5
最大 10
c7i-flex.xlarge
4
8
EBS のみ
最大 12.5
最大 10
c7i-flex.2xlarge
8
16
EBS のみ
最大 12.5
最大 10
c7i-flex.4xlarge
16
32
EBS のみ
最大 12.5
最大 10
c7i-flex.8xlarge
32
64
EBS のみ
最大 12.5
最大 10
ユースケース
C7i-flex インスタンスは、ウェブサーバー、アプリケーションサーバー、データベース、キャッシュ、Apache Kafka、Elasticsearch など、コンピューティングを多用するワークロードの大部分をシームレスに実行するための優れた第一の選択肢です。
-
C7a
-
第 4 世代 AMD EPYC プロセッサを搭載した Amazon EC2 C7a インスタンスは、C6a インスタンスと比較して最大 50% 高いパフォーマンスを発揮します。
特徴:- 最大 3.7 GHz の第 4 世代 AMD EPYC プロセッサ (AMD EPYC 9R14)
- 最大 50 Gbps のネットワーク帯域幅
- Amazon Elastic Block Store (Amazon EBS) への最大 40 Gbps の帯域幅
- 最大 192 vCPU と 384 GiB のメモリを搭載したインスタンスサイズ
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- AMD のセキュアメモリ暗号化 (SME) による常時メモリ暗号化のサポート
- AVX-512、VNNI、bfloat16 などの新しいプロセッサー機能をサポート
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) c7a.medium
1
2
EBS のみ
最大 12.5
最大 10
c7a.large
2
4
EBS のみ
最大 12.5
最大 10
c7a xlarge
4
8
EBS のみ
最大 12.5
最大 10
c7a.2xlarge
8
16
EBS のみ
最大 12.5
最大 10
c7a.4xlarge
16
32
EBS のみ
最大 12.5
最大 10
c7a.8xlarge
32
64
EBS のみ
12.5
10
c7a.12xlarge
48
96
EBS のみ
18.75
15
c7a.16xlarge
64
128
EBS のみ
25
20
c7a.24xlarge
96
192
EBS のみ
37.5
30
c7a.32xlarge
128
256
EBS のみ
50
40
c7a.48xlarge
192
384
EBS のみ
50
40
c7a.metal-48xl
192
384
EBS のみ
50
40
ユースケース
バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、広告配信、拡張性の高いマルチプレイヤーゲーム、ビデオエンコーディングなど、コンピューティング集約型ワークロード。
-
C6g
-
Amazon EC2 C6g インスタンスは、Arm ベースの AWS Graviton2 プロセッサを使用します。コンピューティング集約型アプリケーションに対して、現在の世代の C5 インスタンスよりも最大 40% 高い料金パフォーマンスを提供します。
特徴:
- 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- 最大 25 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
- デフォルトで EBS 最適化済み
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- C6gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルのストレージを提供します
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps) c6g.medium 1 2 EBS のみ 最大 10 最大 4,750 c6g.large 2 4 EBS のみ 最大 10 最大 4,750 c6g.xlarge 4 8 EBS のみ 最大 10 最大 4,750 c6g.2xlarge 8 16 EBS のみ 最大 10 最大 4,750 c6g.4xlarge 16 32 EBS のみ 最大 10 4,750 c6g.8xlarge 32 64 EBS のみ 12 9,000 c6g.12xlarge 48 96 EBS のみ 20 13,500 c6g.16xlarge 64 128 EBS のみ 25 19,000 c6g.metal 64 128 EBS のみ 25 19,000 c6gd.medium 1 2 1 x 59 NVMe SSD 最大 10 最大 4,750 c6gd.large 2 4 1 x 118 NVMe SSD 最大 10 最大 4,750 c6gd.xlarge 4 8 1 x 237 NVMe SSD 最大 10 最大 4,750 c6gd.2xlarge 8 16 1 x 474 NVMe SSD 最大 10 最大 4,750 c6gd.4xlarge 16 32 1 x 950 NVMe SSD 最大 10 4,750 c6gd.8xlarge 32 64 1 x 1900 NVMe SSD 12 9,000 c6gd.12xlarge 48 96 2 x 1425 NVMe SSD 20 13,500 c6gd.16xlarge 64 128 2 x 1900 NVMe SSD 25 19,000 c6gd.metal 64 128 2 x 1900 NVMe SSD 25 19,000 すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
ハイパフォーマンスコンピューティング (HPC)、バッチ処理、広告配信、動画エンコーディング、ゲーム、科学的モデリング、分散分析、および CPU ベースの機械学習推論。
-
C6gn
-
Amazon EC2 C6gn インスタンスは、Arm ベースの AWS Graviton2 プロセッサを搭載しています。このインスタンスは現行世代の C5n インスタンスよりも最大 40% 優れたコストパフォーマンスと、最大 100 Gbps のネットワークを提供します。また、ハイパフォーマンスコンピューティング (HPC)、ネットワークアプライアンス、リアルタイム動画通信、データ分析など、より高いネットワークスループットを必要とするアプリケーション向けの Elastic Fabric Adapter (EFA) をサポートしています。
特徴:
- 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- 最大 100 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
- c6gn.16xlarge インスタンスでの EFA サポート
- デフォルトで EBS 最適化済みで、C5n インスタンスと比較して 2 倍の EBS 帯域幅
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) c6gn.medium
1
2
EBS のみ
最大 16
最大 9.5
c6gn.large
2
4
EBS のみ
最大 25
最大 9.5
c6gn.xlarge
4
8
EBS のみ
最大 25
最大 9.5
c6gn.2xlarge
8
16
EBS のみ
最大 25
最大 9.5
c6gn.4xlarge
16
32
EBS のみ
最大 25
9.5
c6gn.8xlarge
32
64
EBS のみ
50
19
c6gn.12xlarge
48
96
EBS のみ
75
28.5
c6gn.16xlarge
64
128
EBS のみ
100
38
すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
ハイパフォーマンスのウェブサーバー、科学的モデリング、バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、ネットワークアプライアンス、機械学習/深層学習推論、広告サービス、拡張性の高いマルチプレイヤーゲーム、動画エンコーディング。
-
C6i
-
Amazon EC2 C6i インスタンスは、第 3 世代のインテル Xeon スケーラブルプロセッサを搭載しており、計算量の多いワークロードに最適です。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- C5 インスタンスと比較して、コンピューティング料金パフォーマンスが最大 15% 向上
- C5 インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 9% 向上
- 最大 50 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 40 Gbps の帯域幅
- 新しいインスタンスサイズ (32xlarge)、128 vCPU、256 GiB メモリ
- 32xlarge とメタルサイズの Elastic Fabric Adapter に対応
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extensions (AVX 512) の新命令をサポート
- C6id インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、C6i インスタンスの寿命に連動するブロックレベルのストレージを提供
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) c6i.large
2
4
EBS のみ
最大 12.5
最大 10
c6i.xlarge
4
8
EBS のみ
最大 12.5
最大 10
c6i.2xlarge
8
16
EBS のみ
最大 12.5
最大 10
c6i.4xlarge
16
32
EBS のみ
最大 12.5
最大 10
c6i.8xlarge
32
64
EBS のみ
12.5
10
c6i.12xlarge
48
96
EBS のみ
18.75
15
c6i.16xlarge
64
128
EBS のみ
25
20
c6i.24xlarge
96
192
EBS のみ
37.5
30
c6i.32xlarge
128
256
EBS のみ
50
40
c6i.metal 128 256 EBS のみ 50 40 c6id.large
2
4
1x118 NVMe SSD
最大 12.5
最大 10
c6id.xlarge
4
8
1x237 NVMe SSD
最大 12.5
最大 10
c6id.2xlarge
8
16
1x474 NVMe SSD
最大 12.5
最大 10
c6id.4xlarge
16
32
1x950 NVMe SSD
最大 12.5
最大 10
c6id.8xlarge
32
64
1x1900 NVMe SSD
12.5
10
c6id.12xlarge
48
96
2x1425 NVMe SSD
18.75
15
c6id.16xlarge
64
128
2x1900 NVMe SSD
25
20
c6id.24xlarge
96
192
4x1425 NVMe SSD
37.5
30
c6id.32xlarge
128
256
4x1900 NVMe SSD
50
40
c6id.metal 128 256 4x1900 NVMe SSD 50 40 すべてのインスタンスの仕様は以下のとおりです
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサー
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
バッチ処理、分散分析、ハイパフォーマンスコンピューティング(HPC)、広告配信、拡張性の高いマルチプレイヤーゲーム、ビデオエンコーディングなど、計算量の多いワークロード。
-
C6in
-
Amazon EC2 C6in インスタンスは、ネットワーク仮想アプライアンス、データ分析、ハイパフォーマンスコンピューティング (HPC)、CPU ベースの AI/機械学習など、ネットワーク集約型ワークロードに最適です。それらは、3.5 GHz のオールコアターボ周波数を備えた第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載しています。C6in インスタンスは、最大 200 Gbps のネットワーク帯域幅と最大 80 Gbps の Amazon Elastic Block Store (EBS) 帯域幅を提供します。 C6in.32xlarge および C6in.metal インスタンスは、Elastic Fabric Adapter (EFA) をサポートしています。 EFA は、Amazon EC2 インスタンスのネットワークインターフェイスであり、AWS で大規模に Message Passing Interface (MPI) ライブラリを使用する HPC アプリケーションなど、高レベルのノード間通信を必要とするアプリケーションを実行するために使用できます。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- C5n インスタンスと比較して最大 2 倍となる最大 200 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
- C5n インスタンスと比較して最大 5.2 倍となる最大 100 Gbps の EBS 帯域幅
- 32xlarge および metal サイズでの EFA サポート
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの処理を高速化するインテル Advanced Vector Extensions (AVX-512) の新命令をサポート
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) c6in.large
2
4
EBS のみ
最大 25
最大 25
c6in.xlarge
4
8
EBS のみ
最大 30
最大 25
c6in.2xlarge
8
16
EBS のみ
最大 40
最大 25
c6in.4xlarge
16
32
EBS のみ
最大 50
最大 25
c6in.8xlarge
32
64
EBS のみ
50
25
c6in.12xlarge
48
96
EBS のみ
75
37.5
c6in.16xlarge
64
128
EBS のみ
100
50
c6in.24xlarge
96
192
EBS のみ
150
75
c6in.32xlarge 128 256 EBS のみ 200**** 100 c6in.メタル 128 256 EBS のみ 200**** 100
****32xlarge およびメタルサイズの場合、200 Gbps のスループットを達成するために、それぞれ異なるネットワークカードにアタッチされた少なくとも 2 つの Elastic Network Interface がインスタンス上に必要です。ネットワークカードにアタッチされた各ネットワークインターフェイスは、最大 170 Gbps を達成できます。詳細については、「ネットワークカード」を参照すべてのインスタンスの仕様は以下のとおりです
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサー
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
分散コンピューティングアプリケーション、ネットワーク仮想アプライアンス、データ分析、ハイパフォーマンスコンピューティング (HPC)、CPU ベースの AI/機械学習など、高いネットワーク帯域幅や高いパケット処理パフォーマンスを必要とするコンピューティング集約型ワークロード。
-
C6a
-
Amazon C6a インスタンスは、第 3 世代の AMD EPYC プロセッサを搭載し、計算量の多いワークロード向けに設計されています。
特徴:
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
- C5a インスタンスと比較して、コンピューティング料金パフォーマンスが最大 15% 向上
- 最大 50 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 40 Gbps の帯域幅
- 最大サイズで、最大 192 vCPU と 384 GiB のメモリ
- SAP 認定インスタンス
- 48xlarge サイズの Elastic Fabric Adapter に対応
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- AMD Transparent Single Key Memory Encryption (TSME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの実行を高速化する AMD Advanced Vector Extensions (AVX-2) の新命令をサポート
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) c6a.large 2 4 EBS のみ 最大 12.5 最大 10 c6a.xlarge 4 8 EBS のみ 最大 12.5 最大 10 c6a.2xlarge 8 16 EBS のみ 最大 12.5 最大 10 c6a.4xlarge 16 32 EBS のみ 最大 12.5 最大 10 c6a.8xlarge 32 64 EBS のみ 12.5 10 c6a.12xlarge 48 96 EBS のみ 18.75 15 c6a.16xlarge 64 128 EBS のみ 25 20 c6a.24xlarge 96 192 EBS のみ 37.5 30 c6a.32xlarge 128 256 EBS のみ 50 40 c6a.48xlarge 192 384 EBS のみ 50 40 c6a.metal 192 384 EBS のみ 50 40 すべてのインスタンスの仕様は以下のとおりです
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
バッチ処理、分散分析、ハイパフォーマンスコンピューティング(HPC)、広告配信、拡張性の高いマルチプレイヤーゲーム、ビデオエンコーディングなど、計算量の多いワークロード。
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
-
C5
-
Amazon EC2 C5 インスタンスは、コンピューティング集約型ワークロードのために最適化されており、低いコンピューティングあたりの価格率でコスト効率性が高い優れたパフォーマンスを実現します。
特徴:
- C5 インスタンスでは、インスタンスサイズに応じてプロセッサを選択できます。
- C5 および C5d の 12xlarge、24xlarge、metal インスタンスサイズは、第 2 世代カスタムインテル Xeon スケーラブルプロセッサ (Cascade Lake 8275CL) を搭載しています。持続的な全コアターボ周波数は最大 3.6 GHz、シングルコアのターボ周波数は最大 3.9 GHz です。
- その他の C5 インスタンスサイズは、第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8223CL) または第 1 世代インテル Xeon Platinum 8000 シリーズ (Skylake 8124M) プロセッサを搭載しています。持続的な全コアターボ周波数は最大 3.4 GHz、シングルコアのターボ周波数は最大 3.5 GHz です。
- 新しくより大きな 24xlarge インスタンスサイズは、96 vCPUs、192 GiB のメモリ、オプションで 3.6TB ローカル NVMe-based SSD を搭載
- ENA および NVMe 用のドライバーを含む HVM AMI が必要
- C5d インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、C5 インスタンスの寿命に連係するブロックレベルのストレージを提供
- Elastic Network Adapter (ENA) は、最大 25 Gbps のネットワーク帯域幅および最大 19 Gbps の Amazon EBS 専用帯域幅を C5 インスタンスに提供します。
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
モデル vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Mbps) c5.large 2 4 EBS のみ 最大 10 最大 4,750 c5.xlarge 4 8 EBS のみ 最大 10 最大 4,750 c5.2xlarge 8 16 EBS のみ 最大 10 最大 4,750 c5.4xlarge 16 32 EBS のみ 最大 10 4,750 c5.9xlarge 36 72 EBS のみ 12 9,500 c5.12xlarge 48 96 EBS のみ 12 9,500 c5.18xlarge 72 144 EBS のみ 25 19,000 c5.24xlarge 96 192 EBS のみ 25 19,000 c5.metal 96 192 EBS のみ 25 19,000 c5d.large 2 4 1 x 50 NVMe SSD 最大 10 最大 4,750 c5d.xlarge 4 8 1 x 100 NVMe SSD 最大 10 最大 4,750 c5d.2xlarge 8 16 1 x 200 NVMe SSD 最大 10 最大 4,750 c5d.4xlarge 16 32 1 x 400 NVMe SSD 最大 10 4,750 c5d.9xlarge 36 72 1 x 900 NVMe SSD 12 9,500 c5d.12xlarge 48 96 2 x 900 NVMe SSD 12 9,500 c5d.18xlarge 72 144 2 x 900 NVMe SSD 25 19,000 c5d.24xlarge 96 192 4 x 900 NVMe SSD 25 19,000 c5d.metal 96 192 4 x 900 NVMe SSD 25 19,000 C5 および C5d の 12xlarge、24xlarge、および metal インスタンスの仕様は以下のとおりです。
- 持続的な全コアターボ周波数最大 3.6 GHz、シングルコアのターボ周波数最大 3.9 GHz の第 2 世代カスタムインテル Xeon スケーラブルプロセッサ (Cascade Lake) 搭載。
- インテル AVX†、インテル AVX2†、インテル AVX-512、インテルターボ、インテル DL Boost
- EBS 最適化
- 拡張ネットワーキング†
その他の C5 および C5d 全インスタンスには以下の仕様があります。
- 持続的な全コアターボ周波数 3.6 GHz とシングルコアターボ周波数最大 3.9 GHz を備えた第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake)、あるいは持続的な全コアターボ周波数最大 3.4 GHz およびシングルコアターボ周波数最大 3.5 GHz を備えた第 1 世代インテル Xeon Platinum 8000 シリーズ (Skylake-SP) プロセッサの搭載。
- インテル AVX†、インテル AVX2†、インテル AVX-512、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
高性能のウェブサーバー、科学的モデリング、バッチ処理、分散分析、高性能コンピューティング (HPC)、機械学習/深層学習推論、広告サービス、拡張性の高いマルチプレイヤーゲーム、および動画エンコーディング。
-
C5n
-
Amazon EC2 C5n インスタンスは、向上したネットワークスループットおよびパケットレートパフォーマンスの利点を活かせるハイコンピューティングアプリケーション (ハイパフォーマンスコンピューティング (HPC) ワークロード、データレイク、ファイアウォールおよびルーターといったネットワークアプリケーション等) に最適です。C5n インスタンスの最大 100 Gbps のネットワーク帯域幅および増量されたメモリは、C5 インスタンスを凌駕しています。 C5n.18xlarge インスタンスは Elastic Fabric Adapter (EFA) をサポートしています。これは Amazon EC2 インスタンスのネットワークインターフェイスで、これにより、Message Passing Interface (MPI) を使用するハイパフォーマンスコンピューティング (HPC) アプリケーションのような高レベルのノード間通信を要するアプリケーションを、AWS で大規模に実行できるようになります。
特徴:
- インテル Advanced Vector Extension 512 (AVX-512) の命令セットを搭載した、3.0 GHz インテル Xeon Platinum プロセッサ (Skylake 8124)
- 最大 3.4GHz の全コアターボクロックと、最大 3.5GHz のシングルコアターボクロックを維持
- 72 個の vCPU と 192 GiB のメモリを提供する、さらに大きなインスタンスサイズの c5n.18xlarge
- ENA および NVMe 用のドライバーを含む HVM AMI が必要
- ネットワーク帯域幅が最大 100 Gbps に拡張し、ネットワーク負荷の大きいアプリケーションのパフォーマンスを向上します。
- c5n.18xlarge インスタンスでの EFA サポート
- C5 インスタンスより 33% 大きいメモリ占有量
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
モデル vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Mbps) c5n.large 2 5.25 EBS のみ 最大 25
最大 4,750 c5n.xlarge 4 10.5 EBS のみ 最大 25 最大 4,750 c5n.2xlarge 8 21 EBS のみ 最大 25 最大 4,750 c5n.4xlarge 16 42 EBS のみ 最大 25 4,750 c5n.9xlarge 36 96
EBS のみ 50 9,500 c5n.18xlarge 72 192 EBS のみ 100 19,000 c5n.metal 72 192 EBS のみ 100 19,000 すべてのインスタンスの仕様は以下のとおりです
- 3.0 GHz インテル Xeon Platinum プロセッサ
- インテル AVX†、インテル AVX2†、インテル AVX-512、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
高性能のウェブサーバー、科学的モデリング、バッチ処理、分散分析、高性能コンピューティング (HPC)、機械学習/深層学習推論、広告サービス、拡張性の高いマルチプレイヤーゲーム、および動画エンコーディング。
-
C5a
-
Amazon EC2 C5a インスタンスは、幅広いコンピューティング集中型ワークロード向けに、優れた x86 のコストパフォーマンスを提供します。
特徴:
- 最大 3.3 GHz の周波数で動作する第 2 世代 AMD EPYC 7002 シリーズプロセッサ (AMD EPYC 7R32)
- Elastic Network Adapter (ENA) は、最大 20 Gbps のネットワーク帯域幅および最大 9.5 Gbps の Amazon EBS 専用帯域幅を C5a インスタンスに提供します
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- C5ad インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、C5a インスタンスの寿命に連係するブロックレベルのストレージを提供します。
モデル vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Mbps) c5a.large 2 4 EBS のみ 最大 10
最大 3,170 c5a.xlarge 4 8 EBS のみ 最大 10 最大 3,170 c5a.2xlarge 8 16 EBS のみ 最大 10 最大 3,170 c5a.4xlarge 16 32 EBS のみ 最大 10 最大 3,170 c5a.8xlarge 32 64
EBS のみ 10 3,170 c5a.12xlarge 48 96 EBS のみ 12 4,750
c5a.16xlarge 64 128 EBS のみ 20 6,300 c5a.24xlarge 96 192 EBS のみ 20 9,500 c5ad.large 2 4 1 x 75 NVMe SSD 最大 10 最大 3,170 c5ad.xlarge 4 8 1 x 150 NVMe SSD 最大 10 最大 3,170 c5ad.2xlarge 8 16 1 x 300 NVMe SSD 最大 10 最大 3,170 c5ad.4xlarge 16 32 2 x 300 NVMe SSD 最大 10 最大 3,170 c5ad.8xlarge 32 64 2 x 600 NVMe SSD 10 3,170 c5ad.12xlarge 48 96 2 x 900 NVMe SSD 12 4,750 c5ad.16xlarge 64 128 2 x 1200 NVMe SSD 20 6,300 c5ad.24xlarge 96 192 2 x 1900 NVMe SSD 20 9,500 すべてのインスタンスの仕様は以下のとおりです
- 最大 3.3 GHz 第 2 世代 AMD EPYC プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
C5a インスタンスは、バッチ処理、分散分析、データ変換、ゲーミング、ログ分析、ウェブアプリケーション、その他のコンピューティング集約型ワークロードなど、帯域幅の広い vCPU とメモリを必要とするワークロードに最適です。
-
C4
-
C4 インスタンスは、コンピューティング集約型ワークロードのために最適化されており、低いコンピューティングあたりの価格率でコスト効率性が極めて高い優れたパフォーマンスを実現します。
特徴:
- 最大 2.9 GHz のインテル Xeon スケーラブルプロセッサ (Haswell E5-2666 v3)
- EC2 用に特別に最適化された高クロックのインテル Xeon E5-2666 v3 (Haswell) プロセッサ
- 追加料金なしでストレージパフォーマンスを向上させるデフォルトの EBS 最適化
- インテル 82599 VF をサポートする拡張ネットワーキングによる、より優れたネットワーキングパフォーマンス
- Amazon VPC、Amazon EBS、および 64 ビットの HVM AMI が必要
インスタンス vCPU* メモリ (GiB) ストレージ 専用 EBS 帯域幅 (Mbps) ネットワークパフォーマンス c4.large 2 3.75 EBS のみ 500 中 c4.xlarge 4 7.5 EBS のみ 750 高 c4.2xlarge 8 15 EBS のみ 1,000 高 c4.4xlarge 16 30 EBS のみ 2,000 高 c4.8xlarge 36 60 EBS のみ 4,000 10 ギガビット すべてのインスタンスの仕様は以下のとおりです
- 最大 2.9 GHz のインテル Xeon スケーラブルプロセッサ
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
高パフォーマンスのフロントエンドフリート、ウェブサーバー、バッチ処理、分散型分析、高パフォーマンスの科学アプリケーションとエンジニアリングアプリケーション、広告配信、MMO ゲーム、および動画エンコーディング。
- 最大 2.9 GHz のインテル Xeon スケーラブルプロセッサ (Haswell E5-2666 v3)
Graviton ベースの Amazon EC2 インスタンスの各 vCPU は、AWS Graviton プロセッサのコアとなります。
非 Graviton ベースの Amazon EC2 インスタンスの各 vCPU は、C7a インスタンスとを除き、x86 ベースのプロセッサのスレッドとなります。
† AVX、AVX2、拡張ネットワーキングは、HVM AMI で起動したインスタンスでのみ使用可能です。
* これは、このインスタンスタイプで提供されている vCPU のデフォルトの最大数です。このインスタンスタイプの起動時には、任意の数の vCPU を指定できます。有効な vCPU 数と、この機能の使用開始方法に関する詳細については、こちらの CPU 最適化のドキュメントページをご覧ください。
*** ネットワーク帯域幅が「最大」と表示されているインスタンスは、ベースライン帯域幅を持ち、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えるバーストをベストエフォートの原則で行うことができます。詳細については、「インスタンスネットワーク帯域幅」を参照してください。
メモリ最適化
メモリ最適化インスタンスは、メモリ内の大きいデータセットを処理するワークロードに対して高速なパフォーマンスを実現するように設計されています。
-
R8g
-
R7g
-
R7i
-
R7iz
-
R7a
-
R6g
-
R6i
-
R6in
-
R6a
-
R5
-
R5n
-
R5b
-
R5a
-
R4
-
U7i
-
High Memory (U-1)
-
X8g
-
X2gd
-
X2idn
-
X2iedn
-
X2iezn
-
X1
-
X1e
-
z1d
-
R8g
-
Amazon EC2 R8g インスタンスには、AWS Graviton4 プロセッサが搭載されています。メモリ最適化アプリケーションに対して、Amazon EC2 の中で最高の料金パフォーマンスを実現します。
特徴:
- カスタムビルドの AWS Graviton4 プロセッサを搭載
- R7g インスタンスと比べて最大 3 倍の vCPU とメモリを備えた大容量のインスタンスを提供
- 最新の DDR5-5600 メモリを搭載
- デフォルトで Amazon EBS 向けに最適化されています
- r8g.24xlarge、r8g.48xlarge、r8g.metal-24xl、r8g.metal-48xl で Elastic Fabric Adapter (EFA) をサポート
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) r8g.medium
1
8
EBS のみ
最大 12.5
最大 10
r8g.large
2
16
EBS のみ
最大 12.5
最大 10
r8g.xlarge
4
32
EBS のみ
最大 12.5
最大 10
r8g.2xlarge
8
64
EBS のみ
最大 15
最大 10
r8g.4xlarge
16
128
EBS のみ
最大 15
最大 10
r8g.8xlarge
32
256
EBS のみ
15
10
r8g.12xlarge
48
384
EBS のみ
22.5
15
r8g.16xlarge
64
512
EBS のみ
30
20
r8g.24xlarge
96
768
EBS のみ
40
30
r8g.48xlarge
192
1,536
EBS のみ
50
40
r8g.metal-24xl
96
768
EBS のみ
40
30
r8g.metal-48xl
192
1,536
EBS のみ
50
40
すべてのインスタンスの仕様は次のとおりです
ユースケース
オープンソースデータベース、インメモリキャッシュ、リアルタイムビッグデータ分析などのメモリ集約型ワークロード。
-
R7g
-
Amazon EC2 R7g インスタンスには、AWS Graviton3 プロセッサが搭載されています。メモリ最適化アプリケーションに対して、Amazon EC2 の中で高い料金パフォーマンスを実現します。
特徴:
- カスタムビルドの AWS Graviton3 プロセッサを搭載
- DDR4 と比較し帯域幅が 50% 多い DDR5 メモリを搭載
- R6g インスタンスと比較して、ネットワーク帯域幅が 20% 強化
- デフォルトで EBS 最適化済み
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- R7gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルストレージを提供します
- r7g.16xlarge、r7g.metal、r7gd.16xlarge、r7gd.metal インスタンスで Elastic Fabric Adapter (EFA) をサポート
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) r7g.medium
1
8
EBS のみ
最大 12.5
最大 10
r7g.large
2
16
EBS のみ
最大 12.5
最大 10
r7g.xlarge
4
32
EBS のみ
最大 12.5
最大 10
r7g.2xlarge
8
64
EBS のみ
最大 15
最大 10
r7g.4xlarge
16
128
EBS のみ
最大 15
最大 10
r7g.8xlarge
32
256
EBS のみ
15
10
r7g.12xlarge
48
384
EBS のみ
22.5
15
r7g.16xlarge
64
512
EBS のみ
30
20
r7g.metal
64
512
EBS のみ
30
20
r7gd.medium
1
8
1 x 59 NVMe SSD
最大 12.5
最大 10
r7gd.large
2
16
1 x 118 NVMe SSD
最大 12.5
最大 10
r7gd.xlarge
4
32
1 x 237 NVMe SSD
最大 12.5
最大 10
r7gd.2xlarge
8
64
1 x 474 NVMe SSD
最大 15
最大 10
r7gd.4xlarge
16
128
1 x 950 NVMe SSD
最大 15
最大 10
r7gd.8xlarge
32
256
1 x 1900 NVMe SSD
15
10
r7gd.12xlarge
48
384
2 x 1425 NVMe SSD
22.5
15
r7gd.16xlarge
64
512
2 x 1900 NVMe SSD
30
20
r7gd.metal
64
512
2 x 1900 NVMe SSD
30
20
すべてのインスタンスの仕様は以下のとおりです。
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton3 プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
オープンソースデータベース、インメモリキャッシュ、リアルタイムビッグデータ分析などのメモリ集約型ワークロード。 -
R7i
-
Amazon EC2 R7i インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、R6i インスタンスより 15% 優れた料金パフォーマンスを実現します。
特徴:
- 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
- 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
- 2 種類のメタルサイズ: r7i.metal-24xl と r7i.metal-48xl
- 専用の組み込みアクセラレータ (R7i ベアメタルサイズでのみ使用可能)— Data Streaming Accelerator (DSA)、In-Memory Analytics Accelerator (IAA)、QuickAssist Technology (QAT)— データ操作の効率的なオフロードと高速化を実現し、データベース、暗号化と圧縮、およびキュー管理のワークロードのパフォーマンスを最適化
- DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- インスタンスあたり最大 128 EBS ボリュームアタッチメントをサポート
- 最大 192 基の vCPU と 1,536GiB のメモリ
- 48xlarge サイズと metal-48xl サイズの Elastic Fabric Adapterをサポート
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro Systemを搭載
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) r7i.large
2
16
EBS のみ
最大 12.5
最大 10
r7i.xlarge
4
32
EBS のみ
最大 12.5
最大 10
r7i.2xlarge
8
64
EBS のみ
最大 12.5
最大 10
r7i.4xlarge
16
128
EBS のみ
最大 12.5
最大 10
r7i.8xlarge
32
256
EBS のみ
12.5
10
r7i.12xlarge
48
384
EBS のみ
18.75
15
r7i.16xlarge
64
512
EBS のみ
25
20
r7i.24xlarge
96
768
EBS のみ
37.5
30
r7i.48xlarge
192
1,536
EBS のみ
50
40
r7i.metal-24xl
96
768
EBS のみ
37.5
30
r7i.metal-48xl
192
1,536
EBS のみ
50
40
すべてのインスタンスの仕様は以下のとおりです:
- 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサー
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
R7i インスタンスは SAP 認定を受けており、メモリを多用するワークロード (SQL および NoSQL データベース)、分散ウェブスケールインメモリキャッシュ (Memcached および Redis)、インメモリデータベース (SAP HANA)、およびリアルタイムのビッグデータ分析 (Apache Hadoop および Apache Spark クラスター) に最適です。
-
R7iz
-
Amazon EC2 R7iz インスタンスは、第 4 世代のインテル Xeon スケーラブルプロセッサを搭載しており、ハイコンピューティングおよびメモリ集約型ワークロードに最適です。
特徴:
- 最大 3.9 GHz となるオールコアターボ周波数の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 6455B)
- z1d インスタンスより最大 20% 高いコンピューティングパフォーマンス
- 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化 - あらゆるサイズで利用可能
- ディスクリートビルトインアクセラレータ (R7iz ベアメタルサイズでのみ利用可能) - Data Streaming Accelerator (DSA)、インメモリ分析アクセラレータ (IAA)、QuickAssist Technology (QAT) - により、データ操作の効率的なオフロードとアクセラレーションが可能になります。これにより、データベース、暗号化と圧縮、キュー管理ワークロードのパフォーマンスを最適化
- 最大 50 Gbps のネットワークスピード
- Amazon Elastic Block Store (EBS)への最大 40 Gbps の帯域幅
- 最大 128 vCPU と 1,024 GiB のメモリを搭載したインスタンスサイズ
- 32xlarge サイズおよび metal-32xl サイズの Elastic Fabric Adapterをサポート
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) r7iz.large
2
16
EBS のみ
最大 12.5
最大 10
r7iz.xlarge
4
32
EBS のみ
最大 12.5
最大 10
r7iz.2xlarge
8
64
EBS のみ
最大 12.5
最大 10
r7iz.4xlarge
16
128
EBS のみ
最大 12.5
最大 10
r7iz.8xlarge
32
256
EBS のみ
12.5
10
r7iz.12xlarge
48
384
EBS のみ
25
19
r7iz.16xlarge
64
512
EBS のみ
25
20
r7iz.32xlarge
128
1,024
EBS のみ
50
40
r7iz.metal-16xl
64
512
EBS のみ
25
20
r7iz.metal-32xl
128
1,024
EBS のみ
50
40
ユースケース
フロントエンドの Electronic Design Automation (EDA)、コアごとのライセンス料金が高いリレーショナルデータベースのワークロード、財務、保険数理、およびデータ分析シミュレーションのワークロードなど、コンピューティングとメモリ集中型のワークロード。
-
R7a
-
第 4 世代 AMD EPYC プロセッサを搭載した Amazon EC2 R7a インスタンスは、R6a インスタンスと比較して最大 50% 高いパフォーマンスを発揮します。
特徴:
- 最大 3.7 GHz の第 4 世代 AMD EPYC プロセッサ (AMD EPYC 9R14)
- 最大 50 Gbps のネットワーク帯域幅
- Amazon Elastic Block Store への最大 40 Gbps の帯域幅
- 最大 192 vCPU と 1,536 GiB のメモリを搭載したインスタンスサイズ
- SAP 認定インスタンス
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- AMD のセキュアメモリー暗号化(SME)による常時メモリ暗号化のサポート
- AVX3-512、VNNI、bfloat16 などの新しいプロセッサー機能をサポートします。
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) r7a.medium
1
8
EBS のみ
最大 12.5
最大 10
r7a.large
2
16 EBS のみ
最大 12.5
最大 10
r7a.xlarge
4
32
EBS のみ
最大 12.5
最大 10
r7a.2xlarge
8
64
EBS のみ
最大 12.5
最大 10
r7a.4xlarge
16
128
EBS のみ
最大 12.5
最大 10
r7a.8xlarge
32
256
EBS のみ
12.5
10
r7a.12xlarge
48
384
EBS のみ
18.75
15
r7a.16xlarge
64
512
EBS のみ
25
20
r7a.24xlarge
96
768
EBS のみ
37.5
30
r7a.32xlarge
128
1,024
EBS のみ
50
40
r7a.48xlarge
192
1,536
EBS のみ
50
40
r7a.metal-48xl
192
1,536
EBS のみ
50
40
ユースケース
SQL および NoSQL データベース、分散型 Web スケールインメモリキャッシュ、インメモリデータベース、リアルタイムのビッグデータ分析、Electronic Design Automation (EDA) など、メモリ集中型のワークロード
-
R6g
-
Amazon EC2 R6g インスタンスは、Arm ベースの AWS Graviton2 プロセッサを使用します。メモリ集約型アプリケーションに対して、現在の世代の R5 インスタンスよりも最大 40% 高いコストパフォーマンスを提供します。
特徴:
- 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- 最大 25 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
- デフォルトで EBS 最適化済み
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- R6gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルのストレージを提供します
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps) r6g.medium 1 8 EBS のみ 最大 10 最大 4,750 r6g.large 2 16 EBS のみ 最大 10 最大 4,750 r6g.xlarge 4 32 EBS のみ 最大 10 最大 4,750 r6g.2xlarge 8 64 EBS のみ 最大 10 最大 4,750 r6g.4xlarge 16 128 EBS のみ 最大 10 4,750 r6g.8xlarge 32 256 EBS のみ 12 9,000 r6g.12xlarge 48 384 EBS のみ 20 13,500 r6g.16xlarge 64 512 EBS のみ 25 19,000 r6g.metal 64 512 EBS のみ 25 19,000 r6gd.medium 1 8 1 x 59 NVMe SSD 最大 10 最大 4,750 r6gd.large 2 16 1 x 118 NVMe SSD 最大 10 最大 4,750 r6gd.xlarge 4 32 1 x 237 NVMe SSD 最大 10 最大 4,750 r6gd.2xlarge 8 64 1 x 474 NVMe SSD 最大 10 最大 4,750 r6gd.4xlarge 16 128 1 x 950 NVMe SSD 最大 10 4,750 r6gd.8xlarge 32 256 1 x 1900 NVMe SSD 12 9,000 r6gd.12xlarge 48 384 2 x 1425 NVMe SSD 20 13,500 r6gd.16xlarge 64 512 2 x 1900 NVMe SSD 25 19,000 r6gd.metal 64 512 2 x 1900 NVMe SSD 25 19,000 すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
オープンソースデータベース、インメモリキャッシュ、リアルタイムビッグデータ分析などのメモリ集約型アプリケーション
-
R6i
-
Amazon R6i インスタンスは、第 3 世代のインテル Xeon スケーラブルプロセッサ (コードネーム: Ice Lake) を搭載しており、メモリ負荷の高いワークロードに最適です。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- R5 インスタンスと比較して、コンピューティング料金パフォーマンスが最大 15% 向上
- R5 インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 20% 向上
- 最大 50 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 40 Gbps の帯域幅
- 新しいインスタンスサイズ (32xlarge)、128 vCPU、1,024 GiB メモリ
- 32xlarge とメタルサイズの Elastic Fabric Adapter に対応
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extension (AVX 512) の新命令をサポート
- R6id インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、R6i インスタンスの寿命に連動するブロックレベルのストレージを提供
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) r6i.large 2 16 EBS のみ 最大 12.5 最大 10 r6i.xlarge 4 32 EBS のみ 最大 12.5 最大 10 r6i.2xlarge 8 64 EBS のみ 最大 12.5 最大 10 r6i.4xlarge 16 128 EBS のみ 最大 12.5 最大 10 r6i.8xlarge 32 256 EBS のみ 12.5 10 r6i.12xlarge 48 384 EBS のみ 18.75 15 r6i.16xlarge 64 512 EBS のみ 25 20 r6i.24xlarge 96 768 EBS のみ 37.5 30 r6i.32xlarge 128 1,024 EBS のみ 50 40 r6i.metal 128 1,024 EBS のみ 50 40 r6id.large 2 16 1x118 NVMe SSD 最大 12.5 最大 10 r6id.xlarge 4 32 1x237 NVMe SSD 最大 12.5 最大 10 r6id.2xlarge 8 64 1x474 NVMe SSD 最大 12.5 最大 10 r6id.4xlarge 16 128 1x950 NVMe SSD 最大 12.5 最大 10 r6id.8xlarge 32 256 1x1900 NVMe SSD 12.5 10 r6id.12xlarge 48 384 2x1425 NVMe SSD 18.75 15 r6id.16xlarge 64 512 2x1900 NVMe SSD 25 20 r6id.24xlarge 96 768 4x1425 NVMe SSD 37.5 30 r6id.32xlarge 128 1,024 4x1900 NVMe SSD 50 40 r6id.metal 128 1,024 4x1900 NVMe SSD 50 40 すべてのインスタンスの仕様は以下のとおりです
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサー
- EBS 最適化
- 拡張ネットワーキング
ユースケース
SAP、SQL および NoSQL データベース、Memcached や Redis などの分散ウェブスケールインメモリキャッシュ、SAP HANA などのインメモリデータベース、Hadoop や Spark クラスターなどのリアルタイムビッグデータ分析などのメモリ負荷の高いワークロード。
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
-
R6in
-
Amazon EC2 R6in および R6idn インスタンスは、SAP、SQL、NoSQL データベース、SAP HANA などのインメモリデータベースなど、高いネットワーク帯域幅を活用できるメモリ集約型ワークロードに最適です。R6in および R6idn インスタンスは、最大 200 Gbps のネットワーク帯域幅と最大 80 Gbps の Amazon Elastic Block Store (EBS) 帯域幅を提供します。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- R5n および R5dn インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 20% 向上
- R5n および R5dn インスタンスと比較して最大 2 倍となる最大 200 Gbps のネットワーク速度
- R5b インスタンスの最大 1.6 倍となる最大 100 Gbps の EBS 帯域幅
- 32xlarge および metal サイズの Elastic Fabric Adapter (EFA) をサポートします
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの処理を高速化するインテル Advanced Vector Extensions (AVX-512) の新命令をサポート
- R6idn インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、R6idn インスタンスの寿命に連動するブロックレベルのストレージを提供
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) r6in.large 2 16 EBS のみ 最大 25 最大 25 r6in.xlarge 4 32 EBS のみ 最大 30 最大 25 r6in.2xlarge 8 64 EBS のみ 最大 40 最大 25 r6in.4xlarge 16 128 EBS のみ 最大 50 最大 25 r6in.8xlarge 32 256 EBS のみ 50 25 r6in.12xlarge 48 384 EBS のみ 75 37.5 r6in.16xlarge 64 512 EBS のみ 100 50 r6in.24xlarge 96 768 EBS のみ 150 75 r6in.32xlarge 128 1,024 EBS のみ 200**** 100 r6in.metal 128 1,024 EBS のみ 200**** 100 r6idn.large 2 16 1x118 NVMe SSD 最大 25 最大 25 r6idn.xlarge 4 32 1x237 NVMe SSD 最大 30 最大 25 r6idn.2xlarge 8 64 1x474 NVMe SSD 最大 40 最大 25 r6idn.4xlarge 16 128 1x950 NVMe SSD 最大 50 最大 25 r6idn.8xlarge 32 256 1x1900 NVMe SSD 50 25 r6idn.12xlarge 48 384 2x1425 NVMe SSD 75 37.5 r6idn.16xlarge 64 512 2x1900 NVMe SSD 100 50 r6idn.24xlarge 96 768 4x1425 NVMe SSD 150 75 r6idn.32xlarge 128 1,024 4x1900 NVMe SSD 200**** 100 r6idn.metal 128 1,024 4x1900 NVMe SSD 200**** 100
****32xlarge および metal サイズの場合、200 Gbps のスループットを達成するために、それぞれ異なるネットワークカードにアタッチされた少なくとも 2 つの Elastic Network Interface がインスタンス上に必要です。ネットワークカードにアタッチされた各ネットワークインターフェイスは、最大 170 Gbps を達成できます。詳細については、ネットワークカードを参照してください。すべてのインスタンスの仕様は以下のとおりです
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサー
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
SAP、SQL、NoSQL データベース、SAP HANA などのインメモリデータベースなど、高いネットワークスループットを活用できるメモリ集約型ワークロード。
-
R6a
-
Amazon EC2 R6a インスタンスは、第 3 世代の AMD EPYC プロセッサを搭載し、メモリ集約型ワークロードに最適です。
特徴:
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
- R5a インスタンスと比較して、コンピューティング料金パフォーマンスが最大 35% 向上
- 最大 50 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 40 Gbps の帯域幅
- 最大 192 vCPU と 1,536 GiB のメモリを搭載したインスタンスサイズ
- SAP 認定インスタンス
- 48xlarge とメタルサイズの Elastic Fabric Adapter に対応
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- AMD Transparent Single Key Memory Encryption (TSME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの実行を高速化する AMD Advanced Vector Extensions (AVX-2) の新命令をサポート
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) r6a.large 2 16 EBS のみ 最大 12.5 最大 10 r6a.xlarge 4 32 EBS のみ 最大 12.5 最大 10 r6a.2xlarge 8 64 EBS のみ 最大 12.5 最大 10 r6a.4xlarge 16 128 EBS のみ 最大 12.5 最大 10 r6a.8xlarge 32 256 EBS のみ 12.5 10 r6a.12xlarge 48 384 EBS のみ 18.75 15 r6a.16xlarge 64 512 EBS のみ 25 20 r6a.24xlarge 96 768 EBS のみ 37.5 30 r6a.32xlarge 128 1,024 EBS のみ 50 40 r6a.48xlarge 192 1,536 EBS のみ 50 40 r6a.metal 192 1,536 EBS のみ 50 40 すべてのインスタンスの仕様は以下のとおりです
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
SAP、SQL、NoSQL データベースなどのメモリ集約型ワークロード、Memcached や Redis などの分散型 Web スケールインメモリキャッシュ、Hadoop や Spark クラスターなどのインメモリデータベースやリアルタイムビッグデータ分析、その他エンタープライズアプリケーションなど
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
-
R5
-
Amazon EC2 R5 インスタンスは、vCPU ごとに R4 よりも 5% 多いメモリを提供し、最も大きいサイズでは 768 GiB のメモリが提供されます。さらに、R5 インスタンスは R4 と比較して GiB あたりの価格が 10% 低く、CPU パフォーマンスも最大 20% 高くなっています。
特徴:
- 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した最大 3.1 GHz のインテル Xeon® Platinum 8000 プロセッサ (Skylake 8175M または Cascade Lake 8259CL)
- インスタンスあたりの最大メモリが 768 GiB
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- R5d インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、R5 インスタンスの寿命に連係するブロックレベルのストレージを提供
- 8xlarge と 16xlarge のサイズが新たに利用可能になりました。
インスタンス vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** EBS 帯域幅 (Mbps) r5.large 2 16 EBS のみ 最大 10 最大 4,750 r5.xlarge 4 32 EBS のみ 最大 10 最大 4,750 r5.2xlarge 8 64 EBS のみ 最大 10 最大 4,750 r5.4xlarge 16 128 EBS のみ 最大 10 4,750 r5.8xlarge 32 256 EBS のみ 10 6,800 r5.12xlarge 48 384 EBS のみ 10 9,500 r5.16xlarge 64 512 EBS のみ 20 13,600 r5.24xlarge 96 768 EBS のみ 25 19,000 r5.metal 96* 768 EBS のみ 25 19,000 r5d.large 2 16 1 x 75 NVMe SSD 最大 10 最大 4,750 r5d.xlarge 4 32 1 x 150 NVMe SSD 最大 10 最大 4,750 r5d.2xlarge 8 64 1 x 300 NVMe SSD 最大 10 最大 4,750 r5d.4xlarge 16 128 2 x 300 NVMe SSD 最大 10 4,750 r5d.8xlarge 32 256 2 x 600 NVMe SSD 10 6,800 r5d.12xlarge 48 384 2 x 900 NVMe SSD 10 9,500 r5d.16xlarge 64 512 4 x 600 NVMe SSD 20 13,600 r5d.24xlarge 96 768 4 x 900 NVMe SSD 25 19,000 r5d.metal 96* 768 4 x 900 NVMe SSD 25 19,000 * r5.metal と r5d.metal では 48 個の物理コアに 96 個の論理プロセッサが提供されます。これらにはインテルの物理ソケットを 2 個搭載した 1 台のサーバー上で稼働します。
すべてのインスタンスの仕様は以下のとおりです
- 最大 3.1 GHz のインテル Xeon Platinum プロセッサ
- インテル AVX†、インテル AVX2†、インテル AVX-512、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
R5 インスタンスは、高パフォーマンスデータベース、分散型ウェブスケールインメモリキャッシュ、中規模のインメモリデータベース、リアルタイムのビッグデータ分析、およびその他エンタープライズアプリケーションなどのメモリ集約型アプリケーションに最適です。
-
R5n
-
Amazon EC2 R5 インスタンスは、高パフォーマンスデータベース、ウェブスケールインの分散型インメモリキャッシュ、中規模インメモリデータベース、リアルタイムビッグデータ分析、その他のエンタープライズアプリケーションなど、メモリバウンドのワークロードに最適です。帯域幅がより広い、R5n と R5dn、インスタンスのバリアントは、高いネットワークスループットおよびパケット率パフォーマンスを活用できるアプリケーションに最適です。
特徴:
- 持続的な全コアターボ CPU 周波数最大 3.1 GHz、最大シングルコアのターボ周波数最大 3.5 GHz を備えた第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8259CL) の搭載
- 新しいインテル Vector Neural Network Instructions (AVX-512 VNNI) のサポートも提供されています。これは、畳み込みなどの典型的な機械学習の演算速度を向上させます。また、幅広い分野の深層学習ワークロードで推論パフォーマンスを自動的に向上させます。
- 小さめのインスタンスサイズにおけるピーク帯域幅 25 Gbps
- 最大インスタンスサイズにおけるネットワーク帯域幅 100 Gbps
- ENA および NVMe 用のドライバーを含む HVM AMI が必要
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- R5dn インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、R5 インスタンスの寿命に連係するブロックレベルのストレージを提供
インスタンスサイズ
vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** EBS 帯域幅 (Mbps) r5n.large 2 16 EBS のみ 最大 25 最大 4,750 r5n.xlarge 4 32 EBS のみ 最大 25 最大 4,750 r5n.2xlarge 8 64 EBS のみ 最大 25 最大 4,750 r5n.4xlarge 16 128 EBS のみ 最大 25 4,750 r5n.8xlarge 32 256 EBS のみ 25 6,800 r5n.12xlarge 48 384 EBS のみ 50 9,500 r5n.16xlarge 64 512 EBS のみ 75 13,600 r5n.24xlarge 96 768 EBS のみ 100 19,000 r5n.metal 96* 768 EBS のみ 100 19,000 r5dn.large 2 16 1 x 75 NVMe SSD 最大 25 最大 4,750 r5dn.xlarge 4 32 1 x 150 NVMe SSD 最大 25 最大 4,750 r5dn.2xlarge 8 64 1 x 300 NVMe SSD 最大 25 最大 4,750 r5dn.4xlarge 16 128 2 x 300 NVMe SSD 最大 25 4,750 r5dn.8xlarge 32 256 2 x 600 NVMe SSD 25 6,800 r5dn.12xlarge 48 384 2 x 900 NVMe SSD 50 9,500 r5dn.16xlarge 64 512 4 x 600 NVMe SSD 75 13,600 r5dn.24xlarge 96 768 4 x 900 NVMe SSD 100 19,000 r5dn.metal 96* 768 4 x 900 NVMe SSD 100 19,000 *r5n.metal および r5dn.metal は、48 個の物理コアに 96 個の論理プロセッサを提供します。
すべてのインスタンスの仕様は以下のとおりです
- 持続的な全コアターボ CPU 周波数最大 3.1 GHz、最大シングルコアのターボ周波数最大 3.5 GHz の第 2 世代カスタムインテル Xeon スケーラブルプロセッサ (Cascade Lake) の搭載
- インテル AVX†、インテル AVX2†、インテル AVX-512、インテルターボ、インテル DL Boost
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
高パフォーマンスデータベース、ウェブ規模の分散型インメモリキャッシュ、中規模インメモリデータベース、リアルタイムビッグデータ分析、その他のエンタープライズアプリケーション。
-
R5b
-
Amazon EC2 R5b インスタンスは、メモリ最適化 R5 インスタンスの EBS 最適化バリアントです。R5b インスタンスは、同じサイズの R5 インスタンスと比較して EBS パフォーマンスが 3 倍向上しています。R5b インスタンスは、最大 60 Gbps の帯域幅と 260K IOPS の EBS パフォーマンスを提供します。これは、EC2 で最速のブロックストレージパフォーマンスです。
特徴:
- 持続的な全コアターボ CPU 周波数最大 3.1 GHz、最大シングルコアのターボ周波数最大 3.5 GHz を備えた第 2 世代カスタムインテル Xeon スケーラブルプロセッサ (Cascade Lake 8259CL) の搭載
- 最大 96 個の vCPU、最大 768 GiB のメモリ
- 最大 25 Gbps のネットワーク帯域幅
- 最大 60 Gbps の EBS 帯域幅
インスタンスサイズ
vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** EBS 帯域幅 (Mbps) r5b.large
2
16
EBS のみ
最大 10
最大 10,000
r5b.xlarge
4
32
EBS のみ
最大 10
最大 10,000
r5b.2xlarge
8
64
EBS のみ
最大 10
最大 10,000
r5b.4xlarge
16
128
EBS のみ
最大 10
10,000
r5b.8xlarge
32
256
EBS のみ
10
20,000
r5b.12xlarge
48
384
EBS のみ
10
30,000
r5b.16xlarge
64
512
EBS のみ
20
40,000
r5b.24xlarge
96
768
EBS のみ
25
60,000
r5b.metal
96*
768
EBS のみ
25
60,000
ユースケース
高いパフォーマンスデータベース、ウェブ規模の分散型インメモリキャッシュ、中規模インメモリデータベース、リアルタイムビッグデータ分析。
-
R5a
-
Amazon EC2 R5a インスタンスは、メモリバウンドワークロードに最適な最新世代のメモリ最適化インスタンスで、AMD EPYC 7000 シリーズプロセッサを搭載しています。R5a インスタンスは、同等のインスタンスよりも GiB メモリあたり最大 10% 低いコストを実現します。
特徴:
- 全コアターボのクロック速度が 2.5 GHz の AMD EPYC 7000 シリーズプロセッサ (AMD EPYC 7571)
- 拡張ネットワーキングを使用した最大 20 Gbps のネットワーク帯域幅
- インスタンスあたりの最大メモリが 768 GiB
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
- R5ad インスタンスでは、NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、R5a インスタンスの寿命に連動するブロックレベルのストレージを提供
インスタンスサイズ
vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** EBS 帯域幅 (Mbps) r5a.large 2 16
EBS のみ 最大 10
最大 2,880 r5a.xlarge 4 32 EBS のみ 最大 10 最大 2,880 r5a.2xlarge 8 64 EBS のみ 最大 10 最大 2,880 r5a.4xlarge 16 128 EBS のみ 最大 10 2,880 r5a.8xlarge 32 256 EBS のみ 最大 10 4,750 r5a.12xlarge 48 384 EBS のみ 10 6,780 r5a.16xlarge 64 512 EBS のみ 12 9,500 r5a.24xlarge 96 768 EBS のみ 20 13,570 r5ad.large 2 16 1 x 75 NVMe SSD 最大 10
最大 2,880 r5ad.xlarge 4 32 1 x 150 NVMe SSD 最大 10
最大 2,880 r5ad.2xlarge 8 64 1 x 300 NVMe SSD 最大 10
最大 2,880 r5ad.4xlarge 16 128 2 x 300 NVMe SSD 最大 10
2,880 r5ad.8xlarge 32 256 2 x 600 NVMe SSD 最大 10 4,750 r5ad.12xlarge 48 384 2 x 900 NVMe SSD 10 6,780 r5ad.16xlarge 64 512 4 x 600 NVMe SSD 12 9,500 r5ad.24xlarge 96 768 4 x 900 NVMe SSD 20 13,570 すべてのインスタンスの仕様は以下のとおりです
- 2.5 GHz AMD EPYC 7000 シリーズプロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
R5a インスタンスは、高パフォーマンスデータベース、分散型ウェブスケールインメモリキャッシュ、中規模のインメモリデータベース、リアルタイムのビッグデータ分析、およびその他エンタープライズアプリケーションなどのメモリ集約型アプリケーションに最適です。
- 全コアターボのクロック速度が 2.5 GHz の AMD EPYC 7000 シリーズプロセッサ (AMD EPYC 7571)
-
R4
-
Amazon EC2 R4 インスタンスは、メモリ負荷の高いアプリケーション向けに最適化されており、RAM の GiB あたりの価格が R3 よりも安価です。
特徴:
- 高クロックのインテル Xeon スケーラブル (Broadwell E5-2686 v4) プロセッサ
- DDR4 メモリ
- 拡張ネットワークのサポート
インスタンス vCPU メモリ (GiB) ストレージ ネットワーキングパフォーマンス (Gbps)*** r4.large 2 15.25 EBS のみ 最大 10 r4.xlarge 4 30.5 EBS のみ 最大 10 r4.2xlarge 8 61 EBS のみ 最大 10 r4.4xlarge 16 122 EBS のみ 最大 10 r4.8xlarge 32 244 EBS のみ 10 r4.16xlarge 64 488 EBS のみ 25 すべてのインスタンスの仕様は以下のとおりです
- 最大 2.3 GHz のインテル Xeon スケーラブルプロセッサ
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
ハイパフォーマンスデータベース、データのマイニングと分析、インメモリデータベース、ウェブ規模の分散型インメモリキャッシュ、構造化されていないビッグデータのリアルタイム処理を実行するアプリケーション、Hadoop/Spark クラスター、他のエンタープライズアプリケーション。
-
U7i
-
Amazon EC2 High Memory U7i インスタンスは大規模なインメモリデータベースを実行するよう目的に応じて構築されており、これにはクラウドでの SAP HANA の本番デプロイが含まれます。
特徴:
- 896 個の vCPU を提供
- DDR5 メモリを搭載
- 最大 32 TiB のインスタンスメモリ
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- 仮想化されたインスタンスは、オンデマンドおよび 1 年および 3 年の Savings Plan 購入オプションで利用できます
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) u7i-12tb.224xlarge
896
12,288
EBS のみ
100
60
u7in-16tb.224xlarge
896
16,384
EBS のみ
200
100
u7in-24tb.224xlarge
896
24,576
EBS のみ
200
100
u7in-32tb.224xlarge
896
32,768
EBS のみ
200
100
U7i インスタンスは、カスタムの第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids) を搭載しており、最大 32 TiB の最新の DDR5 メモリと最大 896 個の vCPU を提供します。
すべてのインスタンスの仕様は次のとおりです
ユースケース
クラウド内の SAP HANA 製品のインメモリデータベースの本番インストレーションを含む、大規模なエンタープライズデータベースを実行するのに理想的です。Business Suite on HANA、次世代 Business Suite S/4HANA、Data Mart Solutions on HANA、Business Warehouse on HANA、SAP BW/4HANA を本番環境で実行できることが SAP で認定されています。
-
High Memory (U-1)
-
Amazon EC2 High Memory (U-1) インスタンスは大規模なインメモリデータベースを実行するよう目的に応じて構築されており、これにはクラウドでの SAP HANA の本番デプロイが含まれます。
特徴:
- ベアメタルメモリと仮想化メモリの両方で利用可能になりました
- 3〜24 TiB のインスタンスメモリ
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- 仮想化されたインスタンスは、オンデマンドおよび 1 年および 3 年の Savings Plan 購入オプションで利用できます
名前 論理プロセッサ* メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) u-3tb1.56xlarge 224 3,072 EBS のみ 50 19 u-6tb1.56xlarge 224 6,144 EBS のみ 100 38 u-6tb1.112xlarge 448 6,144 EBS のみ 100 38 u-6tb1.metal** 448 6,144 EBS のみ 100 38 u-9tb1.112xlarge 448 9,216 EBS のみ 100 38 u-9tb1.metal** 448 9,216 EBS のみ 100 38 u-12tb1.112xlarge 448 12,288 EBS のみ 100 38 u-12tb1.metal** 448 12,288 EBS のみ 100 38 u-18tb1.112xlarge 448 18,432 EBS のみ 100 38 u-18tb1.metal 448 18,432 EBS のみ 100 38 u-24tb1.112xlarge 448 24,576 EBS のみ 100 38 u-24tb1.metal 448 24,576 EBS のみ 100 38 ** 2020 年 3 月 12 日より前に作成されたインスタンスの中には、パフォーマンスが低いものがある可能性があります。より高いパフォーマンスを得るために、アカウントチームに連絡してインスタンスをアップグレードしてください (追加料金は発生しません)。
* 各論理プロセッサは、224 個のコア上のハイパースレッドです
- 6TB、9TB、12TB インスタンスには、2.1GHz (3.80 GHz までの Turbo Boost) のインテル Xeon スケーラブルプロセッサ (Skylake 8176M)、または第 2 世代 2.7GHz (4.0GHz までの Turbo Boost) インテル Xeon スケーラブルプロセッサ (Cascade Lake 8280L) を搭載
- 18 TB と 24 TB のインスタンスは、第 2 世代 2.7 GHz (4.0 GHz までの Turbo Boost) のインテル Xeon スケーラブルプロセッサ (Cascade Lake 8280L) を装備
すべてのインスタンスの仕様は以下のとおりです
ユースケース
クラウド内の SAP HANA 製品のインメモリデータベースの本番インストレーションを含む、大規模なエンタープライズデータベースを実行するのに理想的です。Business Suite on HANA、次世代 Business Suite S/4HANA、Data Mart Solutions on HANA、Business Warehouse on HANA、SAP BW/4HANA を本番環境で実行できることが SAP で認定されています。
-
X8g
-
Amazon EC2 X8g インスタンスには、AWS Graviton4 プロセッサが搭載されています。これらは、Amazon EC2 X シリーズのインスタンスの中で最高の料金パフォーマンスを提供します。
特徴:
- カスタムビルドの AWS Graviton4 プロセッサを搭載
- X2gd インスタンスと比べて最大 3 倍の vCPU とメモリを備えた大容量のインスタンスを提供
- 最新の DDR5-5600 メモリを搭載
- デフォルトで Amazon EBS 向けに最適化
- x8g.24xlarge、x8g.48xlarge、x8g.metal-24xl、x8g.metal-48xl で Elastic Fabric Adapter (EFA) をサポート
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System を利用
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) x8g.medium
1
16
EBS のみ
最大 12.5
最大 10
x8g.large
2
32
EBS のみ
最大 12.5
最大 10
x8g.xlarge
4
64
EBS のみ
最大 12.5
最大 10
x8g.2xlarge
8
128
EBS のみ
最大 15
最大 10
x8g.4xlarge
16
256
EBS のみ
最大 15
最大 10
x8g.8xlarge
32
512
EBS のみ
15
10
x8g.12xlarge
48
768
EBS のみ
22.5
15
x8g.16xlarge
64
1,024
EBS のみ
30
20
x8g.24xlarge
96
1,536
EBS のみ
40
30
x8g.48xlarge
192
3,072
EBS のみ
50
40
x8g.metal-24xl
96
1,536
EBS のみ
40
30
x8g.metal-48xl
192
3,072
EBS のみ
50
40
すべてのインスタンスの仕様は次のとおりです
ユースケース
インメモリデータベース (Redis、Memcached)、リレーショナルデータベース (MySQL、PostgreSQL)、Electronic Design Automation (EDA) ワークロード、リアルタイムビッグデータ分析、リアルタイムキャッシュサーバー、メモリを大量に使用するコンテナ化されたアプリケーションなど、メモリを大量に使用するワークロード。
-
X2gd
-
Amazon EC2 X2gd インスタンスは、Arm ベースの AWS Graviton2 プロセッサを搭載しており、Amazon EC2 メモリの GiB あたりのコストを最小限に抑えます。これらは、現世代の X1 インスタンスと比較してコストパフォーマンスが最大 55% 優れています。
特徴:
- 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- 最大 25 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
- ローカル NVMe ベースの SSD ストレージは、メモリ内データへの高速で低レイテンシーのアクセスを提供します
- デフォルトで EBS 最適化済み
インスタンスサイズ
vCPU
メモリ (GiB)
インスタンスストレージ (GB)
ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Gbps)
x2gd.medium
1
16
1x59 NVMe SSD
最大 10
最大 4.75
x2gd.large
2
32
1x118 NVMe SSD
最大 10
最大 4.75
x2gd.xlarge
4
64
1x237 NVMe SSD
最大 10
最大 4.75
x2gd.2xlarge
8
128
1x475 NVMe SSD
最大 10
最大 4.75
x2gd.4xlarge
16
256
1x950 NVMe SSD
最大 10
4.75
x2gd.8xlarge
32
512
1x1900 NVMe SSD
12
9.5
x2gd.12xlarge
48
768
2x1425 NVMe SSD
20
14.25
x2gd.16xlarge
64
1,024
2x1900 NVMe SSD
25
19
x2gd.metal
64
1,024
2x1900 NVMe SSD
25
19
すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
オープンソースデータベース (MySQL、MariaDB、PostgreSQL)、インメモリキャッシュ (Redis、KeyDB、Memcached)、Electronic Design Automation (EDA) ワークロード、リアルタイム分析、リアルタイムキャッシングサーバーなどのメモリを大量に使用するワークロード。
-
X2idn
-
Amazon EC2 X2idn インスタンスは、最大 3.5 GHz のオールコアターボ周波数を持つ第 3 世代のインテル Xeon スケーラブルプロセッサを搭載し、メモリ集約型の幅広いアプリケーションに適しています。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- 全サイズでメモリと vCPU の比率が 16:1
- X1 インスタンスと比較して、料金パフォーマンスが最大 50% 向上
- 最大 100 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 80 Gbps の帯域幅
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extensions (AVX 512) の新命令をサポート
インスタンスサイズ
vCPU
メモリ (GiB)
インスタンスストレージ (GB)
ネットワーク帯域幅 (Gbps)
EBS 帯域幅 (Gbps)
x2idn.16xlarge
64
1,024
1 x 1900 NVMe SSD
50
40
x2idn.24xlarge
96 1,536 2 x 1425 NVMe SSD
75
60
x2idn.32xlarge
128 2,048
2 x 1900 NVMe SSD
100
80
x2idn.metal
128 2,048
2 x 1900 NVMe SSD
100
80
すべてのインスタンスの仕様は以下のとおりです
ユースケース
インメモリデータベース (SAP HANA、Redis など)、従来のデータベース (Oracle DB、Microsoft SQL Server など)、インメモリ分析 (SAS、Aerospike など)。
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
-
X2iedn
-
Amazon EC2 X2iedn インスタンスは、最大 3.5 GHz のオールコアターボ周波数を持つ第 3 世代のインテル Xeon スケーラブルプロセッサ (コードネーム Ice Lake) を搭載し、大規模メモリ集約型の幅広いアプリケーションに適しています。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- 全サイズでメモリと vCPU の比率が 32:1
- X1 インスタンスと比較して、料金パフォーマンスが最大 50% 向上
- 最大 100 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 80 Gbps の帯域幅
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extensions (AVX 512) の新命令をサポート
インスタンスサイズ
vCPU
メモリ (GiB)
インスタンスストレージ (GB)
ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Gbps)
x2iedn.xlarge
4
128
1 x 118 NVMe SSD
最大 25
最大 20
x2iedn.2xlarge
8 256
1 x 237 NVMe SSD
最大 25
最大 20
x2iedn.4xlarge
16 512
1 x 475 NVMe SSD
最大 25
最大 20
x2iedn.8xlarge
32 1,024
1 x 950 NVMe SSD
25
20
x2iedn.16xlarge
64 2,048
1 x 1900 NVMe SSD
50
40
x2iedn.24xlarge
96 3,072
2 x 1425 NVMe SSD
75
60
x2iedn.32xlarge
128 4,096
2 x 1900 NVMe SSD
100
80
x2iedn.metal
128 4,096
2 x 1900 NVMe SSD
100
80
すべてのインスタンスの仕様は以下のとおりです
ユースケース
大規模インメモリデータベース (SAP HANA、Redis など)、従来のデータベース (Oracle DB、Microsoft SQL Server など)、インメモリ分析 (SAS、Aerospike など)。
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
-
X2iezn
-
Amazon EC2 X2iezn インスタンスは、クラウドで最速のインテル Xeon スケーラブルプロセッサ (コードネーム Cascade Lake) を搭載し、オールコアターボ周波数は最大 4.5 GHz で、メモリ集約型の Electronic Design Automation (EDA) ワークロードに適した選択肢です。
特徴:
- 最大 4.5 GHz の第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8252C)
- 全サイズでメモリと vCPU の比率が 32:1
- X1e インスタンスと比較して、料金パフォーマンスが最大 55% 向上
- 最大 100 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 19 Gbps の帯域幅
- 12xlarge とメタルサイズの Elastic Fabric Adapter に対応
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) x2iezn.2xlarge 8 256 EBS のみ 最大 25 3.17 x2iezn.4xlarge 16 512 EBS のみ 最大 25 4.75 x2iezn.6xlarge 24 768 EBS のみ 50 9.5 x2iezn.8xlarge 32 1,024 EBS のみ 75 12 x2iezn.12xlarge 48 1,536 EBS のみ 100 19 x2iezn.metal 48 1,536 EBS のみ 100 19 すべてのインスタンスの仕様は以下のとおりです
ユースケース
物理検証、静的タイミング分析、電力サインオフ、フルチップゲートレベルシミュレーションなどの Electronic Design Automation (EDA) ワークロード。
-
X1
-
Amazon EC2 X1 インスタンスは、エンタープライズクラスのデータベースやインメモリアプリケーションに最適化されています。
特徴:
- 高クロックのインテル Xeon E7-8880 v3 (Haswell) プロセッサ
- RAM 1 GiB あたりの料金が最も安価なインスタンスの 1 つ
- 最大 1,952 GiB の DRAM ベースのインスタンスメモリ
- ブロックレベルの一時ストレージで、追加料金不要で使用できるデフォルトで EBS 最適化された SSD インスタンスストレージ
- プロセッサの C ステートおよび P ステート設定を制御する機能
インスタンス vCPU メモリ (GiB) SSD ストレージ (GB) 専用 EBS 帯域幅 (Mbps) ネットワークパフォーマンス (Gbps) x1.16xlarge 64 976 1 x 1,920 7,000 10 x1.32xlarge 128 1,952 2 x 1,920 14,000 25 すべてのインスタンスの仕様は以下のとおりです
- 2.3 GHz インテル Xeon スケーラブルプロセッサ (Haswell E7-8880 v3)
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
インメモリデータベース (SAP HANA など)、ビッグデータ処理エンジン (Apache Spark や Presto など)、ハイパフォーマンスコンピューティング (HPC)。SAP から、Business Warehouse on HANA (BW)、Data Mart Solutions on HANA、Business Suite on HANA (SoH)、Business Suite S/4HANA を実行するための認定を受けています。
-
X1e
-
Amazon EC2 X1e インスタンスは、大規模データベース、インメモリデータベース、およびその他メモリ集約型のエンタープライズアプリケーション用に最適化されています。
特徴:
- 高クロックのインテル Xeon E7-8880 v3 (Haswell) プロセッサ
- RAM 1 GiB あたりの料金が最も安価なインスタンスの 1 つ
- 最大 3,904 GiB の DRAM ベースのインスタンスメモリ
- ブロックレベルの一時ストレージで、追加料金不要で使用できるデフォルトで EBS 最適化された SSD インスタンスストレージ
- x1e.32xlarge、x1e.16xlarge、x1e.8xlarge のインスタンスで、プロセッサの C ステートおよび P ステート設定を制御する機能
インスタンス vCPU メモリ (GiB) SSD ストレージ (GB) 専用 EBS 帯域幅 (Mbps) ネットワーキングパフォーマンス (Gbps)*** x1e.xlarge 4 122 1 x 120 500 最大 10 x1e.2xlarge 8 244 1 x 240 1,000 最大 10 x1e.4xlarge 16 488 1 x 480 1,750 最大 10 x1e.8xlarge 32 976 1 x 960 3,500 最大 10 x1e.16xlarge 64 1,952 1 x 1,920 7,000 10 x1e.32xlarge 128 3,904 2 x 1,920 14,000 25 すべてのインスタンスの仕様は以下のとおりです
- 2.3 GHz インテル Xeon スケーラブルプロセッサ (Haswell E7-8880 v3)
- インテル AVX†、インテル AVX2†
- EBS 最適化
- 拡張ネットワーキング†
上記に加えて、x1e.16xlarge と x1e.32xlarge には以下があります。
ユースケース
ハイパフォーマンスデータベース、インメモリデータベース (SAP HANA など)、メモリ負荷の高いアプリケーション。x1e.32xlarge インスタンスは SAP によって認定されており、AWS クラウドで次世代 Business Suite S/4HANA、Business Suite on HANA (SoH)、Business Warehouse on HANA (BW)、および Data Mart Solutions on HANA を実行しています。
-
z1d
-
Amazon EC2 z1d インスタンスは、優れたコンピューティング性能と大きなメモリフットプリントの両方を提供します。z1d インスタンスは、どのクラウドインスタンスよりも周波数が高い最大 4.0 GHz の持続的な全コア周波数で動作します。
特徴:
- 全コアのクロックを最大 4.0 GHz に維持できるカスタムのインテル® Xeon® スケーラブルプロセッサ (Skylake 8151) は、新しい Advanced Vector Extension (AVX-512) の命令セットを搭載
- 最大 1.8 TB のインスタンスストレージ
- 384 GiB の RAM を備えたハイメモリインスタンス
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- z1d インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、z1d インスタンスの寿命に連係するブロックレベルのストレージを提供
インスタンス vCPU メモリ (GiB) ネットワーキングパフォーマンス (Gbps)*** SSD ストレージ (GB) z1d.large 2 16 最大 10 1 x 75 NVMe SSD z1d.xlarge 4 32 最大 10 1 x 150 NVMe SSD z1d.2xlarge 8 64 最大 10 1 x 300 NVMe SSD z1d.3xlarge 12 96 最大 10 1 x 450 NVMe SSD z1d.6xlarge 24 192 10 1 x 900 NVMe SSD z1d.12xlarge 48 384 25 2 x 900 NVMe SSD z1d.metal 48* 384 25 2 x 900 NVMe SSD * z1d.metal は、24 個の物理コアに 48 個の論理プロセッサを提供します
すべてのインスタンスの仕様は以下のとおりです
- 最大 4.0 GHz のインテル® Xeon® スケーラブルプロセッサ
- インテル AVX、インテル AVX2、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
コアごとのライセンスコストが高額な Electronic Design Automation (EDA) および特定のリレーショナルデータベースワークロードに最適です。
Graviton ベースの Amazon EC2 インスタンスの各 vCPU は、AWS Graviton プロセッサのコアです。
Graviton ベースではない Amazon EC2 インスタンスの各 vCPU は、R7a インスタンスを除く、x86 ベースのプロセッサのスレッドです。
† AVX、AVX2、および拡張ネットワーキングは、HVM AMI で起動されたインスタンスのみでご利用いただけます。
*** ネットワーク帯域幅が「最大」と表示されているインスタンスは、ベースライン帯域幅を持ち、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えるバーストをベストエフォートの原則で行うことができます。詳細については、「インスタンスネットワーク帯域幅」を参照してください。
高速コンピューティング
高速コンピューティングインスタンスでは、ハードウェアアクセラレーター (コプロセッサ) を使用して、浮動小数点計算、グラフィックス処理、データパターン照合などの機能を、CPU で実行中のソフトウェアよりも効率的に実行します。
-
P5
-
P4
-
P3
-
P2
-
G6e
-
G6
-
G5g
-
G5
-
G4dn
-
G4ad
-
G3
-
Trn1
-
Inf2
-
Inf1
-
DL1
-
DL2q
-
F1
-
VT1
-
P5
-
Amazon EC2 P5 インスタンスは最新世代の GPU ベースのインスタンスであり、深層学習とハイパフォーマンスコンピューティング (HPC) において Amazon EC2 の中で最高のパフォーマンスを発揮します。
特徴:
- 第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
- 最大 8 個の NVIDIA H100 (P5 の場合) または H200 (P5e の場合) Tensor Core GPU
- 最大 3,200 Gbps のネットワーク帯域幅と、Elastic Fabric Adapter (EFA) および NVIDIA GPUDirect RDMA (リモートダイレクトメモリアクセス) のサポート
- NVIDIA NVSwitch による 900GB/秒のピアツーピア GPU 通信
インスタンス GPU vCPU インスタンス
メモリ (TiB)GPU
メモリネットワーク帯域幅 GPUDirect RDMA GPU ピアツーピア インスタンスストレージ (TB) EBS 帯域幅 (Gbps) p5.48xlarge
8 H100
192
2
640 GB HBM3
3200 Gbps EFA
はい
900 GB/秒 NVSwitch
8 x 3.84 NVMe SSD
80
p5e.48xlarge 8 H200 192 2 1128 GB HBM3 3200 Gbps EFA はい 900 GB/s NVSwitch 8x 3.84 NVMe SSD 80 P5 インスタンスには以下の仕様があります。
ユースケース
質問応答、コード生成、ビデオと画像の生成、音声認識などを含む生成系 AI アプリケーション。
医薬品の発見、地震解析、天気予報、財務モデリングにおけるスケールイン HPC アプリケーション
- 第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
-
P4
-
Amazon EC2 P4 インスタンスは、クラウドでの機械学習トレーニングとハイパフォーマンスコンピューティングに高いパフォーマンスを提供します。
- 3.0 GHz の第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8275CL)
- 最大 8 つの NVIDIA A100 Tensor Core GPU
- Elastic Fabric Adapter (EFA) および NVIDIA GPUDirect RDMA (リモートダイレクトメモリアクセス) をサポートし、400 Gbps を誇るインスタンスネットワーキング
- NVIDIA NVSwitch により 600 GB/秒のピアツーピア GPU 通信を実現
- 4,000 を超える NVIDIA A100 Tensor Core GPU を搭載し、ペタビット規模のネットワーキング、Amazon FSx for Lustre による拡張可能な低レイテンシストレージで構成される EC2 UltraClusters にデプロイ
インスタンス GPU vCPU インスタンス
メモリ (GiB)GPU
メモリネットワーク帯域幅 GPUDirect RDMA GPU ピアツーピア インスタンスストレージ (GB) EBS 帯域幅 (Gbps) p4d.24xlarge 8 96 1152 320 GB HBM2 400 ENA および EFA はい 600GB/秒 NVSwitch 8 × 1000 NVMe SSD 19 p4de.24xlarge
(プレビュー)8 96 1152 640 GB HBM2e 400 ENA および EFA はい 600GB/秒 NVSwitch 8 × 1000 NVMe SSD 19 P4d インスタンスは、以下のような仕様です。
- 3.0 GHz の第 2 世代インテル Xeon スケーラブルプロセッサ
- インテル AVX、インテル AVX2、インテル AVX-512、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
- Elastic Fabric Adapter (EFA)
ユースケース
機械学習、ハイパフォーマンスコンピューティング (HPC)、計算流体力学、金融工学、耐震解析、音声認識、自律走行車、創薬。
-
P3
-
Amazon EC2 P3 インスタンスは、クラウド内でハイパフォーマンスコンピューティングを提供します。最大 8 個の NVIDIA® V100 Tensor Core GPU を搭載し、機械学習と HPC アプリケーション向けに最大 100 Gbps のネットワークスループットを実現します。
特徴:
- 5,120 の CUDA コアと 640 の Tensor コアがペアとなった NVIDIA Tesla V100 GPU を最大 8 つ提供
- 高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4) (p3.2xlarge、p3.8xlarge、p3.16xlarge 向け)。
- 高クロックの 2.5 GHz (ベース) インテル Xeon スケーラブルプロセッサ (Skylake 8175) (p3dn.24xlarge 向け)。
- ピアツーピアの GPU 通信を行う NVLink をサポート
- 最大 100 Gbps の集約ネットワーク帯域幅を提供します。
- p3dn.24xlarge インスタンスでの EFA サポート
インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) GPU P2P ストレージ (GB) 専用 EBS 帯域幅 (Gbps) ネットワーキングパフォーマンス (Gbps)*** p3.2xlarge 1 8 61 16 - EBS のみ 1.5 最大 10 p3.8xlarge 4 32 244 64 NVLink EBS のみ 7 10 p3.16xlarge 8 64 488 128 NVLink EBS のみ 14 25 p3dn.24xlarge 8 96 768 256 NVLink 2 x 900 NVMe SSD 19 100 すべてのインスタンスの仕様は以下のとおりです
p3.2xlarge、p3.8xlarge、p3.16xlarge には、2.3 GHz (ベース) および 2.7 GHz (ターボ) インテル Xeon E5-2686 v4 プロセッサが搭載されています。p3dn.24xlarge には、2.5 GHz (ベース)および 3.1 GHz (持続型全コアターボ) のインテル Xeon 8175M プロセッサが搭載されており、インテル AVX-512 をサポートしています。p3dn.24xlarge インスタンスは Elastic Fabric Adapter (EFA) もサポートしており、NVIDIA Collective Communications Library (NCCL) を使った Message Passing Interface (MPI) や機械学習 (ML) アプリケーションを使用して、 ハイパフォーマンスコンピューティング (HPC) アプリケーションが多数の GPU にスケールするようにします。ユースケース
機械学習/深層学習、ハイパフォーマンスコンピューティング (HPC)、計算流体力学、金融工学、耐震解析、音声認識、自律走行車、創薬。
-
P2
-
P2 インスタンスは汎用 GPU コンピューティングアプリケーション用に設計されています。
特徴:
- 高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4)
- それぞれに 2,496 個の並列処理コアと 12 GiB の GPU メモリが搭載された、高性能の NVIDIA K80 GPU
- ピアツーピアの GPU 通信のための GPUDirect™ をサポート
- プレイスメントグループ内において、最大 25 Gbps の集約ネットワーク帯域幅で Elastic Network Adapter (ENA) を使用する拡張ネットワーキングを提供
- デフォルトで EBS 最適化、追加料金なし
インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) ネットワークパフォーマンス (Gbps) p2.xlarge 1 4 61 12 高 p2.8xlarge 8 32 488 96 10 p2.16xlarge 16 64 732 192 25 すべてのインスタンスの仕様は以下のとおりです
- 2.3 GHz (ベース) および 2.7 GHz (ターボ) のインテル Xeon E5-2686 v4 プロセッサ
- インテル AVX、インテル AVX2、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
機械学習、ハイパフォーマンスデータベース、数値流体力学、金融工学、耐震解析、分子モデリング、ゲノミクス、レンダリング、および他のサーバー側の GPU コンピューティングワークロード。
-
G6e
-
Amazon EC2 G6e インスタンスは、深層学習推論と空間コンピューティングのワークロードを加速するように設計されています。
特徴:
- 第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
- 最大 8 個の NVIDIA L40S Tensor Core GPU
- 最大 400 Gbps のネットワーク帯域幅
- 最大 7.6 TBのローカル NVMe ローカルストレージ
インスタンス名 vCPU メモリ (GiB) NVIDIA L40S Tensor Core GPU GPU メモリ (GiB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) g6e.xlarge 4 32 1 48 最大 20 最大 5 g6e.2xlarge 8 64 1 48 最大 20 最大 5 g6e.4xlarge 16 128 1 48 20 8 g6e.8xlarge 32 256 1 48 25 16 g6e.16xlarge 64 512 1 48 35 20 g6e.12xlarge 48 384 4 192 100 20 g6e.24xlarge 96 768 4 192 200 30 g6e.48xlarge 192 1,536 8 384 400 60 ユースケース
大規模言語モデルおよび画像、音声、動画生成用の拡散モデルの推論ワークロード、中程度に複雑な生成 AI モデルの単一ノードトレーニング、3D シミュレーション、デジタルツイン、産業デジタル化。
-
G6
-
Amazon EC2 G6 インスタンスは、グラフィックを大量に使用するアプリケーションや機械学習推論を加速するために設計されています。
特徴:
- 第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
- 最大 8 個の NVIDIA L4 Tensor Core GPU
- 最大 100 Gbps のネットワーク帯域幅
- 最大 7.52 TB のローカル NVMe ローカルストレージ
インスタンス名 vCPU メモリ (GiB) NVIDIA L4 Tensor Core GPU GPU メモリ (GiB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) g6.xlarge 4 16 1 24 最大 10 最大 5 g6.2xlarge 8 32 1 24 最大 10 最大 5 g6.4xlarge 16 64 1 24 最大 25 8 g6.8xlarge 32 128 1 24 25 16 g6.16xlarge 64 256 1 24 25 20 g6.12xlarge 48 192 4 96 40 20 g6.24xlarge 96 384 4 96 50 30 g6.48xlarge 192 768 8 192 100 60 vCPU:RAM の比率が 1:8 の Gr6 インスタンス gr6.4xlarge 16 128 1 24 最大 25 8 gr6.8xlarge 32 256 1 24 25 16 ユースケース
自然言語処理、言語翻訳、動画および画像の分析、音声認識、パーソナライゼーション、グラフィックワークロード (リアルタイムの映画品質のグラフィックやゲームストリーミングの作成およびレンダリングなど) 用の ML モデルをデプロイします。
-
G5g
-
Amazon EC2 G5g インスタンスは、AWS Graviton2 プロセッサを搭載し、NVIDIA T4G Tensor Core GPU を装備しており、Android ゲームストリーミングなどのグラフィックスワークロード向けに Amazon EC2 で最高の料金パフォーマンスを提供します。主要クラウドで初めて GPU アクセラレーション機能を搭載した Arm ベースのインスタンスです。また、お客様は G5g インスタンスを利用することで、コスト効率性が高い機械学習推論を行うことができます。
特徴:
- 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- 最大 2 つの NVIDIA T4G Tensor Core GPU
- 最大 25 Gbps のネットワーク帯域幅
- デフォルトで EBS 最適化済み
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンス名 vCPU メモリ (GiB) NVIDIA T4G Tensor Core GPU GPU メモリ (GiB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) g5g.xlarge 4 8 1 16 最大 10 最大 3.5 g5g.2xlarge 8 16 1 16 最大 10 最大 3.5 g5g.4xlarge 16 32 1 16 最大 10 最大 3.5 g5g.8xlarge 32 64 1 16 12 9 g5g.16xlarge 64 128 2 32 25 19 g5g.metal 64 128 2 32 25 19 ユースケース
Android ゲームストリーミング、機械学習推論、グラフィックスレンダリング、自律走行車シミュレーション
- 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
-
G5
-
Amazon EC2 G5 インスタンスは、グラフィックを大量に使用するアプリケーションや機械学習推論を高速化するために設計されています。また、簡単な機械学習モデルから中程度に複雑な機械学習モデルのトレーニングにも使用できます。
特徴:
- 第 2 世代 AMD EPYC プロセッサ (AMD EPYC 7R32)
- 最大 8 つの NVIDIA A10G Tensor Core GPU
- 最大 100 Gbps のネットワーク帯域幅
- ローカル NVMe ローカルストレージ最大 7.6 TB
インスタンスサイズ GPU GPU メモリ (GiB) vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) g5.xlarge 1 24 4 16 1 × 250 NVMe SSD 最大 10 最大 3.5 g5.2xlarge 1 24 8 32 1 × 450 NVMe SSD 最大 10 最大 3.5 g5.4xlarge 1 24 16 64 1 × 600 NVMe SSD 最大 25 8 g5.8xlarge 1 24 32 128 1 × 900 NVMe SSD 25 16 g5.16xlarge 1 24 64 256 1 × 1900 NVMe SSD 25 16 g5.12xlarge 4 96 48 192 1 × 3800 NVMe SSD 40 16 g5.24xlarge 4 96 96 384 1 × 3800 NVMe SSD 50 19 g5.48xlarge 8 192 192 768 2x 3800 NVME SSD 100 19 G5 インスタンスには以下の仕様があります。
- 第 2 世代 AMD EPYC プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
リモートワークステーション、ビデオレンダリング、クラウドゲーミングなどのグラフィックス集約型アプリケーションで、高忠実度のグラフィックスをリアルタイムに作成することができます。自然言語処理、コンピュータビジョン、レコメンダーエンジンのユースケースなど、機械学習ユースケースのための深層学習モデルのトレーニングと推論。
-
G4dn
-
Amazon EC2 G4dn インスタンスは、機械学習推論やグラフィックを大量に使用するワークロードを高速化するために設計されています。
特徴:
- 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL)
- 最大 8 つの NVIDIA T4 Tensor Core GPU
- ネットワークスループット最大 100 GBPS
- ローカル NVMe ストレージ最大 1.8 TB
インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) インスタンスストレージ (GB) ネットワークパフォーマンス (Gbps)*** EBS 帯域幅 (Gbps) g4dn.xlarge 1 4 16 16 1 × 125 NVMe SSD 最大 25 最大 3.5 g4dn.2xlarge 1 8
32 16 1 × 225 NVMe SSD 最大 25 最大 3.5 g4dn.4xlarge 1 16 64 16 1 × 225 NVMe SSD 最大 25 4.75 g4dn.8xlarge 1 32 128 16 1 × 900 NVMe SSD 50 9.5 g4dn.16xlarge 1 64 256 16 1 × 900 NVMe SSD 50 9.5 g4dn.12xlarge 4 48 192 64 1 × 900 NVMe SSD 50 9.5 g4dn.metal 8 96 384 128 2 × 900 NVMe SSD 100 19
すべてのインスタンスの仕様は以下のとおりです- 2.5 GHz Cascade Lake 24C プロセッサ
- インテル AVX、インテル AVX2、インテル AVX-512、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
画像へのメタデータ追加、オブジェクト検出、レコメンドシステム、自動音声認識、言語翻訳といったアプリケーションの機械学習推論。また、G4 インスタンスを使用すると、リモートグラフィックワークステーション、動画トランスコーディング、フォトリアリスティックの作成、クラウド上のゲームストリーミングなど、グラフィックを大量に使用するアプリケーションの構築および運用を行うための非常にコスト効率が良いプラットフォームを実現できます。
- 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL)
-
G4ad
-
Amazon EC2 G4ad インスタンスは、クラウド内でグラフィックスを多用するアプリケーションに最高のコストパフォーマンスを提供します。
特徴:
- 第 2 世代 AMD EPYC プロセッサ (AMD EPYC 7R32)
- AMD Radeon Pro V520 GPU
- 最大 2.4 TB のローカル NVMe ストレージ
インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) g4ad.xlarge 1 4 16 8 1 x 150 NVMe SSD 最大 10 最大 3 g4ad.2xlarge 1 8 32 8 1 × 300 NVMe SSD 最大 10 最大 3 g4ad.4xlarge 1 16 64 8 1 × 600 NVMe SSD 最大 10 最大 3 g4ad.8xlarge 2 32 128 16 1 × 1200 NVMe SSD 15 3 g4ad.16xlarge 4 64 256 32 1 × 2400 NVMe SSD 25 6
すべてのインスタンスの仕様は以下のとおりです- 第 2 世代 AMD EPYC プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
リモートグラフィックスワークステーション、動画変換、フォトリアルデザイン、クラウド上のゲームストリーミングといったグラフィックスを多用するアプリケーション。
-
G3
-
Amazon EC2 G3 インスタンスは、グラフィック集約型アプリケーション用に最適化されています。
特徴:
- 高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4)
- それぞれに 2,048 個の並列処理コアと 8 GiB のビデオメモリが搭載された NVIDIA Tesla M60 GPU
- 最大解像度 4,096 x 2,160 のモニタ 4 台のサポートを含む、NVIDIA GRID Virtual Workstation 機能を有効化。インスタンスに含まれる各 GPU は、1 人の「同時接続ユーザー」にライセンスされます
- Citrix XenApp Essentials および VMware Horizon などのアプリケーション仮想化ソフトウェアのために NVIDIA GRID Virtual Application 機能を有効化し、GPU ごとに最大 25 人の同時ユーザーをサポート
- 各 GPU には、最大 10 個の H.265 (HEVC) 1080p30 ストリームと最大 18 個の H.264 1080p30 ストリームをサポートするために設計された内蔵ハードウェアビデオエンコーダーが搭載されており、低レイテンシーのフレームキャプチャとエンコーディング、および高品質のインタラクティブなストリーミング経験を実現
- プレイスメントグループ内における、25 Gbps の集約ネットワーク帯域幅の Elastic Network Adapter (ENA) を使用した拡張ネットワーク
インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) ネットワークパフォーマンス (Gbps)*** g3s.xlarge 1 4 30.5 8 最大 10 g3.4xlarge 1 16 122 8 最大 10 g3.8xlarge 2 32 244 16 10 g3.16xlarge 4 64 488 32 25 すべてのインスタンスの仕様は以下のとおりです
- 2.3 GHz (ベース) および 2.7 GHz (ターボ) のインテル Xeon E5-2686 v4 プロセッサ
- インテル AVX、インテル AVX2、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
3D ビジュアライゼーション、グラフィックス集約型リモートワークステーション、3D レンダリング、アプリケーションストリーミング、動画エンコーディング、およびその他のサーバー側グラフィックワークロード。
-
Trn1
-
AWS Trainium チップを搭載した Amazon EC2 Trn1 インスタンスは、高性能な深層学習トレーニング用に構築されており、同等の Amazon EC2 インスタンスと比較してトレーニングコストを最大 50% 削減することが可能です。
特徴:
- 16 個の AWS Trainium チップ
- AWS Neuron SDK でサポート
- 第 3 世代インテル Xeon スケーラブルプロセッサー (Ice Lake SP)
- 最大 1600 Gbps の第二世代 Elastic Fabric Adapter (EFA) ネットワーク帯域幅
- 最大 8 TB のローカル NVMe ストレージ
- NeuronLink による高帯域幅のインスタンス内接続性
- EC2 UltraClusters にデプロイし、30,000 の AWS Trainium アクセラレーター、ペタビット規模のノンブロッキングネットワーク、Amazon FSx for Lustre によるスケーラブルな低レイテンシーストレージに接続可能
- Amazon EBS 最適化
- 拡張ネットワーキング
インスタンスサイズ Trainium チップ アクセラレーターメモリ (GB) vCPU メモリ (GiB) インスタンス
ストレージ (GB)ネットワーク
帯域幅 (Gbps)***EBS 帯域幅
(Gbps)trn1.2xlarge 1 32 8 32 1 x 500 NVMe SSD
最大 12.5 最大 20
trn1.32xlarge 16 512 128 512 4 x 2000 NVMe SSD
800 80 trn1n.32xlarge 16 512 128 512 4 x 2000 NVMe SSD 1600 80 ユースケース
自然言語処理 (NLP)、コンピュータビジョン、検索、レコメンデーション、ランキングなどの深層学習トレーニング
- 16 個の AWS Trainium チップ
-
Inf2
-
Amazon EC2 Inf2 インスタンスは、深層学習推論用に構築されています。大規模言語モデルやビジョントランスフォーマーなどのジェネレーティブ人工知能モデル向けに、Amazon EC2 で最小のコストで高いパフォーマンスを実現します。Inf2 インスタンスは、AWS Inferentia2 によって提供されます。これらの新しいインスタンスは、Inf1 インスタンスと比較して、3 倍のコンピューティングパフォーマンス、4 倍のアクセラレーターメモリ、最大 4 倍のスループット、最大 10 分の 1 の低いレイテンシーを提供
特徴:
- 最大 12 個の AWS Inferentia2 チップ
- AWS Neuron SDK でサポート
- デュアル AMD EPYC プロセッサ (AMD EPYC 7R13)
- 最大 384 GB のアクセラレーター共有メモリ (1 アクセラレーターあたり 32 GB の HBM)
- 最大 100 Gbps のネットワーキング
インスタンスサイズ Inferentia2 チップ
アクセラレーターメモリ (GB) vCPU メモリ (GiB) ローカルストレージ アクセラレーター間インターコネクト ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) inf2.xlarge 1 32 4 16 EBS のみ NA 最大 15 最大 10 inf2.8xlarge 1 32 32 128 EBS のみ 該当なし 最大 25 10 inf2.24xlarge 6 192 96 384 EBS のみ はい 50 30 inf2.48xlarge 12 384 192 768 EBS のみ はい 100 60 ユースケース
自然言語理解 (高度なテキスト分析、ドキュメント分析、会話エージェント)、翻訳、画像および動画生成、音声認識、個別化、不正検出など。
-
Inf1
-
Amazon EC2 Inf1 インスタンスは、機械学習推論アプリケーションをサポートするため、全く新規に構築されました。
特徴:
- 最大 16 の AWS Inferentia チップ
- AWS Neuron SDK でサポート
- 高クロックの第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259L)
- 最大 100 Gbps のネットワーキング
インスタンスサイズ Inferentia チップ vCPU メモリ (GiB) インスタンスストレージ アクセラレーター間インターコネクト ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 inf1.xlarge 1 4 8 EBS のみ 該当なし 最大 25 最大 4.75 inf1.2xlarge 1 8 16 EBS のみ 該当なし 最大 25 最大 4.75 inf1.6xlarge 4 24 48 EBS のみ はい 25 4.75 inf1.24xlarge 16 96 192 EBS のみ はい 100 19 ユースケース
レコメンデーションエンジン、天気予報、画像および動画分析、高度なテキスト分析、ドキュメント分析、音声、会話型エージェント、翻訳、文字起こし、不正検出。
-
DL1
-
Amazon EC2 DL1 インスタンスは、Habana Labs (インテル) の Gaudi アクセラレーターを搭載しています。現世代の GPU ベースの EC2 インスタンスと比較して、深層学習モデルのトレーニングにおいて最大 40% 優れた価格性能を実現しています。
特徴:
- 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8275CL)
- 最大 8 台の Gaudi アクセラレーター、アクセラレータごとに 32 GB の高帯域幅のメモリ (HBM) を搭載
- ネットワークスループット最大 400 GBPS
- ローカル NVMe ストレージ最大 4 TB
インスタンスサイズ
vCPU
Gaudi アクセラレーター
インスタンスメモリ (GiB)
インスタンスストレージ (GB)
アクセラレーター Peer-to-Peer Bidirectional
(Gbps)ネットワーク帯域幅 (Gbps)
EBS 帯域幅 (Gbps)
dl1.24xlarge
96
8
768
4 × 1000 NVMe SSD
100
400
19
DL1 インスタンスには以下の仕様があります。
- 第 2 世代インテル Xeon スケーラブルプロセッサ
- インテル AVX†、インテル AVX2†、インテル AVX-512、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
深層学習トレーニング、物体検出、画像認識、自然言語処理、レコメンデーションエンジン。
- 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8275CL)
-
DL2q
-
Qualcomm AI 100 アクセラレータを搭載した Amazon EC2 DL2q インスタンスを使用すると、深層学習 (DL) ワークロードをコスト効率よくクラウドにデプロイ、あるいはクアルコムのデバイスにデプロイされる DL ワークロードのパフォーマンスと精度を検証することができます。
特徴:
- 8 クアルコム AI 100 アクセラレータ
- クアルコムのクラウド AI プラットフォームとアプリ SDK によるサポート
- 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL)
- 最大 128 GB の共有アクセラレータメモリ
- 最大 100 Gbps のネットワーキング
インスタンスサイズ クアルコム AI 100 アクセラレータ
アクセラレータメモリ (GB) vCPU メモリ (GiB) ローカルストレージ アクセラレーター間インターコネクト ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) dl2q.24xlarge 8 128 96 768 EBS のみ いいえ 100 19 ユースケース
コンテンツ生成、画像分析、テキスト要約、仮想アシスタントなど、一般的な DL および生成系 AI アプリケーションを実行します。スマートフォン、自動車、ロボティクス、拡張現実ヘッドセットに展開する前に、AI ワークロードを検証します。
-
F1
-
Amazon EC2 F1 インスタンスでは、フィールドプログラマブルゲートアレイ (FPGA) によるカスタマイズ可能なハードウェアアクセラレーションが提供されます。
インスタンスの特徴:
- 高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4)
- NVMe SSD ストレージ
- 拡張ネットワークのサポート
FPGA の特徴:
- Xilinx Virtex UltraScale+ VU9P FPGA
- 4 つの DDR4 64 GiB ECC 保護メモリ
- 専用 PCI-Express x16 インターフェイス
- 約 250 万のロジックエレメント
- 約 6,800 個のデジタル信号処理 (DSP) エンジン
- FPGA デベロッパー AMI
インスタンス FPGA vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** f1.2xlarge 1 8 122 1 × 470 最大 10 f1.4xlarge 2 16 244 1 × 940 最大 10 f1.16xlarge 8 64 976 4 x 940 25 f1.16xlarge インスタンスについては、専用 PCI-e ファブリックにより、FPGA は同じメモリ領域を共有し、各方向に最大 12 Gbps のファブリック間通信が可能です。
すべてのインスタンスの仕様は以下のとおりです
- 2.3 GHz (ベース) および 2.7 GHz (ターボ) のインテル Xeon E5-2686 v4 プロセッサ
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
ゲノム研究、財務分析、リアルタイムのビデオ処理、ビッグデータの検索と分析、およびセキュリティ。
-
VT1
-
Amazon EC2 VT1 インスタンスは、最大 4K UHD 解像度に対応したリアルタイム動画トランスコーディングを低コストで実現するように設計されています。
特徴:
- 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL)
- 高速 H.264/AVC および H.265/HEVC コーデックを搭載した最大 8 枚の Xilinx U30 メディアアクセラレーターカード
- 強化されたネットワークスループット最大 25 Gbps
- 最大 19 Gbps の EBS 帯域幅
インスタンスサイズ
U30 アクセラレーター
vCPU
メモリ (GiB)
ネットワーク帯域幅 (Gbps)
EBS 帯域幅
(Gbps)1080p60 ストリーム
4Kp60 ストリーム
vt1.3xlarge
1
12
24
3.125
最大 4.75
8
2
vt1.6xlarge
2
24
48
6.25
4.75
16
4
vt1.24xlarge
8
96
192
25
19
64
16
すべてのインスタンスの仕様は以下のとおりです
- 第 2 世代インテル Xeon スケーラブルプロセッサ
- インテル AVX†、インテル AVX2†、インテル AVX-512、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
ライブイベント放送、ビデオ会議、ジャストインタイムトランスコーディング。
- 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL)
T2 および m3.medium を除き、各 vCPU はインテル Xeon コアまたは AMD EPYC コア上のスレッドです。
† AVX、AVX2、AVX-512、および拡張ネットワーキングは、HVM AMI で起動されたインスタンスのみで利用できます。
* これは、このインスタンスタイプで提供されている vCPU のデフォルトの最大数です。このインスタンスタイプの起動時には、任意の数の vCPU を指定できます。有効な vCPU 数と、この機能の使用開始方法に関する詳細については、こちらの CPU 最適化のドキュメントページをご覧ください。
*** ネットワーク帯域幅が「最大」と表示されているインスタンスは、ベースライン帯域幅を持ち、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えるバーストをベストエフォートの原則で行うことができます。詳細については、「インスタンスネットワーク帯域幅」をご覧ください。
ストレージ最適化
ストレージ最適化インスタンスは、ローカルストレージの大規模データセットに対する高いシーケンシャル読み取りおよび書き込みアクセスを必要とするワークロード用に設計されています。ストレージ最適化インスタンスは、数万 IOPS もの低レイテンシーなランダム I/O オペレーションをアプリケーションに提供するように最適化されています。
-
I4g
-
Im4gn
-
Is4gen
-
I4i
-
I3
-
I3en
-
D3
-
D3en
-
D2
-
H1
-
I4g
-
Amazon EC2 I4g インスタンスは、AWS Graviton2 プロセッサを搭載し、Amazon EC2 のストレージ集約型ワークロードに最適な料金パフォーマンスを提供します。I4g インスタンスは、同様のストレージ最適化インスタンスと比較して、コンピューティングパフォーマンスを最大 15% 向上させます。
特徴:
- AWS Graviton2 プロセッサによる駆動
- I3 および I3en インスタンスと比較して、I/O レイテンシーを最大 60% 低減し、レイテンシーの変動を最大 75% 低減する AWS Nitro SSD を搭載した最大 15 TB の NVMe SSD インスタンスストレージを備え、常時暗号化機能を搭載
- 1 vCPU あたり 8 GB のメモリにマッピングされるワークロードに最適化
- Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 38 Gbps のネットワーク帯域幅
- i4g.16xlarge インスタンスの Elastic Fabric Adapter (EFA) に対応
- Amazon Elastic Block Store (EBS) への最大 20 Gbps の帯域幅
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- Torn Write Prevention (TWP) のサポートにより、MySQL や MariaDB などのデータベースワークロードでさらなるパフォーマンスの向上とレイテンシーを低減できます。
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) i4g.large 2 16 1 x 468 GB = 468 GB 最大 10 最大 10 i4g.xlarge 4 32 1 x 937 GB = 937 GB 最大 10 最大 10 i4g.2xlarge 8 64 1 x 1,875 GB = 1,875 GB 最大 12 最大 10 i4g.4xlarge 16 128 1 x 3,750 GB = 3,750 GB 最大 25 最大 10 i4g.8xlarge 32 256 2 x 3,750 GB = 7,500 GB 18.75 10 i4g.16xlarge 64 512 4 x 3,750 GB = 15,000 GB 37.5 20 すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
Amazon EC2 I4g インスタンスは I/O 集約型アプリケーション向けに最適化されており、トランザクションデータベース (Amazon DynamoDB、MySQL、PostgreSQL)、Amazon OpenSearch Service、および Apache Spark などのリアルタイム分析を使用するお客様を対象としています。
-
Im4gn
-
Amazon EC2 Im4gn インスタンスは、AWS Graviton2 プロセッサを搭載し、Amazon EC2 のストレージ集約型ワークロードに最適な料金パフォーマンスを提供します。I3 インスタンスと比較して、料金パフォーマンスは最大 40% 向上し、ストレージ 1 TB あたりのコストは最大 44% 削減されます。
特徴:
- AWS Graviton2 プロセッサによる駆動
- I3 および I3en インスタンスと比較して、I/O レイテンシーを最大 60% 低減し、レイテンシーの変動を最大 75% 低減する AWS Nitro SSD を搭載した最大 30 TB の NVMe SSD インスタンスストレージを備え、常時暗号化機能を搭載
- 1 vCPU あたり 4 GB のメモリにマッピングされるワークロードに最適化
- I3 インスタンスと比較して、1 vCPU あたり 2 倍の NVMe SSD ストレージ密度
- Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 100 Gbps のネットワーク帯域幅
- im4gn.16xlarge での Elastic Fabric Adapter のサポート
- Amazon Elastic Block Store への最大 38 Gbps の帯域幅
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- Torn Write Prevention (TWP) のサポートにより、MySQL や MariaDB などのデータベースワークロードでさらなるパフォーマンスの向上とレイテンシーの低減を可能にします。
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) im4gn.large 2 8 1 x 937 AWS Nitro SSD 最大 25 最大 9.5 im4gn.xlarge 4 16 1 × 1875 AWS Nitro SSD 最大 25 最大 9.5 im4gn.2xlarge 8 32 1 × 3750 AWS Nitro SSD 最大 25 最大 9.5 im4gn.4xlarge 16 64 1 × 7500 AWS Nitro SSD 25 9.5 im4gn.8xlarge 32 128 2 × 7500 AWS Nitro SSD 50 19 im4gn.16xlarge 64 256 4 × 7500 AWS Nitro SSD 100 38 すべてのインスタンスの仕様は以下のとおりです
- カスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
これらのインスタンスは、リレーショナルデータベース (MySQL、MariaDB、PostgreSQL など) や NoSQL データベース (KeyDB、ScyllaDB、Cassandra) など、中規模のデータセットを備えており、高いコンピューティングパフォーマンスと高いネットワークスループットを利用できる、I/O 集約型のビジネスクリティカルなワークロードで 1 秒あたり処理されるトランザクション (TPS) の数を最大化します。また、検索エンジンやデータ分析ワークロードなど、ローカルストレージ上の中規模データセットに対して、非常に高速なアクセスを必要とするワークロードにも最適です。
- AWS Graviton2 プロセッサによる駆動
-
Is4gen
-
Amazon EC2 Is4gen インスタンスは、AWS Graviton2 プロセッサを搭載しており、ストレージ集約型のワークロードに対して、SSD ストレージの 1 TB あたりのコストが最も低く、1 vCPU あたりの SSD ストレージの密度が最も高い Amazon EC2 インスタンスを提供します。これらのインスタンスは、I3en インスタンスと比較して、1 TB あたりのコストが最大 15% 低く、1 vCPU あたりのコンピューティングパフォーマンスが最大 48% 向上します。
特徴:
- AWS Graviton2 プロセッサによる駆動
- I3 および I3en インスタンスと比較して、I/O レイテンシーを最大 60% 低減し、レイテンシーの変動を最大 75% 低減する AWS Nitro SSD を搭載した最大 30 TB の NVMe SSD インスタンスストレージを備え、常時暗号化機能を搭載
- 1 vCPU あたり 6 GB のメモリにマッピングされるワークロードに最適化
- I3en と比較して、1 vCPU あたりの NVMe SSD ストレージが 50% 増加
- Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 50 Gbps のネットワーク帯域幅
- Amazon Elastic Block Store への最大 19 Gbps の帯域幅
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- Torn Write Prevention (TWP) のサポートにより、MySQL や MariaDB などのデータベースワークロードでさらなるパフォーマンスの向上とレイテンシーの低減を可能にします。
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) is4gen.medium 1 6 1 x 937 AWS Nitro SSD 最大 25 最大 9.5 is4gen.large 2 12 1 × 1875 AWS Nitro SSD 最大 25 最大 9.5 is4gen.xlarge 4 24 1 × 3750 AWS Nitro SSD 最大 25 最大 9.5 is4gen.2xlarge 8 48 1 × 7500 AWS Nitro SSD 最大 25 最大 9.5 is4gen.4xlarge 16 96 2 × 7500 AWS Nitro SSD 25 9.5 is4gen.8xlarge 32 192 4 × 7500 AWS Nitro SSD 50 19 すべてのインスタンスの仕様は以下のとおりです
- 64 ビットの Arm コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
これらのインスタンスは、NoSQL データベース (KeyDB、MongoDB、ScyllaDB、Cassandra) など、大きなデータセットを持ち、1 vCPU あたりの NVMe ストレージ密度が最も高くマッピングできる、I/O 要求の高いワークロードの 1 秒あたり処理されるトランザクション (TPS) 数を最大化します。また、検索エンジン (Splunk や Elasticsearch)、データストリーミング、大規模分散ファイルシステムなど、ローカルストレージ上の大規模データセットに対する高速アクセスや、高いストレージ密度を必要とするワークロードにも最適です。
- AWS Graviton2 プロセッサによる駆動
-
I4i
-
Amazon EC2 I4i インスタンスは、第 3 世代のインテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載し、AWS Nitro NVMe SSD を使用して Amazon EC2 内で最高のローカルストレージパフォーマンスを提供します。
特徴:
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
- I3 インスタンスと比較して、コンピューティング料金パフォーマンスが最大 30% 向上
- AWS Nitro SSD による最大 30 TB の NVMe ストレージは、I3 インスタンスと比較して、最大 60% 低いストレージ I/O レイテンシーと最大 75% 低いストレージ I/O レイテンシーの変動を提供します
- 最大 75 Gbps のネットワークスピード
- Amazon Elastic Block Store への最大 40 Gbps の帯域幅
- 新しいインスタンスサイズ (32xlarge)、128 vCPU、1,024 GiB メモリ
- 32xlarge サイズの Elastic Fabric Adapter に対応
- インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
- 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
- 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extensions (AVX 512) の新命令をサポート
- Torn Write Prevention (TWP) のサポートにより、MySQL や MariaDB などのデータベースワークロードでさらなるパフォーマンスの向上とレイテンシーの低減を可能にします。
インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps) i4i.large 2 16 1 x 468 AWS Nitro SSD 最大 10 最大 10 i4i.xlarge 4 32 1 x 937 AWS Nitro SSD 最大 10 最大 10 i4i.2xlarge 8 64 1 × 1875 AWS Nitro SSD 最大 12 最大 10 i4i.4xlarge 16 128 1 × 3750 AWS Nitro SSD 最大 25 最大 10 i4i.8xlarge 32 256 2 × 3750 AWS Nitro SSD 18.75 10 i4i.12xlarge 48 384 3 x 3750 AWS Nitro SSD 28.12 15 i4i.16xlarge 64 512 4 × 3750 AWS Nitro SSD 37.5 20 i4i.24xlarge 96 768 6 x 3750 AWS Nitro SSD 56.25 30 i4i.32xlarge 128 1,024 8 × 3750 AWS Nitro SSD 75 40 i4i.metal 128 1,024 8 × 3750 AWS Nitro SSD 75 40 すべてのインスタンスの仕様は以下のとおりです
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサー
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
これらのインスタンスは、トランザクションデータベース (MySQL、Oracle DB、Microsoft SQL Server など) や NoSQL データベース (MongoDB、Couchbase、Aerospike、Redis など) など、ローカルストレージ上の小、中規模のデータセットに非常に高速なアクセスを必要とする I/O 要求の高いワークロードの 1 秒あたりトランザクション (TPS) を最大化するように設計されています。また、I4i インスタンスは、データ分析や検索エンジンなど、ストレージ 1 TB あたりの高いコンピューティングパフォーマンスの恩恵を受けられるワークロードに最適です。
- 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
-
I3
-
このインスタンスファミリーは、低レイテンシー、超高ランダム I/O パフォーマンス、高シーケンシャル読み込みスループットに最適化された Non-Volatile Memory Express (NVMe) SSD タイプのインスタンスストレージで、高い IOPS を低コストで実現しています。I3 は、非仮想化ワークロード、物理リソースへのアクセスを活用するワークロード、またはライセンス制限が存在する可能性があるワークロードのために、Nitro System によるベアメタルインスタンス (i3.metal) も提供します。
特徴:
- ベースクロックが 2.3 GHz である高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4)
- Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 25 Gbps のネットワーク帯域幅
- 高いランダム I/O パフォーマンスと高いシーケンシャル読み取りスループット
- 物理プロセッサと物理メモリへの直接アクセスが有用なワークロードのためのベアメタルインスタンスサイズをサポート
インスタンス vCPU* メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** i3.large 2 15.25 1 x 475 NVMe SSD 最大 10 i3.xlarge 4 30.5 1 x 950 NVMe SSD 最大 10 i3.2xlarge 8 61 1 x 1900 NVMe SSD 最大 10 i3.4xlarge 16 122 2 x 1900 NVMe SSD 最大 10 i3.8xlarge 32 244 4 x 1900 NVMe SSD 10 i3.16xlarge 64 488 8 x 1900 NVMe SSD 25 i3.metal 72** 512 8 x 1900 NVMe SSD 25 すべてのインスタンスの仕様は以下のとおりです
- 2.3 GHz インテル Xeon E5 2686 v4 プロセッサ
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
小、中規模の NoSQL データベース (例: Cassandra、MongoDB、Aerospike)、インメモリデータベース (例: Redis)、スケールアウトトランザクションデータベース、データウェアハウジング、Elasticsearch、分析ワークロードなど。
-
I3en
-
このインスタンスファミリーは、低レイテンシー、高いランダム I/O パフォーマンス、高いシーケンシャルディスクスループットに最適化された高密度の Non-Volatile Memory Express (NVMe) SSD インスタンスストレージを提供します。この SSD インスタンスストレージは、Amazon EC2 において GB あたりの料金が最も安価です。 I3en は、非仮想化ワークロード、物理リソースへのアクセスを活用するワークロード、またはライセンス制限が存在する可能性があるワークロードのために、Nitro System によるベアメタルインスタンス (i3en.metal) も提供します。
特徴:
- 最大 60 TB の NVMe SSD インスタンスストレージ
- Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 100 Gbps のネットワーク帯域幅
- 高いランダム I/O パフォーマンスと高いシーケンシャルディスクスループット
- 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した最大 3.1 GHz のインテル® Xeon® スケーラブルプロセッサ (Skylake 8175M または Cascade Lake 8259CL)
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
- 物理プロセッサと物理メモリへの直接アクセスが有用なワークロードのためのベアメタルインスタンスサイズをサポート
- i3en.24xlarge での Elastic Fabric Adapter のサポート
インスタンス vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** i3en.large 2 16 1 x 1250 NVMe SSD
最大 25 i3en.xlarge 4 32 1 x 2500 NVMe SSD
最大 25 i3en.2xlarge 8 64 2 x 2500 NVMe SSD
最大 25 i3en.3xlarge 12 96 1 x 7500 NVMe SSD
最大 25 i3en.6xlarge 24 192 2 x 7500 NVMe SSD
25 i3en.12xlarge 48 384 4 x 7500 NVMe SSD
50 i3en.24xlarge
96 768 8 x 7500 NVMe SSD
100 i3en.metal 96 768 8 x 7500 NVMe SSD 100 すべてのインスタンスの仕様は以下のとおりです
- 3.1 GHz 全コアターボ インテル® Xeon® Scalable (Skylake) プロセッサ
- インテル AVX†、インテル AVX2†、インテル AVX-512†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング
ユースケース
小規模から大規模の NoSQL データベース (例: Cassandra、MongoDB、Aerospike)、インメモリデータベース (例: Redis)、スケールアウトトランザクションデータベース、分散型ファイルシステム、データウェアハウジング、Elasticsearch、分析ワークロード。
-
D3
-
Amazon EC2 D3 インスタンスは、高いシーケンシャル I/O パフォーマンスやディスクスループットを必要とするアプリケーション向けに最適化されています。D3 インスタンスは、TB あたりの価格が安価な追加のコンピューティングとネットワークパフォーマンスを必要とする D2 インスタンスで実行するワークロードを改善するのに最適です。
特徴:
- 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した、最大 3.1 GHz の第 2 世代インテル® Xeon® スケーラブルプロセッサ (インテル Cascade Lake 8259CL)
- 最大 48 TB の HDD インスタンスストレージ
- EC2 D2 インスタンスよりも最大 45% 高い読み書きディスクスループット
- AWS Nitro System 搭載
インスタンスサイズ
vCPU
メモリ (GiB)
インスタンスストレージ (TB)
集約ディスクスループット (MiB/s) ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Mbps)
d3.xlarge
4
32
3 x 2 HDD
580
最大 15
850
d3.2xlarge
8
64
6 x 2 HDD
1,100
最大 15
1,700
d3.4xlarge
16
128
12 x 2 HDD
2,300
最大 15
2,800
d3.8xlarge
32
256
24 x 2 HDD
4,600
25
5,000
* 128,000 ブロックサイズ、シーケンシャル読み込みおよび書き込み (xlarge を除いて 100 に最も近い値に丸められます)
すべてのインスタンスの仕様は以下のとおりです
- 最大 3.1 GHz の第 2 世代インテル® Xeon® Scalable (Cascade Lake) プロセッサ
- インテル AVX†、インテル AVX2†、インテル AVX-512†、インテルターボ
- 拡張ネットワーキング
ユースケース
分散ファイルシステム (HDFS、MapReduce ファイルシステムなど)、ビッグデータ分析ワークロード (Elastic MapReduce、Spark、Hadoop など)、超並列処理 (MPP) データウェアハウス (Redshift、HP Vertica など)、ログまたはデータ処理アプリケーション (Kafka、Elasticsearch など)
- 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した、最大 3.1 GHz の第 2 世代インテル® Xeon® スケーラブルプロセッサ (インテル Cascade Lake 8259CL)
-
D3en
-
Amazon EC2 D3en インスタンスは、高いシーケンシャル I/O パフォーマンス、ディスクスループット、非常に大きなデータセット用の低コストストレージを必要とするアプリケーション向けに最適化されています。D3en インスタンスは、あらゆるクラウド製品の中で最も低価格な高密度ストレージを提供します。
特徴:
- 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した、最大 3.1 GHz の第 2 世代インテル® Xeon® スケーラブルプロセッサ (インテル Cascade Lake 8259CL)
- 最大 336 TB の HDD インスタンスストレージ
- 最大 75 Gbps のネットワーク帯域幅
- EC2 D2 インスタンスよりも最大 2 倍高い読み書きディスクスループット
- AWS Nitro System 搭載
インスタンスサイズ
vCPU
メモリ (GiB)
インスタンスストレージ (TB)
集約ディスクスループット (MiB/s) ネットワーク帯域幅 (Gbps)***
EBS 帯域幅 (Mbps)
d3en.xlarge
4
16
2 x 14 HDD
500
最大 25
850
d3en.2xlarge
8
32
4 x 14 HDD
1,000
最大 25
1,700
d3en.4xlarge
16
64
8 x 14 HDD
2,000
25
2,800
d3en.6xlarge
24
96
12 x 14 HDD
3,100
40
4,000
d3en.8xlarge
32
128
16 x 14 HDD
4,100
50
5,000
d3en.12xlarge
48
192
24 x 14 HDD
6,200
75
7,000
* 128k ブロックサイズ、シーケンシャル読み込みおよび書き込み (最も近い 100 の倍数に丸められます)
すべてのインスタンスの仕様は以下のとおりです
- 3.1 GHz 全コアターボの第 2 世代インテル® Xeon® Scalable (Cascade Lake) プロセッサ
- インテル AVX†、インテル AVX2†、インテル AVX-512†、インテルターボ
- 拡張ネットワーキング
ユースケース
Lustre、BeeGFS、GPFS、VxCFS、GFS2 などのマルチノードファイルストレージシステム。一貫したシーケンシャル I/O パフォーマンスを備えた大容量データレイク
- 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した、最大 3.1 GHz の第 2 世代インテル® Xeon® スケーラブルプロセッサ (インテル Cascade Lake 8259CL)
-
D2
-
Amazon EC2 D2 インスタンスは、最大 48 TB の HDD ベースのローカルストレージが特徴となっていて、高いディスクスループットを実現しています。ディスクスループットパフォーマンスあたりの価格は Amazon EC2 では最小です。
特徴:
- 高クロックのインテル Xeon スケーラブルプロセッサ (Haswell E5-2676 v3)
- HDD ストレージ
- 起動時にパフォーマンスが一貫して高い
- 高いディスクスループット
- 拡張ネットワークのサポート
インスタンス vCPU* メモリ (GiB) インスタンスストレージ (GB) ネットワークパフォーマンス d2.xlarge 4 30.5 3 x 2,000 HDD 中 d2.2xlarge 8 61 6 × 2,000 HDD 高 d2.4xlarge 16 122 12 × 2,000 HDD 高 d2.8xlarge 36 244 24 × 2,000 HDD 10 Gbps すべてのインスタンスの仕様は以下のとおりです
- 2.4 GHz インテル Xeon E5-2676 v3 プロセッサ
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
超並列処理 (MPP) データウェアハウジング、MapReduce および Hadoop 分散型コンピューティング、分散ファイルシステム、ネットワークファイルシステム、ログアプリケーションまたはデータ処理アプリケーション。
-
H1
-
Amazon EC2 H1 インスタンスは、最大 16 TB の HDD ベースのローカルストレージを備えており、高ディスクスループット、およびバランスの取れたコンピューティングとメモリを実現します。
特徴:
- 2.3 GHz インテル Xeon スケーラブルプロセッサ (Broadwell E5 2686 v4) を搭載
- 最大 16 TB の HDD ストレージ
- 高いディスクスループット
- ENA が有効化された最大 25 Gbps の拡張ネットワーク
インスタンス vCPU* メモリ (GiB) ネットワーキングパフォーマンス (Gbps)*** インスタンスストレージ (GB) h1.2xlarge 8 32 最大 10 1 × 2000 HDD h1.4xlarge 16 64 最大 10 2 x 2000 HDD h1.8xlarge 32 128 10 4 x 2000 HDD h1.16xlarge 64 256 25 8 x 2000 HDD すべてのインスタンスの仕様は以下のとおりです
- 2.3 GHz インテル Xeon E5 2686 v4 プロセッサ
- インテル AVX†、インテル AVX2†、インテルターボ
- EBS 最適化
- 拡張ネットワーキング†
ユースケース
MapReduce ベースのワークロード、HDFS や MapR-FS などの分散型ファイルシステム、ネットワークファイルシステム、Apache Kafka などのログまたはデータ処理アプリケーション、ビッグデータワークロードクラスター。
** i3.metal は、36 個の物理コアに 72 個の論理プロセッサを提供します
このページに掲載されていない旧世代のインスタンスをお探しですか? 旧世代のインスタンスページを参照してください。
HPC 最適化
ハイパフォーマンスコンピューティング (HPC) インスタンスは、AWS で HPC ワークロードを大規模に実行するために、最高の料金パフォーマンスを提供することを目的に構築されています。HPC インスタンスは、大規模で複雑なシミュレーションや深層学習のワークロードなど、ハイパフォーマンスプロセッサのメリットを享受できるアプリケーションに最適です。
-
Hpc7g
-
Hpc7a
-
Hpc6id
-
Hpc6a
-
Hpc7g
-
Amazon EC2 Hpc7g インスタンスは、計算流体力学 (CFD)、天気予報、分子動力学など、計算負荷の高いハイパフォーマンスコンピューティング (HPC) ワークロード向けに設計されています。
特徴:
- 128 GiB のメモリを搭載した最大 64 コアの Graviton3E プロセッサ
- Elastic Fabric Adapter (EFA) の有効化で、ノード間ネットワーク帯域幅を最大 200 Gbps まで高速化、ネットワーク集約型アプリケーションのパフォーマンスを向上
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ 物理コア メモリ (GiB) インスタンスストレージ EFA ネットワーク帯域幅 (Gbps) ネットワーク帯域幅 (Gbps*) hpc7g.4xlarge 16 128 EBS のみ 200 25 hpc7g.8xlarge 32 128 EBS のみ 200 25 hpc7g.16xlarge 64 128 EBS のみ 200 25 *仮想プライベートクラウド (VPC) および Amazon Simple Storage Service (Amazon S3) の外部では 500 Mbps のネットワーク帯域幅。 -
Hpc7a
-
Amazon EC2 Hpc7a インスタンスは、第 4 世代 AMD EPYC プロセッサを搭載し、計算流体力学 (CFD)、天気予報、マルチフィジックスシミュレーションなど、緊密に結合された計算負荷の高いハイパフォーマンスコンピューティング (HPC) ワークロード向けに設計されています。
特徴:
- 768 GiB のメモリを搭載した最大 192 コアの第 4 世代 AMD EPYC プロセッサー (AMD EPYC 9R14)
- Elastic Fabric Adapter (EFA) の有効化で、ノード間ネットワーク帯域幅を最大 300 Gbps まで高速化、ネットワーク集約型アプリケーションのパフォーマンスを向上
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ 物理コア メモリ (GiB) インスタンスストレージ EFA ネットワーク帯域幅 (Gbps) ネットワーク帯域幅 (Gbps)* hpc7a.12xlarge
24
768
EBS のみ 300
25
hpc7a.24xlarge
48
768
EBS のみ 300
25
hpc7a.48xlarge
96
768
EBS のみ 300
25
hpc7a.96xlarge
192
768
EBS のみ 300
25
*仮想プライベートクラウド (VPC) および Amazon Simple Storage Service (Amazon S3) の外部では 500 Mbps のネットワーク帯域幅。
-
Hpc6id
-
Amazon EC2 Hpc6id インスタンスは、クラッシュシミュレーション、地震貯留層シミュレーション、構造シミュレーションのための有限要素解析 (FEA) など、データを多用するメモリバインドのハイパフォーマンスコンピューティング (HPC) ワークロード向けに設計されています。
特徴:
- 最大 3.5 GHz のオールコアターボ周波数、64 コアのインテル Xeon スケーラブルプロセッサ、vCPU あたり 5 GB/秒のメモリ帯域幅、1024 GiB のメモリ
- Elastic Fabric Adapter (EFA) の有効化で、ノード間ネットワーク帯域幅を最大 200 Gbps まで高速化、ネットワーク集約型アプリケーションのパフォーマンスを向上
- パフォーマンスとクラスター管理を最適化するため、同時マルチスレッドを無効化
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ コア メモリ (GiB) SSD ストレージ (GiB) ネットワーク帯域幅 (Gbps)* EFA ネットワーク帯域幅 (Gbps) hpc6id.32xlarge 64 1,024 4 × 3800 (NVMe SSD) 25 200 *仮想プライベートクラウド (VPC) および Amazon Simple Storage Service (S3) の外部では 500 Mbps のネットワーク帯域幅。 - 最大 3.5 GHz のオールコアターボ周波数、64 コアのインテル Xeon スケーラブルプロセッサ、vCPU あたり 5 GB/秒のメモリ帯域幅、1024 GiB のメモリ
-
Hpc6a
-
Amazon EC2 Hpc6a インスタンスは、密結合で計算量の多いハイパフォーマンスコンピューティング (HPC) ワークロード向けに最適化されており、コスト効率の高いパフォーマンスを実現します。Hpc6a インスタンスは、計算流体力学、分子動力学、天気予報などのワークロード向けに設計されています。また、優れたネットワークスループットやパケットレートパフォーマンスを活用できるワークロード向けに設計されています。
特徴:
- 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
- Elastic Fabric Adapter (EFA) の有効化で、ノード間ネットワーク帯域幅を最大 100 Gbps まで高速化、ネットワーク集約型アプリケーションのパフォーマンスを向上
- パフォーマンスとクラスター管理を最適化するため、同時マルチスレッドを無効化
- 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
インスタンスサイズ コア メモリ (GiB) ネットワーク帯域幅 (Gbps)* EFA ネットワーク帯域幅 (Gbps) hpc6a.48xlarge 96 384 25 100 *仮想プライベートクラウド (VPC) 外の 25 Gbps ネットワーク帯域幅、Amazon Simple Storage Service (S3)、または Amazon Elastic Block Store (EBS)。 - 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
インスタンスの機能
Amazon EC2 インスタンスには、アプリケーションのデプロイ、管理、スケーリングに役立つさまざまな追加機能があります。
Amazon EC2 では、定常パフォーマンスのインスタンスファミリー (M6、C6、R6 など) とバーストパフォーマンスインスタンスファミリー (T3 など) のいずれかを選択できます。バーストパフォーマンスインスタンスでは、ベースラインレベルの CPU パフォーマンスが提供されますが、そのベースラインを超えてバーストする能力を備えています。
Unlimited モードの T インスタンスは、ワークロードで必要とされる間、高い CPU パフォーマンスを維持できます。ほとんどの汎用ワークロードについて、Unlimited モードの T インスタンスは追加料金を一切生じることなく十分なパフォーマンスを提供します。時間あたりの T インスタンス料金は、T インスタンスの平均 CPU 使用率が 24 時間にわたってベースライン以下の場合は、すべての一時的な使用率のスパイクを時間あたりの T インスタンス料金で自動的にカバーします。長時間にわたって高い CPU 使用率でインスタンスを実行する必要がある場合には、固定の追加料金 (vCPU 時間あたり 5 セント) で実行できます。
T インスタンスのベースラインパフォーマンスとバーストする機能は、CPU クレジットによって制御されます。各 T インスタンスは、CPU クレジットを継続的に獲得します。その速度はインスタンスのサイズによって異なります。T インスタンスは、アイドル状態のときに CPU クレジットが加算され、アクティブなときに CPU クレジットを消費します。1 CPU クレジットで 1 分間、最大の CPU コアパフォーマンスにバーストできます。
例えば、t2.small インスタンスは 1 時間あたり 12 CPU クレジットの速度でクレジットを継続的に獲得します。この機能により、CPU コアの 20% に相当するベースラインパフォーマンスが提供されます (20% x 60 分 = 12 分)。獲得したクレジットはインスタンスで使用されない場合、CPU クレジット残高に最大 288 CPU クレジットまで保存されます。t2.small インスタンスがコアの 20% を超えてバーストする必要がある場合、CPU クレジット残高からの引き出しによってこの急増を自動的に処理します。
T2 Unlimited が有効な場合、t2.small インスタンスは、CPU クレジット残高がなくなるまで引き出された後でも、ベースラインを超えてバーストできます。汎用ワークロードのほとんどは平均 CPU 使用率がベースラインパフォーマンスを超えないため、t2.small の基本時間単価ですべての CPU バーストがカバーされます。CPU クレジット残高がなくなるまで引き出された後、24 時間にわたって 25% の平均 CPU 使用率 (ベースラインを 5% 超過) でインスタンスがインスタンスが実行された場合、6 セント (5 セント/vCPU 時間 x 1 vCPU x 5% x 24 時間) の追加料金が発生します。
ウェブサーバー、開発環境、小規模なデータベースなどの多くのアプリケーションでは、常に高性能な CPU を必要とするわけではありませんが、必要なときに非常に高速な CPU にフルアクセスできると大きな利点となります。T インスタンスは、特にこれらのユースケースのために設計されています。動画エンコーディング、ボリュームの大きなウェブサイトまたは HPC アプリケーションなど、アプリケーションで一貫して高い CPU パフォーマンスが必要な場合は、固定パフォーマンスインスタンスの使用をお勧めします。 アプリケーションで本当に CPU パフォーマンスが必要なときに、T インスタンスは専用の高速なプロセッサコアが利用可能であるかのように動作します。同時に、他の環境のオーバーサブスクリプションでよく見られるパフォーマンスの変動やその他の一般的な副作用からユーザーを保護するように設計されています。
Amazon EC2 では、要件に基づいて複数のストレージオプションから選択できます。Amazon EBS は、実行中の Amazon EC2 インスタンス 1 つにアタッチできる、耐久性に優れたブロックレベルのストレージボリュームです。Amazon EBS は、頻繁にきめ細かな更新が必要なデータのプライマリストレージデバイスとして使用できます。例えば、Amazon EC2 でデータベースを実行するときには、Amazon EBS をストレージオプションとして使用することを推奨します。Amazon EBS ボリュームは、Amazon EC2 インスタンスの運用状況からは独立して存続します。インスタンスにアタッチした後のボリュームは、他の物理ハードドライブと同じように使用できます。Amazon EBS では、実際のワークロードのニーズに最適なように、汎用 (SSD)、プロビジョンド IOPS (SSD)、マグネティックという 3 つのボリュームタイプが用意されています。汎用 (SSD) は、新しい SSD ベースの汎用 EBS ボリュームタイプで、お客様のデフォルトの選択肢としてお勧めしています。汎用 (SSD) ボリュームは、小~中規模のデータベース、開発やテストの環境など、広範なワークロードに適しています。また、ブートボリュームに最適です。プロビジョンド IOPS (SSD) ボリュームは、安定した低レイテンシーのパフォーマンスを備えたストレージを提供します。大規模なリレーショナルデータベースや NoSQL データベースなど、I/O 負荷の高いアプリケーション向けに設計されています。マグネティックボリュームは、すべての EBS ボリュームタイプの中でギガバイトあたりのコストが最も安価です。マグネティックボリュームは、データへのアクセス頻度が低いワークロードや、ストレージコストをなるべく安く抑えることが重要なアプリケーションに最適です。
多くの Amazon EC2 インスタンスは、インスタンスストレージと呼ばれるホストコンピュータ内にあるデバイスのストレージも含めることができます。インスタンスストレージは、Amazon EC2 インスタンスにブロックレベルの一時ストレージを提供します。インスタンスストレージ上のデータは、関連付けられた Amazon EC2 インスタンスの稼働中のみ保持されます。
Amazon EBS またはインスタンスストレージ経由のブロックレベルストレージに加えて、耐久性に優れた高可用性オブジェクトストレージに Simple Storage Service (Amazon S3) を使用することもできます。Amazon EC2 ストレージオプションの詳細については、Amazon EC2 のドキュメント を参照してください。
1 時間単位のわずかな追加料金で、お客様指定の Amazon EC2 インスタンスタイプを EBS 最適化インスタンスとして起動できます。EBS 最適化インスタンスを利用すると、EBS ボリュームに対してプロビジョニングされた IOPS を EC2 インスタンスで最大限に使用できるようになります。EBS 最適化インスタンスは、Amazon EC2 と Amazon EBS の間に専用のスループットを提供するもので、使用するインスタンスタイプに応じて、500 メガビット/秒 (Mbps)~80 ギガビット/秒 (Gbps) のオプションが用意されています。この専有スループットにより、Amazon EBS I/O と EC2 インスタンスからの他のトラフィックとの競合を最低限に抑え、EBS ボリュームのパフォーマンスを最大限に引き出します。EBS 最適化インスタンスは、すべての EBS ボリュームで使用できるように設計されています。EBS 最適化インスタンスにアタッチされたプロビジョンド IOPS ボリュームは、10 ミリ秒未満のレイテンシーを実現でき、プロビジョニングされた IOPS の 10% 以内のパフォーマンスを発揮できる時間が 99.9% となるように設計されています。プロビジョンド IOPS ボリュームは、EBS 最適化インスタンスや、ストレージ I/O の要件レベルが高いアプリケーションのクラスターネットワークをサポートするインスタンスと併用することをお勧めします。
一般的なクラスタープレイスメントグループ内で起動した特定の EC2 インスタンスでは、クラスターネットワークを利用できます。クラスタープレイスメントグループでは、クラスター内のすべてのインスタンス間で、低レイテンシーのネットワーキングが提供されます。EC2 インスタンスが利用できる帯域幅は、インスタンスタイプおよびそのネットワークパフォーマンスの仕様によって異なります。同じリージョン内のインスタンス間トラフィックでは、シングルフローの場合は最大 5 Gbps、各方向 (全二重) のマルチフロートラフィックの場合は最大 100 Gbps を利用できます。同じリージョン内の S3 バケットに対するトラフィックでも、インスタンスで使用できる分をすべて集約した帯域幅を利用できます。プレイスメントグループ内で起動したインスタンスは、シングルフロートラフィックの場合は最大 10 Gbps、マルチフロートラフィックの場合は最大 100 Gbps を利用できます。インターネットに向かうネットワークトラフィックは、5 Gbps (全二重) に制限されます。クラスターネットワークは、高性能の分析システムや多くの科学および工学アプリケーションに最適で、特に、並列プログラミングでは標準的な MPI ライブラリを使用するものに適しています。
インテルプロセッサ搭載の Amazon EC2 インスタンスは、以下のプロセッサ機能を利用できる場合があります。
- インテル AES New Instructions (AES-NI): インテル AES-NI 暗号化命令セットは、オリジナルの Advanced Encryption Standard (AES) アルゴリズムを改良し、より高速なデータ保護とより優れたセキュリティを提供します。現行世代の全 EC2 インスタンスがこのプロセッサ機能をサポートしています。
- インテル Advanced Vector Extensions (インテル AVX、インテル AVX2、およびインテル AVX-512): 浮動小数点 (FP) 集約型のアプリケーション用に設計された命令セット拡張で、インテル AVX およびインテル AVX2 は 256 ビット、インテル AVX-512 は 512 ビットです。インテル AVX 命令は、画像およびオーディオ/ビデオ処理、科学的シミュレーション、財務分析、および 3D モデリングと分析などのアプリケーションに対するパフォーマンスを向上させます。これらの機能は、HVM AMI で起動されたインスタンスのみで利用できます。
- インテルターボブーストテクノロジー: インテルターボブーストテクノロジーは、必要なときにパフォーマンスを向上します。このプロセッサは、自動的にコアを定格の動作周波数よりも速く実行でき、より多くの作業をより速く実行するために役立ちます。
- インテル Deep Learning Boost (インテル DL Boost): AI 深層学習のユースケースを迅速化するために設計された、一連の組み込み型プロセッサテクノロジー。第 2 世代インテル Xeon スケーラブルプロセッサでは、新しいベクトルニューラルネットワーク命令 (VNNI/INT8) を使ってインテル AVX-512 を拡張します。これにより、画像認識/セグメント化、物体検出、音声認識、言語翻訳、レコメンデーションシステム、強化学習などにおけるディープラーニングの推論パフォーマンスは、前世代のインテル Xeon スケーラブルプロセッサ (FP32) よりも大幅に向上します。VNNI はすべての Linux ディストリビューションと互換性があるわけではありません。使用する前にドキュメントをご確認ください。
一部のインスタンスタイプではすべてのプロセッサ機能を利用できない場合があるため、インスタンスタイプメトリクスで、どのインスタンスタイプにどの機能を使用できるかについての詳細情報を確認してください。
インスタンスのパフォーマンスの測定
Amazon EC2 では、さまざまなインスタンスタイプのプロビジョニングが可能で、異なる組み合わせの CPU、メモリ、ディスク、ネットワークが提供されています。新しいインスタンスの導入と並行して容易にテストを実施できるので、アプリケーションのパフォーマンスを測定して、適切なインスタンスタイプを特定し、アプリケーションアーキテクチャの妥当性を検証することをお勧めします。また、ロードとスケーリングの厳しいテストにより、意図したとおりアプリケーションがスケールできるかどうかを確認することをお勧めします。
Amazon EC2 では、10 種類の異なるインスタンスタイプにわたって多数のオプションが用意されています。各タイプに 1 つ以上のサイズオプションがあり、さまざまなタイプのアプリケーションのために最適化された異なるインスタンスファミリーに分類されています。アプリケーションのパフォーマンスをテストするときは、始めにアプリケーションの要件を評価し、適切なインスタンスファミリーを選択することをお勧めします。アプリケーションのパフォーマンス評価では、まず、(a) 異なるインスタンスファミリーと比較してお使いのアプリケーションのニーズ (例えば、アプリケーションがコンピューティングとメモリのどちらに結び付いているかなど) を洗い出し、(b) 適切なインスタンスサイズを識別するためにワークロードの規模を明らかにしてください。アプリケーションのパフォーマンスは、下層のインフラストラクチャや、ソフトウェアおよびアーキテクチャの制限による影響を受ける可能性があるため、アプリケーション全体のパフォーマンスを測定することに代わる手段はありません。アプリケーションプロファイリングおよびロードテスティング用のツールとサービスの使用を含む、アプリケーションレベルのテストの実行が推奨されます。 詳細については、サポートケースを開いて、関心のある特定のインスタンスタイプの追加ネットワークパフォーマンス仕様を要求してください。