一般用途向け

汎用インスタンスは、バランスの取れたコンピューティング、メモリ、ネットワークのリソースを提供し、多様なワークロードに使用できます。汎用インスタンスは、ウェブサーバーやコードリポジトリなど、インスタンスのリソースを同じ割合で使用するアプリケーションに最適です。 

  • M7g
  • Amazon EC2 M7g インスタンスは、Arm ベースの AWS Graviton3 プロセッサを使用します。汎用アプリケーションに対して、Amazon EC2 の中で最高の料金パフォーマンスを実現します。

    特徴:

    • カスタムビルドの AWS Graviton3 プロセッサを搭載
    • DDR4 比で帯域幅が 50% 多い最新の DDR5 メモリを搭載
    • M6g インスタンスと比較して、ネットワーク帯域幅が 20% 強化
    • デフォルトで EBS 最適化済み
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
    • M7gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルストレージを提供します
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)

    m7g.medium

    1

    4

    EBS のみ

    最大 12.5

    最大 10

    m7g.large

    2

    8

    EBS のみ

    最大 12.5

    最大 10

    m7g.xlarge

    4

    16

    EBS のみ

    最大 12.5

    最大 10

    m7g.2xlarge

    8

    32

    EBS のみ

    最大 15

    最大 10

    m7g.4xlarge

    16

    64

    EBS のみ

    最大 15

    最大 10

    m7g.8xlarge

    32

    128

    EBS のみ

    15

    10

    m7g.12xlarge

    48

    192

    EBS のみ

    22.5

    15

    m7g.16xlarge

    64

    256

    EBS のみ

    30

    20

    m7g.metal

    64

    256

    EBS のみ

    30

    20

    m7gd.medium

    1

    4

    1 x 59 NVMe SSD

    最大 12.5

    最大 10

    m7gd.large

    2

    8

    1 x 118 NVMe SSD

    最大 12.5

    最大 10

    m7gd.xlarge

    4

    16

    1 x 237 NVMe SSD

    最大 12.5

    最大 10

    m7gd.2xlarge

    8

    32

    1 x 474 NVMe SSD

    最大 15

    最大 10

    m7gd.4xlarge

    16

    64

    1 x 950 NVMe SSD

    最大 15

    最大 10

    m7gd.8xlarge

    32

    128

    1 x 1900 NVMe SSD

    15

    10

    m7gd.12xlarge

    48

    192

    2 x 1425 NVMe SSD

    22.5

    15

    m7gd.16xlarge

    64

    256

    2 x 1900 NVMe SSD

    30

    20

    m7gd.metal

    64

    256

    2 x 1900 NVMe SSD

    30

    20

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    アプリケーションサーバー、マイクロサービス、ゲーミングサーバー、中規模データストア、キャッチングフリートなど、オープンソースソフトウェア上に構築されたアプリケーション。

  • M7i
  • Amazon EC2 M7i インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、M6i インスタンスより 15% 優れた料金パフォーマンスを実現します。

    特徴:

    • 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
    • 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
    • 2 種類のメタルサイズ: m7i.metal-24xl と m7i.metal-48xl
    • 専用の組み込みアクセラレータ (M7i ベアメタルサイズでのみ使用可能)— Data Streaming Accelerator (DSA)、In-Memory Analytics Accelerator (IAA)、QuickAssist Technology (QAT)— データ操作の効率的なオフロードと高速化を実現し、データベース、暗号化と圧縮、およびキュー管理のワークロードのパフォーマンスを最適化
    • DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • インスタンスあたり最大 128 個の EBS ボリュームアタッチメントをサポート
    • 最大 192 基の仮想 CPU と 768 GiB のメモリ
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)

    m7i.large

    2

    8

    EBS のみ

    最大 12.5

    最大 10

    m7i.xlarge

    4

    16

    EBS のみ

    最大 12.5

    最大 10

    m7i.2xlarge

    8

    32

    EBS のみ

    最大 12.5

    最大 10

    m7i.4xlarge

    16

    64

    EBS のみ

    最大 12.5

    最大 10

    m7i.8xlarge

    32

    128

    EBS のみ

    12.5

    10

    m7i.12xlarge

    48

    192

    EBS のみ

    18.75

    15

    m7i.16xlarge

    64

    256

    EBS のみ

    25

    20

    m7i.24xlarge

    96

    384

    EBS のみ

    37.5

    30

    m7i.48xlarge

    192

    768

    EBS のみ

    50

    40

    m7i.metal-24xl

    96

    384

    EBS のみ

    37.5

    30

    m7i.metal-48xl

    192

    768

    EBS のみ

    50

    40

    ユースケース

    M7i インスタンスは、特に大規模なアプリケーションサーバー、大規模データベース、ゲームサーバー、CPU ベースの機械学習、動画ストリーミングなど、より大きなサイズや高い CPU 使用率を必要とする汎用ワークロードに最適です。

  • M7i-flex
  • Amazon EC2 M7i-flex インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、M6i インスタンスより 19% 優れた料金パフォーマンスを実現します。

    特徴:

    • ほとんどの汎用ワークロードにおいて、クラウドでコストパフォーマンスとコストメリットを実現する最も簡単な方法
    • 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
    • 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
    • DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ。
    • デフォルトで EBS 最適化済み
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)

    m7i-flex.large

    2

    8

    EBS のみ

    最大 12.5

    最大 10

    m7i-flex.xlarge

    4

    16

    EBS のみ

    最大 12.5

    最大 10

    m7i-flex.2xlarge

    8

    32

    EBS のみ

    最大 12.5

    最大 10

    m7i-flex.4xlarge

    16

    64

    EBS のみ

    最大 12.5

    最大 10

    m7i-flex.8xlarge

    32

    128

    EBS のみ

    最大 12.5

    最大 10

    ユースケース

    M7i-flex インスタンスは、ウェブサーバーやアプリケーションサーバー、仮想デスクトップ、バッチ処理、マイクロサービス、データベース、エンタープライズアプリケーションなど、汎用ワークロードの大部分をシームレスに実行するための最初の選択肢として最適です。

  • M7a
  • 第 4 世代 AMD EPYC プロセッサを搭載した Amazon EC2 M7a インスタンスは、M6a インスタンスと比較して最大 50% 高いパフォーマンスを発揮します。

    特徴:

    • 最大 3.7 GHz の第 4 世代 AMD EPYC プロセッサ (AMD EPYC 9R14)
    • 最大 50 Gbps のネットワーク帯域幅
    • Amazon Elastic Block Store (Amazon EBS) への最大 40 Gbps の帯域幅
    • 最大 192 vCPU と 768 GiB のメモリを搭載したインスタンスサイズ
    • SAP 認定インスタンス
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • AMD のセキュアメモリー暗号化(SME)による常時メモリ暗号化のサポート
    • AVX3-512、VNNI、bfloat16 などの新しいプロセッサー機能をサポートします。
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    m7a.medium

    1

    4

    EBS のみ

    最大 12.5

    最大 10

    m7a.large

    2

    8

    EBS のみ

    最大 12.5

    最大 10

    m7a.xlarge

    4

    16

    EBS のみ

    最大 12.5

    最大 10

    m7a.2xlarge

    8

    32

    EBS のみ

    最大 12.5

    最大 10

    m7a.4xlarge

    16

    64

    EBS のみ

    最大 12.5

    最大 10

    m7a.8xlarge

    32

    128

    EBS のみ

    12.5

    10

    m7a.12xlarge

    48

    192

    EBS のみ

    18.75

    15

    m7a.16xlarge

    64

    256

    EBS のみ

    25

    20

    m7a.24xlarge

    96

    384

    EBS のみ

    37.5

    30

    m7a.32xlarge

    128

    512

    EBS のみ

    50

    40

    m7a.48xlarge

    192

    768

    EBS のみ

    50

    40

    m7a.metal-48xl

    192

    768

    EBS のみ

    50

    40

    ユースケース

    金融アプリケーション、アプリケーションサーバー、シミュレーションモデリング、ゲーム、中規模データストア、アプリケーション開発環境、キャッシュフリートなど、高性能と高スループットの恩恵を受けるアプリケーション。

  • Mac
  • Amazon EC2 Mac インスタンスにより、お客様は、クラウドでオンデマンドの macOS ワークロードを実行できるようになり、すべての Apple デベロッパーが AWS の柔軟性、スケーラビリティ、およびコストメリットの恩恵を受けることができます。Amazon EC2 Mac インスタンスを利用することで、iPhone、iPad、Mac、Vision Pro、Apple Watch、Apple TV、Safari 向けのアプリケーションを作成することができます。これらのインスタンスは、デベロッパーが Xcode IDE を必要とするアプリケーションを開発、構築、テスト、署名できるように macOS へのアクセスを提供します。EC2 Mac インスタンスは専用のベアメタルインスタンスで、EC2 コンソールと AWS コマンドラインインターフェイス経由で専有ホストとしてアクセスできます。

    x86 ベースの EC2 Mac インスタンスには、以下の特徴を持つ、Mac mini コンピュータの組み合わせが搭載されています:

    • インテル第 8 世代 3.2 GHz (4.6GHz ターボ) Core i7 プロセッサ
    • 物理コア 6 個、論理コア 12 個
    • 32 GiB のメモリ
    • Amazon Elastic Block Store (EBS) 経由でインスタンスストレージを利用可能
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    mac1.metal 12 32 EBS のみ 10 8

    EC2 M1 Mac インスタンスには、以下の特徴を持つ、Apple シリコン Mac mini コンピュータの組み合わせが搭載されています:

    • 8 CPU コアを持つ Apple M1 チップ
    • 8 GPU コア
    • 16 GiB のメモリ
    • 16 コア Apple Neural Engine
    • Amazon Elastic Block Store (EBS) 経由でインスタンスストレージを利用可能
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    mac2.metal 8 16 EBS のみ 10 8

    EC2 M2 Mac インスタンスには、以下の特徴を持つ、Apple シリコン Mac mini コンピュータの組み合わせが搭載されています:

    • 8 CPU コアを持つ Apple M2 チップ
    • 10 GPU コア
    • 24 GiB のメモリ
    • 16 コア Apple Neural Engine
    • Amazon Elastic Block Store (EBS) 経由でインスタンスストレージを利用可能
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    mac2-m2.metal 8 24 EBS のみ 10 8

    EC2 M2 Pro Mac インスタンスには、以下の特徴を持つ、Apple シリコン Mac mini コンピュータの組み合わせが搭載されています:

    • 12 CPU コアを持つ Apple M2 Pro チップ
    • 19 GPU コア
    • 32 GiB のメモリ
    • 16 コア Apple Neural Engine
    • Amazon Elastic Block Store (EBS) 経由でインスタンスストレージを利用可能
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    mac2-m2pro.metal 12 32 EBS のみ 10 8

    ユースケース

    Xcode IDE での iOS、iPadOS、macOS、visionOS、WatchOS、および tvOS アプリケーションの開発、構築、テスト、および署名

  • M6g
  • Amazon EC2 M6g インスタンスは、Arm ベースの AWS Graviton2 プロセッサを使用します。価格/性能比は現世代の M5 インスタンスよりも最大 40% 向上しており、幅広いワークロードにおいて、バランスの取れたコンピューティング性能、メモリ、およびネットワーキング リソースを提供します。

    特徴:

    • 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
    • 最大 25 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
    • デフォルトで EBS 最適化済み
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
    • M6gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルのストレージを提供します
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps)
    m6g.medium 1 4 EBS のみ 最大 10 最大 4,750
    m6g.large 2 8 EBS のみ 最大 10 最大 4,750
    m6g.xlarge 4 16 EBS のみ 最大 10 最大 4,750
    m6g.2xlarge 8 32 EBS のみ 最大 10 最大 4,750
    m6g.4xlarge 16 64 EBS のみ 最大 10 4,750
    m6g.8xlarge 32 128 EBS のみ 12 9,000
    m6g.12xlarge 48 192 EBS のみ 20 13,500
    m6g.16xlarge 64 256 EBS のみ 25 19,000
    m6g.metal 64 256 EBS のみ 25 19,000
    m6gd.medium 1 4 1 x 59 NVMe SSD 最大 10 最大 4,750
    m6gd.large 2 8 1 x 118 NVMe SSD 最大 10 最大 4,750
    m6gd.xlarge 4 16 1 x 237 NVMe SSD 最大 10 最大 4,750
    m6gd.2xlarge 8 32 1 x 474 NVMe SSD 最大 10 最大 4,750
    m6gd.4xlarge 16 64 1 x 950 NVMe SSD 最大 10 4,750
    m6gd.8xlarge 32 128 1 x 1900 NVMe SSD 12 9,000
    m6gd.12xlarge 48 192 2 x 1425 NVMe SSD 20 13,500
    m6gd.16xlarge 64 256 2 x 1900 NVMe SSD 25 19,000
    m6gd.metal 64 256 2 x 1900 NVMe SSD 25 19,000

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    アプリケーションサーバー、マイクロサービス、ゲーミングサーバー、中規模データストア、キャッシングサーバー群など、オープンソースソフトウェア上に構築されたアプリケーション。

  • M6i
  • Amazon EC2 M6i インスタンスは、第 3 世代のインテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載しています。このファミリーは、バランスの取れたコンピューティング、メモリ、およびネットワークのリソースを提供し、多くのアプリケーションに適しています。

    特徴:

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • M5 インスタンスと比較して、コンピューティング料金パフォーマンスが最大 15% 向上
    • M5 インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 20% 向上
    • 最大 50 Gbps のネットワークスピード
    • Amazon Elastic Block Store (EBS) への最大 40 Gbps の帯域幅
    • 新しいインスタンスサイズ (32xlarge)、128 vCPU、512 GiB メモリ
    • 32xlarge とメタルサイズの Elastic Fabric Adapter に対応
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの処理を高速化するインテル Advanced Vector Extensions (AVX-512) の新命令をサポート
    • M6id インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、M6i インスタンスの寿命に連動するブロックレベルのストレージを提供
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    m6i.large 2 8 EBS のみ 最大 12.5 最大 10
    m6i.xlarge 4 16 EBS のみ 最大 12.5 最大 10
    m6i.2xlarge 8 32 EBS のみ 最大 12.5 最大 10
    m6i.4xlarge 16 64 EBS のみ 最大 12.5 最大 10
    m6i.8xlarge 32 128 EBS のみ 12.5 10
    m6i.12xlarge 48 192 EBS のみ 18.75 15
    m6i.16xlarge 64 256 EBS のみ 25 20
    m6i.24xlarge 96 384 EBS のみ 37.5 30
    m6i.32xlarge 128 512 EBS のみ 50 40
    m6i.metal 128 512 EBS のみ 50 40
    m6id.large 2 8 1x118 NVMe SSD 最大 12.5 最大 10
    m6id.xlarge 4 16 1x237 NVMe SSD 最大 12.5 最大 10
    m6id.2xlarge 8 32 1x474 NVMe SSD 最大 12.5 最大 10
    m6id.4xlarge 16 64 1x950 NVMe SSD 最大 12.5 最大 10
    m6id.8xlarge 32 128 1x1900 NVMe SSD 12.5 10
    m6id.12xlarge 48 192 2x1425 NVMe SSD 18.75 15
    m6id.16xlarge 64 256 2x1900 NVMe SSD 25 20
    m6id.24xlarge 96 384 4x1425 NVMe SSD 37.5 30
    m6id.32xlarge 128 512 4x1900 NVMe SSD 50 40
    m6id.metal 128 512 4x1900 NVMe SSD 50 40

    ユースケース

    これらのインスタンスは SAP 認定を受けており、エンタープライズアプリケーションをサポートするバックエンドサーバー (Microsoft Exchange、SharePoint、SAP Business Suite、MySQL、Microsoft SQL Server、PostgreSQL データベースなど)、ゲームサーバー、キャッシュサーバーフリートなどのワークロードや、アプリケーション開発環境に最適です。

  • M6in
  • Amazon EC2 M6in および M6idn インスタンスは、バックエンドサーバー、エンタープライズ、ゲームサーバー、キャッシングフリートアプリケーションなどのネットワーク集約型ワークロードに最適です。第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載し、オールコアターボ周波数は 3.5 GHz で、最大 200 Gbps のネットワーク帯域幅と最大 80 Gbps の Amazon EBS 帯域幅を提供します。

    特徴:

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • M5n および M5dn インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 20% 向上
    • M5n、M5dn インスタンスと比較して最大 2 倍となる最大 200 Gbps のネットワーク速度
    • M5n、M5dn インスタンスと比較して最大 5.2 倍となる最大 100 Gbps の EBS 帯域幅
    • 32xlarge および metal サイズでの EFA サポート
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの処理を高速化するインテル Advanced Vector Extensions (AVX-512) の新命令をサポート
    • M6idn インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、M6idn インスタンスの寿命に連動するブロックレベルのストレージを提供
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンス vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    m6in.large 2 8 EBS のみ
    最大 25 最大 25
    m6in.xlarge 4 16 EBS のみ 最大 30 最大 25
    m6in.2xlarge 8 32 EBS のみ 最大 40 最大 25
    m6in.4xlarge 16 64 EBS のみ 最大 50 最大 25
    m6in.8xlarge 32 128 EBS のみ 50 25
    m6in.12xlarge 48 192 EBS のみ 75 37.5
    m6in.16xlarge 64 256 EBS のみ 100 50
    m6in.24xlarge 96 384 EBS のみ 150 75
    m6in.32xlarge 128 512 EBS のみ 200**** 100
    m6in.metal 128 512 EBS のみ 200**** 100
    m6idn.large 2 8

    1x118 NVMe SSD

    最大 25 最大 25
    m6idn.xlarge 4 16 1x237 NVMe SSD 最大 30 最大 25
    m6idn.2xlarge 8 32 1x474 NVMe SSD 最大 40 最大 25
    m6idn.4xlarge 16 64

    1x950 NVMe SSD

    最大 50 最大 25
    m6idn.8xlarge 32 128

    1x1900 NVMe SSD

    50 25
    m6idn.12xlarge 48 192 2x1425 NVMe SSD 75 37.5
    m6idn.16xlarge 64 256 2x1900 NVMe SSD 100 50
    m6idn.24xlarge 96 384 4x1425 NVMe SSD 150 75
    m6idn.32xlarge 128 512 4x1900 NVMe SSD 200**** 100
    m6idn.metal 128 512 4x1900 NVMe SSD 200**** 100

    ****32xlarge および metal サイズの場合、200 Gbps のスループットを達成するために、それぞれ異なるネットワークカードにアタッチされた、少なくとも 2 つの Elastic Network Interface がインスタンス上に必要です。ネットワークカードにアタッチされた各ネットワークインターフェイスは、最大 170 Gbps を達成できます。詳細については、「ネットワークカード」を参照

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース:

    これらのインスタンスは SAP 認定を受けており、高いネットワークスループットを活用できるワークロード。ワークロードには、高性能ファイルシステム、分散型ウェブスケールインメモリキャッシュ、キャッシングフリート、リアルタイムビッグデータ分析、5G User Plane Function (UPF) などの通信事業者アプリケーション、およびアプリケーション開発環境などが含まれます。

  • M6a
  • Amazon EC2 M6a インスタンスは、第 3 世代の AMD EPYC プロセッサを搭載し、汎用的なワークロードに最適です。

    特徴:

    • 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
    • M5a インスタンスと比較して、コンピューティング料金パフォーマンスが最大 35% 向上
    • 最大 50 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 40 Gbps の帯域幅
    • 最大 192 vCPU と 768 GiB のメモリを搭載したインスタンスサイズ
    • SAP 認定インスタンス
    • 48xlarge サイズの Elastic Fabric Adapter に対応
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • AMD Transparent Single Key Memory Encryption (TSME) による常時メモリ暗号化のサポート   
    • 暗号アルゴリズムの実行を高速化する AMD Advanced Vector Extensions (AVX-2) の新命令をサポート
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    m6a.large 2 8 EBS のみ 最大 12.5 最大 10
    m6a.xlarge 4 16 EBS のみ 最大 12.5 最大 10
    m6a.2xlarge 8 32 EBS のみ 最大 12.5 最大 10
    m6a.4xlarge 16 64 EBS のみ 最大 12.5 最大 10
    m6a.8xlarge 32 128 EBS のみ 12.5 10
    m6a.12xlarge 48 192 EBS のみ 18.75 15
    m6a.16xlarge 64 256 EBS のみ 25 20
    m6a.24xlarge 96 384 EBS のみ 37.5 30
    m6a.32xlarge 128 512 EBS のみ 50 40
    m6a.48xlarge 192 768 EBS のみ 50 40
    m6a.metal 192 768 EBS のみ 50 40

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    これらのインスタンスは SAP 認定を受けており、エンタープライズアプリケーションをサポートするバックエンドサーバー (Microsoft Exchange、SharePoint、SAP Business Suite、MySQL、Microsoft SQL Server、PostgreSQL データベースなど)、マルチプレイヤーゲームサーバー、キャッシュサーバーフリートなどのワークロードや、アプリケーション開発環境に最適です。

  • M5
  • Amazon EC2 M5 インスタンスは、インテル Xeon® Platinum 8175M あるいは、8259CL プロセッサを搭載した最新世代の汎用インスタンスです。これらのインスタンスでは、コンピューティング、メモリ、ネットワークの各リソースがバランスよく提供されるため、多くのアプリケーションに適しています。

    特徴:

    • 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した最大 3.1 GHz のインテル Xeon スケーラブルプロセッサ (Skylake 8175M または Cascade Lake 8259CL)
    • 96 個の vCPU と 384 GiB のメモリを提供する、さらに大きな新しいインスタンスサイズの m5.24xlarge
    • 拡張ネットワーキングを採用した最大 25 Gbps のネットワーク帯域幅
    • ENA および NVMe 用のドライバーを含む HVM AMI が必要
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
    • M5d インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、M5 インスタンスの寿命に連係するブロックレベルのストレージを提供
    • 8xlarge と 16xlarge のサイズが新たに利用可能になりました。
    インスタンスサイズ
    vCPU メモリ (GiB) インスタンスストレージ
    (GB)
    ネットワーク帯域幅 (Gbps)***
    EBS 帯域幅 (Mbps)
    m5.large 2 8 EBS のみ 最大 10 最大 4,750
    m5.xlarge 4 16 EBS のみ 最大 10 最大 4,750
    m5.2xlarge 8 32 EBS のみ 最大 10 最大 4,750
    m5.4xlarge 16 64 EBS のみ 最大 10 4,750
    m5.8xlarge 32 128 EBS のみ 10 6,800
    m5.12xlarge 48 192 EBS のみ 12 9,500
    m5.16xlarge 64 256 EBS のみ 20 13,600
    m5.24xlarge 96 384 EBS のみ 25 19,000
    m5.metal 96* 384 EBS のみ 25 19,000
    m5d.large 2 8 1 x 75 NVMe SSD 最大 10 最大 4,750
    m5d.xlarge 4 16 1 x 150 NVMe SSD 最大 10 最大 4,750
    m5d.2xlarge 8 32 1 x 300 NVMe SSD 最大 10 最大 4,750
    m5d.4xlarge 16 64 2 x 300 NVMe SSD 最大 10 4,750
    m5d.8xlarge 32 128 2 x 600 NVMe SSD 10 6,800
    m5d.12xlarge 48 192 2 x 900 NVMe SSD 12 9,500
    m5d.16xlarge 64 256 4 x 600 NVMe SSD 20 13,600
    m5d.24xlarge 96 384 4 x 900 NVMe SSD 25 19,000
    m5d.metal 96* 384 4 x 900 NVMe SSD 25 19,000

    * m5.metal と m5d.metal では 48 個の物理コアに 96 個の論理プロセッサが提供されます。これらはインテルの物理ソケットを 2 個搭載した 1 台のサーバー上で稼働します。

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    小規模/中規模のデータベース、追加のメモリが必要となるデータ処理タスク、キャッシングフリート、および SAP、Microsoft SharePoint、クラスターコンピューティング、その他エンタープライズアプリケーションのためのバックエンドサーバーの実行

  • M5n
  • Amazon EC2 M5 インスタンスはウェブやアプリケーションサーバー、小規模/中規模データベース、クラスターコンピューティング、ゲーミングサーバー、キャッシングフリートなど、コンピューティング、メモリ、およびネットワーク間でバランスを必要とするワークロードに最適です。より高い帯域幅、M5n と M5dn、インスタンスのバリアントは、より優れたネットワークスループットおよびパケット率パフォーマンスを活用できるアプリケーションにおいて理想的です。
    機能:

    • 持続的な全コアターボ CPU 周波数最大 3.1 GHz、最大シングルコアのターボ周波数最大 3.5 GHz を備えた第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8259CL) の搭載
    • 新しいインテル Vector Neural Network Instructions (AVX-512 VNNI) のサポートも提供されています。これは、畳み込みなどの典型的な機械学習の演算速度を向上させます。また、幅広い分野の深層学習ワークロードで推論パフォーマンスを自動的に向上させます。
    • 小さめのインスタンスサイズにおけるピーク帯域幅 25 Gbps 
    • 最大インスタンスサイズにおけるネットワーク帯域幅 100 Gbps
    • ENA および NVMe 用のドライバーを含む HVM AMI が必要
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動 
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ 
    • M5dn インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、M5 インスタンスの寿命に連係するブロックレベルのストレージを提供
    インスタンスサイズ
    vCPU メモリ (GiB) インスタンスストレージ
    (GB)
    ネットワーク帯域幅 (Gbps)***
    EBS 帯域幅 (Mbps)
    m5n.large 2 8 EBS のみ 最大 25 最大 4,750
    m5n.xlarge 4 16 EBS のみ 最大 25 最大 4,750
    m5n.2xlarge 8 32 EBS のみ 最大 25 最大 4,750
    m5n.4xlarge 16 64 EBS のみ 最大 25 4,750
    m5n.8xlarge 32 128 EBS のみ 25 6,800
    m5n.12xlarge 48 192 EBS のみ 50 9,500
    m5n.16xlarge 64 256 EBS のみ 75 13,600
    m5n.24xlarge 96 384 EBS のみ 100 19,000
    m5n.metal 96* 384 EBS のみ 100 19,000
    m5dn.large 2 8 1 x 75 NVMe SSD 最大 25 最大 4,750
    m5dn.xlarge 4 16 1 x 150 NVMe SSD 最大 25 最大 4,750
    m5dn.2xlarge 8 32 1 x 300 NVMe SSD 最大 25 最大 4,750
    m5dn.4xlarge 16 64 2 x 300 NVMe SSD 最大 25 4,750
    m5dn.8xlarge 32 128 2 x 600 NVMe SSD 25 6,800
    m5dn.12xlarge 48 192 2 x 900 NVMe SSD 50 9,500
    m5dn.16xlarge 64 256 4 x 600 NVMe SSD 75 13,600
    m5dn.24xlarge 96 384 4 x 900 NVMe SSD 100 19,000
    m5dn.metal 96* 384 4 x 900 NVMe SSD 100 19,000

    * m5n.metal および m5dn.metal は、48 個の物理コアに 96 個の論理プロセッサを提供します。

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    ウェブとアプリケーションサーバー、小規模/大規模データベース、クラスターコンピューティング、ゲーミングサーバー、キャッシングフリート、その他のエンタープライズアプリケーション

  • M5zn
  • Amazon EC2 M5zn インスタンスは、クラウドで最速のインテル Xeon スケーラブルプロセッサを搭載し、最大 4.5 GHz のオールコアターボ周波数を備えています。

    特徴:

    • 最大 4.5 GHz となるオールコアターボ周波数の第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8252C)
    • 最大インスタンス規模とベアメタルバリアントで、最大 100 Gbps のネットワーク帯域幅
    • Amazon Elastic Block Store へ最大 19 Gbps
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • 12x と M5zn インスタンスのメタルサイズが最新世代の Elastic Network Adapter を活用し、Elastic Fabric Adapter での一貫した低レイテンシーを実現
    インスタンスサイズ vCPU メモリ (GiB)
    インスタンスストレージ
    (GB)

    ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps)
    m5zn.large 2 8 EBS のみ 最大 25 最大 3,170
    m5zn.xlarge 4 16 EBS のみ 最大 25 最大 3,170
    m5zn.2xlarge 8 32 EBS のみ 最大 25 3,170
    m5zn.3xlarge 12 48 EBS のみ 最大 25 4,750
    m5zn.6xlarge 24 96 EBS のみ 50 9,500
    m5zn.12xlarge 48 192 EBS のみ 100 19,000
    m5zn.metal 48 192 EBS のみ 100 19,000
    2 x 300 NVMe SSD
    2 x 300 NVMe SSD

    ユースケース

    M5zn インスタンスは、非常に高いシングルスレッドパフォーマンスと高スループット、ハイパフォーマンスコンピューティングなどの低レイテンシーネットワーキング、ならびに自動車、航空宇宙、エネルギー、および通信業界向けのシミュレーションモデリングの恩恵を受けるアプリケーションに最適です。

  • M5a
  • Amazon EC2 M5a インスタンスは、AMD EPYC 7000 シリーズプロセッサを搭載した最新世代の汎用インスタンスです。M5a インスタンスは、同等のインスタンスタイプに比べて最大 10% のコスト削減を実現します。 M5ad インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連動するブロックレベルのストレージを提供します。

    特徴:

    • 全コアターボのクロック速度が 2.5 GHz の AMD EPYC 7000 シリーズプロセッサ (AMD EPYC 7571)
    • 拡張ネットワーキングを使用した最大 20 Gbps のネットワーク帯域幅
    • ENA および NVMe 用のドライバーを含む HVM AMI が必要
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
    • M5ad インスタンスでは、NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、M5a インスタンスの寿命に連動するブロックレベルのストレージを提供
    インスタンスサイズ vCPU メモリ (GiB)
    インスタンスストレージ
    (GB)

    ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps)
    m5a.large 2 8 EBS のみ 最大 10 最大 2,880
    m5a.xlarge 4 16 EBS のみ 最大 10 最大 2,880
    m5a.2xlarge 8 32 EBS のみ 最大 10 最大 2,880
    m5a.4xlarge 16 64 EBS のみ 最大 10 2,880
    m5a.8xlarge 32 128 EBS のみ 最大 10 4,750
    m5a.12xlarge 48 192 EBS のみ 10 6,780
    m5a.16xlarge 64 256 EBS のみ 12 9,500
    m5a.24xlarge 96 384 EBS のみ 20 13,570
    m5ad.large 2 8 1 x 75 NVMe SSD 最大 10 最大 2,880
    m5ad.xlarge 4 16 1 x 150 NVMe SSD 最大 10 最大 2,880
    m5ad.2xlarge 8 32 1 x 300 NVMe SSD 最大 10 最大 2,880
    m5ad.4xlarge 16 64 2 x 300 NVMe SSD 最大 10 2,880
    m5ad.8xlarge 32 128 2 x 600 NVMe SSD 最大 10 4,750
    m5ad.12xlarge 48 192 2 x 900 NVMe SSD 10 6,870
    m5ad.16xlarge 64 256 4 x 600 NVMe SSD 12 9,500
    m5ad.24xlarge 96 384 4 x 900 NVMe SSD 20 13,570

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    小規模/中規模のデータベース、追加のメモリが必要となるデータ処理タスク、キャッシングフリート、および SAP、Microsoft SharePoint、クラスターコンピューティング、その他エンタープライズアプリケーションのためのバックエンドサーバーの実行

  • M4
  • Amazon EC2 M4 インスタンスでは、コンピューティング、メモリ、ネットワークの各リソースがバランスよく提供されるため、多くのアプリケーションに適しています。

    特徴:

    • 最大 2.4 GHz のインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4 または Haswell E5-2676 v3)
    • デフォルトで EBS 最適化、追加料金なし
    • 拡張ネットワークのサポート
    • コンピューティング、メモリ、ネットワークリソースのバランス
    インスタンス vCPU* メモリ (GiB) ストレージ 専用 EBS 帯域幅 (Mbps) ネットワークパフォーマンス ***
    m4.large 2 8 EBS のみ 450
    m4.xlarge 4 16 EBS のみ 750
    m4.2xlarge 8 32 EBS のみ 1,000
    m4.4xlarge 16 64 EBS のみ 2,000
    m4.10xlarge 40 160 EBS のみ 4,000 10 ギガビット
    m4.16xlarge 64 256 EBS のみ 10,000 25 ギガビット

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    小規模/中規模のデータベース、追加のメモリが必要となるデータ処理タスク、キャッシングフリート、および SAP、Microsoft SharePoint、クラスターコンピューティング、その他エンタープライズアプリケーションのためのバックエンドサーバーの実行。

  • T4g
  • Amazon EC2 T4g インスタンスは、Arm ベースのカスタムビルドの AWS Graviton2 プロセッサを搭載していて、T3 インスタンスよりも最大 40% 高いコストパフォーマンスを発揮します。対象は、多岐にわたるバースト可能な汎用ワークロードです。

    T4g インスタンスは、ワークロードがベースライン未満で動作しているときに CPU クレジットを獲得します。取得した CPU クレジット 1 つにつき、必要なときに T4g インスタンスで CPU コアをフルパフォーマンスで 1 分間バーストできます。Unlimited モードでは、T4g インスタンスはいつでも必要な時間バーストすることができます。

    特徴:

    • t4g.small インスタンスの無料トライアルは、2024 年 12 月 31 日まで (1 か月あたり最大 750 時間)。詳細については、よくある質問をご覧ください。
    • CPU クレジットと、一貫したベースラインパフォーマンスによって制御されるバースト可能な CPU
    • ピーク期間中のパフォーマンスを確保するデフォルトの Unlimited モードと、予測可能な月額コストで使えるスタンダードモードオプション
    • 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
    • デフォルトで EBS 最適化済み
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) ベースラインパフォーマンス/vCPU CPU クレジット取得/時間 ネットワークバースト幅 (Gbps)*** EBS バースト幅 (Mbps)
    t4g.nano 2 0.5 5% 6 最大 5 最大 2,085
    t4g.micro 2 1 10% 12 最大 5 最大 2,085
    t4g.small 2 2 20% 24 最大 5 最大 2,085
    t4g.medium 2 4 20% 24 最大 5 最大 2,085
    t4g.large 2 8 30% 36 最大 5 最大 2,780
    t4g.xlarge 4 16 40% 96 最大 5 最大 2,780
    t4g.2xlarge 8 32 40% 192 最大 5 最大 2,780

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース:

    マイクロサービス、低レイテンシーのインタラクティブアプリケーション、小規模/中規模のデータベース、仮想デスクトップ、開発環境、コードリポジトリ、およびビジネスクリティカルなアプリケーション。

  • T3
  • Amazon EC2 T3 インスタンスは次世代の汎用バーストインスタンスタイプで、ベースラインレベルの CPU パフォーマンスと共に、いつでも必要に応じて CPU 使用率をバーストできる機能を備えています。T3 インスタンスはバランスの取れたコンピューティング、メモリ、およびネットワークのリソースを提供し、使用中に一時的なスパイクが生じる中程度の CPU 使用率を持つアプリケーション向けに設計されています。

    T3 インスタンスは、ワークロードがベースライン値未満で動作しているときに CPU クレジットを加算します。取得した CPU クレジット 1 つにつき、必要なときに T3 インスタンスで CPU コアをフルパフォーマンスで 1 分間バーストできます。Unlimited モードでは、T3 インスタンスはいつでも必要な時間バーストできます。

    特徴:

    • 最大 3.1 GHz のインテル Xeon スケーラブルプロセッサ (Skylake 8175M または Cascade Lake 8259CL)
    • CPU クレジットと、一貫したベースラインパフォーマンスによって制御されるバースト可能な CPU
    • ピーク期間中のパフォーマンスを確保するデフォルトの Unlimited モードと、予測可能な月額コストで使えるスタンダードモードオプション
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • AWS Nitro System と高周波インテル Xeon スケーラブルプロセッサによって、価格性能比が T2 インスタンスよりも最大 30% 向上
    インスタンス vCPU* CPU クレジット/時間 メモリ (GiB) ストレージ ネットワークパフォーマンス (Gbps)***
    t3.nano 2
    6
    0.5 EBS のみ 最大 5
    t3.micro 2
    12
    1 EBS のみ
    最大 5
    t3.small 2
    24
    2 EBS のみ
    最大 5
    t3.medium 2 24
    4 EBS のみ
    最大 5
    t3.large 2 36
    8 EBS のみ 最大 5
    t3.xlarge 4 96
    16 EBS のみ 最大 5
    t3.2xlarge 8 192
    32 EBS のみ 最大 5

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース:

    マイクロサービス、低レイテンシーのインタラクティブアプリケーション、小規模/中規模のデータベース、仮想デスクトップ、開発環境、コードリポジトリ、およびビジネスクリティカルなアプリケーション

  • T3a
  • Amazon EC2 T3a インスタンスは次世代の汎用バーストインスタンスタイプで、ベースラインレベルの CPU パフォーマンスと共に、いつでも必要に応じて CPU 使用率をバーストできる機能を備えています。T3a インスタンスはバランスの取れたコンピューティング、メモリ、およびネットワークのリソースを提供し、使用中に一時的なスパイクが生じるような中程度の CPU 使用率を持つアプリケーション向けに設計されています。T3a インスタンスは、同等のインスタンスタイプに比べて最大 10% のコスト削減を実現します。

    T3a インスタンスは、ワークロードがベースライン未満で動作しているときに、CPU クレジットを加算します。取得した CPU クレジット1 つにつき、必要なときに T3a インスタンスで CPU コアをフルパフォーマンスで 1 分間バーストできます。Unlimited モードの T3a インスタンスは、いつでも必要な時間バーストできます。

    特徴:

    • 全コアターボのクロック速度が 2.5 GHz の AMD EPYC 7000 シリーズプロセッサ (AMD EPYC 7571)
    • CPU クレジットと、一貫したベースラインパフォーマンスによって制御されるバースト可能な CPU
    • ピーク期間中のパフォーマンスを確保するデフォルトの Unlimited モードと、予測可能な月額コストで使えるスタンダードモードオプション
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンス vCPU* CPU クレジット/時間 メモリ (GiB) ストレージ ネットワークパフォーマンス (Gbps)***
    t3a.nano 2
    6
    0.5 EBS のみ 最大 5
    t3a.micro 2
    12
    1 EBS のみ
    最大 5
    t3a.small 2
    24
    2 EBS のみ
    最大 5
    t3a.medium 2 24
    4 EBS のみ
    最大 5
    t3a.large 2 36
    8 EBS のみ 最大 5
    t3a.xlarge 4 96
    16 EBS のみ 最大 5
    t3a.2xlarge 8 192
    32 EBS のみ 最大 5

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース:

    マイクロサービス、低レイテンシーのインタラクティブアプリケーション、小規模/中規模のデータベース、仮想デスクトップ、開発環境、コードリポジトリ、およびビジネスクリティカルなアプリケーション

  • T2
  • Amazon EC2 T2 インスタンスは、ベースラインレベルの CPU パフォーマンスを提供し、ベースラインを超えてバーストする機能を備えているバーストパフォーマンスインスタンスです。

    T2 Unlimited インスタンスは、ワークロードが必要とする時間だけ高 CPU パフォーマンスを維持できます。T2 Unlimited インスタンスはほとんどの汎用ワークロードについて追加料金なしで十分なパフォーマンスを提供します。長時間にわたって高い CPU 使用率でインスタンスを実行する必要がある場合でも、固定の追加料金 (vCPU 時間あたり 5 セント) で実行できます。

    ベースラインパフォーマンスとバースト機能は、CPU クレジットによって制御されます。T2 インスタンスは継続的に、インスタンスサイズに応じて規定のレートで CPU クレジットを獲得します。アイドル状態のときには CPU クレジットが加算され、アクティブなときに CPU クレジットを消費します。T2 インスタンスはマイクロサービス、低レイテンシーのインタラクティブアプリケーション、小規模および中規模のデータベース、仮想デスクトップ、開発、構築、およびステージ環境、コードリポジトリ、製品プロトタイプなどの幅広い汎用ワークロードに最適です。詳細については、バースト可能パフォーマンスインスタンスを参照してください。

    特徴:

    • 最大 3.3 GHz のインテル Xeon スケーラブルプロセッサ (Haswell E5-2676 v3 または Broadwell E5-2686 v4)
    • 高クロックのインテル Xeon プロセッサ
    • CPU クレジットと、一貫したベースラインパフォーマンスによって制御されるバースト可能な CPU
    • 無料利用枠で使える低コストな汎用インスタンスタイプ*
    • コンピューティング、メモリ、ネットワークリソースのバランス

    * t2.micro のみ。T2 Unlimited として設定すると、平均 CPU 使用率がインスタンスのベースラインを越えた場合に料金が発生することがあります。詳細については、こちらのドキュメントを参照してください。

    インスタンス vCPU* CPU クレジット/時間
    メモリ (GiB)  ストレージ
    ネットワークパフォーマンス
    t2.nano 1 3 0.5 EBS のみ
    t2.micro 1 6 1 EBS のみ
    低~中
    t2.small 1 12 2 EBS のみ
    低~中
    t2.medium 2 24 4 EBS のみ
    低~中
    t2.large 2 36 8 EBS のみ 低~中
    t2.xlarge 4 54 16 EBS のみ
    t2.2xlarge 8 81 32 EBS のみ

    すべてのインスタンスの仕様は以下のとおりです

    • インテル AVX†、インテルターボ†
    • t2.nano、t2.micro、t2.small、t2.medium には最大 3.3 GHz のインテル Xeon スケーラブルプロセッサが搭載されています
    • t2.large、t2.xlarge、および t2.2xlarge には最大 3.0 GHz のインテルスケーラブルプロセッサが搭載されています

    ユースケース

    ウェブサイトやウェブアプリケーション、開発環境、ビルドサーバー、コードリポジトリ、マイクロサービス、テストやステージングの環境、基幹業務アプリケーション。 

Graviton ベースの Amazon EC2 インスタンスの各 vCPU は、AWS Graviton プロセッサのコアです。

Graviton ベースではない Amazon EC2 インスタンスの各 vCPU は、M7a インスタンス、T2 インスタンスと m3.medium を除き、x86 ベースのプロセッサのスレッドとなります。

† AVX、AVX2、拡張ネットワーキングは、HVM AMI で起動したインスタンスでのみ使用可能です。

* これは、このインスタンスタイプで提供されている vCPU のデフォルトの最大数です。このインスタンスタイプの起動時には、任意の数の vCPU を指定できます。有効な vCPU 数と、この機能の使用開始方法に関する詳細については、こちらの CPU 最適化のドキュメントページをご覧ください。

** これらの M4 インスタンスは、インテル Xeon E5-2686 v4 (Broadwell) プロセッサで起動する場合があります。 

*** ネットワーク帯域幅が「最大」と表示されているインスタンスは、ベースライン帯域幅を持ち、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えるバーストをベストエフォートの原則で行うことができます。詳細については、「インスタンスネットワーク帯域幅」を参照してください。

コンピューティング最適化

コンピューティング最適化インスタンスは、高パフォーマンスプロセッサの恩恵を受けるコンピューティングバウンドなアプリケーションに最適です。 このカテゴリに属するインスタンスは、バッチ処理ワークロード、メディアトランスコーディング、ハイパフォーマンスウェブサーバー、ハイパフォーマンスコンピューティング (HPC)、科学モデリング、専用ゲームサーバーおよび広告サーバーエンジン、機械学習推論、および他のコンピューティングを多用するアプリケーションに最適です。

  • C7g
  • Amazon EC2 C7g インスタンスは、Arm ベースの AWS Graviton3 プロセッサを使用します。計算量の多いアプリケーションに対して、Amazon EC2 の中で最高の料金パフォーマンスを実現します。

    特徴:

    • カスタムビルドの AWS Graviton3 プロセッサを搭載
    • DDR4 比で帯域幅が 50% 多い最新の DDR5 メモリを搭載
    • C6g インスタンスと比較して、ネットワーク帯域幅が 20% 強化
    • デフォルトで EBS 最適化済み
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
    • C7gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルストレージを提供します
    • c7g.16xlarge、c7g.metal、c7gd.16xlarge、c7gd.metal インスタンスで Elastic Fabric Adapter をサポートします
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    c7g.medium

    1

    2

    EBS のみ

    最大 12.5

    最大 10

    c7g.large

    2

    4

    EBS のみ

    最大 12.5

    最大 10

    c7g.xlarge

    4

    8

    EBS のみ

    最大 12.5

    最大 10

    c7g.2xlarge

    8

    16

    EBS のみ

    最大 15

    最大 10

    c7g.4xlarge

    16

    32

    EBS のみ

    最大 15

    最大 10

    c7g.8xlarge

    32

    64

    EBS のみ

    15

    10

    c7g.12xlarge

    48

    96

    EBS のみ

    22.5

    15

    c7g.16xlarge

    64

    128

    EBS のみ

    30

    20

    c7g.metal 64 128 EBS のみ 30 20

    c7gd.medium

    1

    2

    1 x 59 NVMe SSD

    最大 12.5

    最大 10

    c7gd.large

    2

    4

    1 x 118 NVMe SSD

    最大 12.5

    最大 10

    c7gd.xlarge

    4

    8

    1 x 237 NVMe SSD

    最大 12.5

    最大 10

    c7gd.2xlarge

    8

    16

    1 x 474 NVMe SSD

    最大 15

    最大 10

    c7gd.4xlarge

    16

    32

    1 x 950 NVMe SSD

    最大 15

    最大 10

    c7gd.8xlarge

    32

    64

    1 x 1900 NVMe SSD

    15

    10

    c7gd.12xlarge

    48

    96

    2 x 1425 NVMe SSD

    22.5

    15

    c7gd.16xlarge

    64

    128

    2 x 1900 NVMe SSD

    30

    20

    c7gd.metal

    64

    128

    2 x 1900 NVMe SSD

    30

    20

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    ハイパフォーマンスコンピューティング (HPC)、バッチ処理、広告配信、動画エンコーディング、ゲーム、科学的モデリング、分散分析、および CPU ベースの機械学習推論。

  • C7gn
  • Amazon EC2 C7gn インスタンスは、Arm ベースの AWS Graviton3E プロセッサを使用します。C7gn インスタンスは、現世代の同等の x86 ベースのネットワーク最適化インスタンスと比較して、最大 200 Gbps のネットワーク帯域幅と vCPU あたり最大 3 倍高いパケット処理パフォーマンスを提供します。

    特徴:

    • カスタムビルドの AWS Graviton3E プロセッサを搭載
    • DDR4 比で帯域幅が 50% 多い最新の Double Data Rate 5 (DDR5) メモリを搭載
    • 最大 200 Gbps のネットワーク帯域幅
    • Amazon Elastic Block Store (EBS) への最大 40 Gbps の帯域幅
    • C6gn インスタンスと比較して、ネットワーク帯域幅が 2 倍強化
    • デフォルトで EBS 最適化済み
    • c7gn.16xlarge インスタンスの Elastic Fabric Adapter (EFA) に対応
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    c7gn.medium

    1

    2

    EBS のみ

    最大 25

    最大 10

    c7gn.large

    2

    4

    EBS のみ

    最大 30

    最大 10

    c7gn.xlarge

    4

    8

    EBS のみ

    最大 40

    最大 10

    c7gn.2xlarge

    8

    16

    EBS のみ

    最大 50

    最大 10

    c7gn.4xlarge

    16

    32

    EBS のみ

    50

    最大 10

    c7gn.8xlarge

    32

    64

    EBS のみ

    100

    最大 20

    c7gn.12xlarge

    48

    96

    EBS のみ

    150

    最大 30

    c7gn.16xlarge

    64

    128

    EBS のみ

    200

    最大 40

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース
    ネットワーク仮想アプライアンス、データ分析、CPU ベース人工知能および機械学習 (AI/ML) 推論などのネットワーク集約型ワークロード

  • C7i
  • Amazon EC2 C7i インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、C6i インスタンスより 15% 優れた料金パフォーマンスを実現します。

    特徴:

    • 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
    • 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
    • 2 種類のメタルサイズ: c7i.metal-24xl と c7i.metal-48xl
    • 専用の組み込みアクセラレータ (C7i ベアメタルサイズでのみ使用可能)— Data Streaming Accelerator (DSA)、In-Memory Analytics Accelerator (IAA)、QuickAssist Technology (QAT)— データ操作の効率的なオフロードと高速化を実現し、データベース、暗号化と圧縮、およびキュー管理のワークロードのパフォーマンスを最適化
    • DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • インスタンスあたり最大 128 EBS ボリュームアタッチメントをサポート
    • 最大 192 基の vCPU と 384 GiB のメモリ
    • 48xlarge サイズと metal-48xl サイズの Elastic Fabric Adapterをサポート
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro Systemを搭載
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    c7i.large

    2

    4

    EBS のみ

    最大 12.5

    最大 10

    c7i.xlarge

    4

    8

    EBS のみ

    最大 12.5

    最大 10

    c7i.2xlarge

    8

    16

    EBS のみ

    最大 12.5

    最大 10

    c7i.4xlarge

    16

    32

    EBS のみ

    最大 12.5

    最大 10

    c7i.8xlarge

    32

    64

    EBS のみ

    12.5

    10

    c7i.12xlarge

    48

    96

    EBS のみ

    18.75

    15

    c7i.16xlarge

    64

    128

    EBS のみ

    25

    20

    c7i.24xlarge

    96

    192

    EBS のみ

    37.5

    30

    c7i.48xlarge

    192

    384

    EBS のみ

    50

    40

    c7i.metal-24xl

    96

    192

    EBS のみ

    37.5

    30

    c7i.metal-48xl

    192

    384

    EBS のみ

    50

    40

    すべてのインスタンスの仕様は以下のとおりです:

    ユースケース

    C7i インスタンスは、バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、広告配信、高度スケーラブルマルチプレイヤーゲーム、動画エンコーディングのような、コンピューティング集約型ワークロードに理想的です。

  • C7a
  • 第 4 世代 AMD EPYC プロセッサを搭載した Amazon EC2 C7a インスタンスは、C6a インスタンスと比較して最大 50% 高いパフォーマンスを発揮します。

    特徴:

    • 最大 3.7 GHz の第 4 世代 AMD EPYC プロセッサ (AMD EPYC 9R14)
    • 最大 50 Gbps のネットワーク帯域幅
    • Amazon Elastic Block Store (Amazon EBS) への最大 40 Gbps の帯域幅
    • 最大 192 vCPU と 384 GiB のメモリを搭載したインスタンスサイズ
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • AMD のセキュアメモリ暗号化 (SME) による常時メモリ暗号化のサポート
    • AVX-512、VNNI、bfloat16 などの新しいプロセッサー機能をサポート
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)

    c7a.medium

    1

    2

    EBS のみ

    最大 12.5

    最大 10

    c7a.large

    2

    4

    EBS のみ

    最大 12.5

    最大 10

    c7a xlarge

    4

    8

    EBS のみ

    最大 12.5

    最大 10

    c7a.2xlarge

    8

    16

    EBS のみ

    最大 12.5

    最大 10

    c7a.4xlarge

    16

    32

    EBS のみ

    最大 12.5

    最大 10

    c7a.8xlarge

    32

    64

    EBS のみ

    12.5

    10

    c7a.12xlarge

    48

    96

    EBS のみ

    18.75

    15

    c7a.16xlarge

    64

    128

    EBS のみ

    25

    20

    c7a.24xlarge

    96

    192

    EBS のみ

    37.5

    30

    c7a.32xlarge

    128

    256

    EBS のみ

    50

    40

    c7a.48xlarge

    192

    384

    EBS のみ

    50

    40

    c7a.metal-48xl

    192

    384

    EBS のみ

    50

    40

    ユースケース

    バッチ処理、分散分析、ハイパフォーマンスコンピューティング(HPC)、広告配信、拡張性の高いマルチプレイヤーゲーム、ビデオエンコーディングなど、 コンピューティング集約型ワークロード。
     

  • C6g
  • Amazon EC2 C6g インスタンスは、Arm ベースの AWS Graviton2 プロセッサを使用します。コンピューティング集約型アプリケーションに対して、現在の世代の C5 インスタンスよりも最大 40% 高い料金パフォーマンスを提供します。

    特徴:

    • 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
    • 最大 25 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
    • デフォルトで EBS 最適化済み
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • C6gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルのストレージを提供します
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps)
    c6g.medium 1 2 EBS のみ 最大 10 最大 4,750
    c6g.large 2 4 EBS のみ 最大 10 最大 4,750
    c6g.xlarge 4 8 EBS のみ 最大 10 最大 4,750
    c6g.2xlarge 8 16 EBS のみ 最大 10 最大 4,750
    c6g.4xlarge 16 32 EBS のみ 最大 10 4,750
    c6g.8xlarge 32 64 EBS のみ 12 9,000
    c6g.12xlarge 48 96 EBS のみ 20 13,500
    c6g.16xlarge 64 128 EBS のみ 25 19,000
    c6g.metal 64 128 EBS のみ 25 19,000
    c6gd.medium 1 2 1 x 59 NVMe SSD 最大 10 最大 4,750
    c6gd.large 2 4 1 x 118 NVMe SSD 最大 10 最大 4,750
    c6gd.xlarge 4 8 1 x 237 NVMe SSD 最大 10 最大 4,750
    c6gd.2xlarge 8 16 1 x 474 NVMe SSD 最大 10 最大 4,750
    c6gd.4xlarge 16 32 1 x 950 NVMe SSD 最大 10 4,750
    c6gd.8xlarge 32 64 1 x 1900 NVMe SSD 12 9,000
    c6gd.12xlarge 48 96 2 x 1425 NVMe SSD 20 13,500
    c6gd.16xlarge 64 128 2 x 1900 NVMe SSD 25 19,000
    c6gd.metal 64 128 2 x 1900 NVMe SSD 25 19,000

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    ハイパフォーマンスコンピューティング (HPC)、バッチ処理、広告配信、動画エンコーディング、ゲーム、科学的モデリング、分散分析、および CPU ベースの機械学習推論。

  • C6gn
  • Amazon EC2 C6gn インスタンスは、Arm ベースの AWS Graviton2 プロセッサを搭載しています。このインスタンスは現行世代の C5n インスタンスよりも最大 40% 優れたコストパフォーマンスと、最大 100 Gbps のネットワークを提供します。また、ハイパフォーマンスコンピューティング (HPC)、ネットワークアプライアンス、リアルタイム動画通信、データ分析など、より高いネットワークスループットを必要とするアプリケーション向けの Elastic Fabric Adapter (EFA) をサポートしています。

    特徴:

    • 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
    • 最大 100 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
    • c6gn.16xlarge インスタンスでの EFA サポート
    • デフォルトで EBS 最適化済みで、C5n インスタンスと比較して 2 倍の EBS 帯域幅
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    c6gn.medium

    1

    2

    EBS のみ

    最大 16

    最大 9.5

    c6gn.large

    2

    4

    EBS のみ

    最大 25

    最大 9.5

    c6gn.xlarge

    4

    8

    EBS のみ

    最大 25

    最大 9.5

    c6gn.2xlarge

    8

    16

    EBS のみ

    最大 25

    最大 9.5

    c6gn.4xlarge

    16

    32

    EBS のみ

    最大 25

    9.5

    c6gn.8xlarge

    32

    64

    EBS のみ

    50

    19

    c6gn.12xlarge

    48

    96

    EBS のみ

    75

    28.5

    c6gn.16xlarge

    64

    128

    EBS のみ

    100

    38

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    ハイパフォーマンスのウェブサーバー、科学的モデリング、バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、ネットワークアプライアンス、機械学習/深層学習推論、広告サービス、拡張性の高いマルチプレイヤーゲーム、動画エンコーディング。

  • C6i
  • Amazon EC2 C6i インスタンスは、第 3 世代のインテル Xeon スケーラブルプロセッサを搭載しており、計算量の多いワークロードに最適です。

    特徴:

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • C5 インスタンスと比較して、コンピューティング料金パフォーマンスが最大 15% 向上
    • C5 インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 9% 向上
    • 最大 50 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 40 Gbps の帯域幅
    • 新しいインスタンスサイズ (32xlarge)、128 vCPU、256 GiB メモリ
    • 32xlarge とメタルサイズの Elastic Fabric Adapter に対応
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extensions (AVX 512) の新命令をサポート
    • C6id インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、C6id インスタンスの寿命に連動するブロックレベルのストレージを提供
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    c6i.large

    2

    4

    EBS のみ

    最大 12.5

    最大 10

    c6i.xlarge

    4

    8

    EBS のみ

    最大 12.5

    最大 10

    c6i.2xlarge

    8

    16

    EBS のみ

    最大 12.5

    最大 10

    c6i.4xlarge

    16

    32

    EBS のみ

    最大 12.5

    最大 10

    c6i.8xlarge

    32

    64

    EBS のみ

    12.5

    10

    c6i.12xlarge

    48

    96

    EBS のみ

    18.75

    15

    c6i.16xlarge

    64

    128

    EBS のみ

    25

    20

    c6i.24xlarge

    96

    192

    EBS のみ

    37.5

    30

    c6i.32xlarge

    128

    256

    EBS のみ

    50

    40

    c6i.metal 128 256 EBS のみ 50 40

    c6id.large

    2

    4

    1x118 NVMe SSD

    最大 12.5

    最大 10

    c6id.xlarge

    4

    8

    1x237 NVMe SSD

    最大 12.5

    最大 10

    c6id.2xlarge

    8

    16

    1x474 NVMe SSD

    最大 12.5

    最大 10

    c6id.4xlarge

    16

    32

    1x950 NVMe SSD

    最大 12.5

    最大 10

    c6id.8xlarge

    32

    64

    1x1900 NVMe SSD

    12.5

    10

    c6id.12xlarge

    48

    96

    2x1425 NVMe SSD

    18.75

    15

    c6id.16xlarge

    64

    128

    2x1900 NVMe SSD

    25

    20

    c6id.24xlarge

    96

    192

    4x1425 NVMe SSD

    37.5

    30

    c6id.32xlarge

    128

    256

    4x1900 NVMe SSD

    50

    40

    c6id.metal 128 256 4x1900 NVMe SSD 50 40

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    バッチ処理、分散分析、ハイパフォーマンスコンピューティング(HPC)、広告配信、拡張性の高いマルチプレイヤーゲーム、ビデオエンコーディングなど、計算量の多いワークロード。

  • C6in
  • Amazon EC2 C6in インスタンスは、ネットワーク仮想アプライアンス、データ分析、ハイパフォーマンスコンピューティング (HPC)、CPU ベースの AI/機械学習など、ネットワーク集約型ワークロードに最適です。それらは、3.5 GHz のオールコアターボ周波数を備えた第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載しています。C6in インスタンスは、最大 200 Gbps のネットワーク帯域幅と最大 80 Gbps の Amazon Elastic Block Store (EBS) 帯域幅を提供します。 C6in.32xlarge および C6in.metal インスタンスは、Elastic Fabric Adapter (EFA) をサポートしています。 EFA は、Amazon EC2 インスタンスのネットワークインターフェイスであり、AWS で大規模に Message Passing Interface (MPI) ライブラリを使用する HPC アプリケーションなど、高レベルのノード間通信を必要とするアプリケーションを実行するために使用できます。

    特徴:

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • C5n インスタンスと比較して最大 2 倍となる最大 200 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
    • C5n インスタンスと比較して最大 5.2 倍となる最大 100 Gbps の EBS 帯域幅
    • 32xlarge および metal サイズでの EFA サポート
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの処理を高速化するインテル Advanced Vector Extensions (AVX-512) の新命令をサポート
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    c6in.large

    2

    4

    EBS のみ

    最大 25

    最大 25

    c6in.xlarge

    4

    8

    EBS のみ

    最大 30

    最大 25

    c6in.2xlarge

    8

    16

    EBS のみ

    最大 40

    最大 25

    c6in.4xlarge

    16

    32

    EBS のみ

    最大 50

    最大 25

    c6in.8xlarge

    32

    64

    EBS のみ

    50

    25

    c6in.12xlarge

    48

    96

    EBS のみ

    75

    37.5

    c6in.16xlarge

    64

    128

    EBS のみ

    100

    50

    c6in.24xlarge

    96

    192

    EBS のみ

    150

    75

    c6in.32xlarge 128 256 EBS のみ 200**** 100
    c6in.メタル 128 256 EBS のみ 200**** 100


    ****32xlarge およびメタルサイズの場合、200 Gbps のスループットを達成するために、それぞれ異なるネットワークカードにアタッチされた少なくとも 2 つの Elastic Network Interface がインスタンス上に必要です。ネットワークカードにアタッチされた各ネットワークインターフェイスは、最大 170 Gbps を達成できます。詳細については、「ネットワークカード」を参照

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    分散コンピューティングアプリケーション、ネットワーク仮想アプライアンス、データ分析、ハイパフォーマンスコンピューティング (HPC)、CPU ベースの AI/機械学習など、高いネットワーク帯域幅や高いパケット処理パフォーマンスを必要とするコンピューティング集約型ワークロード。

  • C6a
  • Amazon C6a インスタンスは、第 3 世代の AMD EPYC プロセッサを搭載し、計算量の多いワークロード向けに設計されています。

    特徴:

    • 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
    • C5a インスタンスと比較して、コンピューティング料金パフォーマンスが最大 15% 向上
    • 最大 50 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 40 Gbps の帯域幅
    • 最大サイズで、最大 192 vCPU と 384 GiB のメモリ
    • SAP 認定インスタンス
    • 48xlarge サイズの Elastic Fabric Adapter に対応
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • AMD Transparent Single Key Memory Encryption (TSME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの実行を高速化する AMD Advanced Vector Extensions (AVX-2) の新命令をサポート
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    c6a.large 2 4 EBS のみ 最大 12.5 最大 10
    c6a.xlarge 4 8 EBS のみ 最大 12.5 最大 10
    c6a.2xlarge 8 16 EBS のみ 最大 12.5 最大 10
    c6a.4xlarge 16 32 EBS のみ 最大 12.5 最大 10
    c6a.8xlarge 32 64 EBS のみ 12.5 10
    c6a.12xlarge 48 96 EBS のみ 18.75 15
    c6a.16xlarge 64 128 EBS のみ 25 20
    c6a.24xlarge 96 192 EBS のみ 37.5 30
    c6a.32xlarge 128 256 EBS のみ 50 40
    c6a.48xlarge 192 384 EBS のみ 50 40
    c6a.metal 192 384 EBS のみ 50 40

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    バッチ処理、分散分析、ハイパフォーマンスコンピューティング(HPC)、広告配信、拡張性の高いマルチプレイヤーゲーム、ビデオエンコーディングなど、計算量の多いワークロード。

  • C5
  • Amazon EC2 C5 インスタンスは、コンピューティング集約型ワークロードのために最適化されており、低いコンピューティングあたりの価格率でコスト効率性が高い優れたパフォーマンスを実現します。

    特徴:

    • C5 インスタンスでは、インスタンスサイズに応じてプロセッサを選択できます。
    • C5 および C5d の 12xlarge、24xlarge、metal インスタンスサイズは、第 2 世代カスタムインテル Xeon スケーラブルプロセッサ (Cascade Lake 8275CL) を搭載しています。持続的な全コアターボ周波数は最大 3.6 GHz、シングルコアのターボ周波数は最大 3.9 GHz です。 
    • その他の C5 インスタンスサイズは、第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8223CL) または第 1 世代インテル Xeon Platinum 8000 シリーズ (Skylake 8124M) プロセッサを搭載しています。持続的な全コアターボ周波数は最大 3.4 GHz、シングルコアのターボ周波数は最大 3.5 GHz です。
    • 新しくより大きな 24xlarge インスタンスサイズは、96 vCPUs、192 GiB のメモリ、オプションで 3.6TB ローカル NVMe-based SSD を搭載
    • ENA および NVMe 用のドライバーを含む HVM AMI が必要
    • C5d インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、C5 インスタンスの寿命に連係するブロックレベルのストレージを提供
    • Elastic Network Adapter (ENA) は、最大 25 Gbps のネットワーク帯域幅および最大 19 Gbps の Amazon EBS 専用帯域幅を C5 インスタンスに提供します。
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    モデル vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)***
    EBS 帯域幅 (Mbps)
    c5.large 2 4 EBS のみ 最大 10 最大 4,750
    c5.xlarge 4 8 EBS のみ 最大 10 最大 4,750
    c5.2xlarge 8 16 EBS のみ 最大 10 最大 4,750
    c5.4xlarge 16 32 EBS のみ 最大 10 4,750
    c5.9xlarge 36 72 EBS のみ 12 9,500
    c5.12xlarge 48 96 EBS のみ 12 9,500
    c5.18xlarge 72 144 EBS のみ 25 19,000
    c5.24xlarge 96 192 EBS のみ 25 19,000
    c5.metal 96 192 EBS のみ 25 19,000
    c5d.large 2 4 1 x 50 NVMe SSD 最大 10 最大 4,750
    c5d.xlarge 4 8 1 x 100 NVMe SSD 最大 10 最大 4,750
    c5d.2xlarge 8 16 1 x 200 NVMe SSD 最大 10 最大 4,750
    c5d.4xlarge 16 32 1 x 400 NVMe SSD 最大 10 4,750
    c5d.9xlarge 36 72 1 x 900 NVMe SSD 12 9,500
    c5d.12xlarge 48 96 2 x 900 NVMe SSD 12 9,500
    c5d.18xlarge 72 144 2 x 900 NVMe SSD 25 19,000
    c5d.24xlarge 96 192 4 x 900 NVMe SSD 25 19,000
    c5d.metal 96 192 4 x 900 NVMe SSD 25 19,000

    C5 および C5d の 12xlarge、24xlarge、および metal インスタンスの仕様は以下のとおりです。

    その他の C5 および C5d 全インスタンスには以下の仕様があります。

    ユースケース

    高性能のウェブサーバー、科学的モデリング、バッチ処理、分散分析、高性能コンピューティング (HPC)、機械学習/深層学習推論、広告サービス、拡張性の高いマルチプレイヤーゲーム、および動画エンコーディング。

  • C5n
  • Amazon EC2 C5n インスタンスは、向上したネットワークスループットおよびパケットレートパフォーマンスの利点を活かせるハイコンピューティングアプリケーション (ハイパフォーマンスコンピューティング (HPC) ワークロード、データレイク、ファイアウォールおよびルーターといったネットワークアプリケーション等) に最適です。C5n インスタンスの最大 100 Gbps のネットワーク帯域幅および増量されたメモリは、C5 インスタンスを凌駕しています。 C5n.18xlarge インスタンスは Elastic Fabric Adapter (EFA) をサポートしています。これは Amazon EC2 インスタンスのネットワークインターフェイスで、これにより、Message Passing Interface (MPI) を使用するハイパフォーマンスコンピューティング (HPC) アプリケーションのような高レベルのノード間通信を要するアプリケーションを、AWS で大規模に実行できるようになります。

    特徴:

    • インテル Advanced Vector Extension 512 (AVX-512) の命令セットを搭載した、3.0 GHz インテル Xeon Platinum プロセッサ (Skylake 8124)
    • 最大 3.4GHz の全コアターボクロックと、最大 3.5GHz のシングルコアターボクロックを維持
    • 72 個の vCPU と 192 GiB のメモリを提供する、さらに大きなインスタンスサイズの c5n.18xlarge
    • ENA および NVMe 用のドライバーを含む HVM AMI が必要
    • ネットワーク帯域幅が最大 100 Gbps に拡張し、ネットワーク負荷の大きいアプリケーションのパフォーマンスを向上します。
    • c5n.18xlarge インスタンスでの EFA サポート
    • C5 インスタンスより 33% 大きいメモリ占有量
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    モデル vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)***
    EBS 帯域幅 (Mbps)
    c5n.large 2 5.25 EBS のみ 最大 25
    最大 4,750
    c5n.xlarge 4 10.5 EBS のみ 最大 25 最大 4,750
    c5n.2xlarge 8 21 EBS のみ 最大 25 最大 4,750
    c5n.4xlarge 16 42 EBS のみ 最大 25 4,750
    c5n.9xlarge 36 96
    EBS のみ 50 9,500
    c5n.18xlarge 72 192 EBS のみ 100 19,000
    c5n.metal 72 192 EBS のみ 100 19,000

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    高性能のウェブサーバー、科学的モデリング、バッチ処理、分散分析、高性能コンピューティング (HPC)、機械学習/深層学習推論、広告サービス、拡張性の高いマルチプレイヤーゲーム、および動画エンコーディング。

  • C5a
  • Amazon EC2 C5a インスタンスは、幅広いコンピューティング集中型ワークロード向けに、優れた x86 のコストパフォーマンスを提供します。

    特徴:

    • 最大 3.3 GHz の周波数で動作する第 2 世代 AMD EPYC 7002 シリーズプロセッサ (AMD EPYC 7R32)
    • Elastic Network Adapter (ENA) は、最大 20 Gbps のネットワーク帯域幅および最大 9.5 Gbps の Amazon EBS 専用帯域幅を C5a インスタンスに提供します
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • C5ad インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、C5a インスタンスの寿命に連係するブロックレベルのストレージを提供します。
    モデル vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)***
    EBS 帯域幅 (Mbps)
    c5a.large 2 4 EBS のみ 最大 10
    最大 3,170
    c5a.xlarge 4 8 EBS のみ 最大 10 最大 3,170
    c5a.2xlarge 8 16 EBS のみ 最大 10 最大 3,170
    c5a.4xlarge 16 32 EBS のみ 最大 10 最大 3,170
    c5a.8xlarge 32 64
    EBS のみ 10 3,170
    c5a.12xlarge 48 96 EBS のみ 12 4,750
    c5a.16xlarge 64 128 EBS のみ 20 6,300
    c5a.24xlarge 96 192 EBS のみ 20 9,500
    c5ad.large 2 4 1 x 75 NVMe SSD 最大 10 最大 3,170
    c5ad.xlarge 4 8 1 x 150 NVMe SSD 最大 10 最大 3,170
    c5ad.2xlarge 8 16 1 x 300 NVMe SSD 最大 10 最大 3,170
    c5ad.4xlarge 16 32 2 x 300 NVMe SSD 最大 10 最大 3,170
    c5ad.8xlarge 32 64 2 x 600 NVMe SSD 10 3,170
    c5ad.12xlarge 48 96 2 x 900 NVMe SSD 12 4,750
    c5ad.16xlarge 64 128 2 x 1200 NVMe SSD 20 6,300
    c5ad.24xlarge 96 192 2 x 1900 NVMe SSD 20 9,500

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    C5a インスタンスは、バッチ処理、分散分析、データ変換、ゲーミング、ログ分析、ウェブアプリケーション、その他のコンピューティング集約型ワークロードなど、帯域幅の広い vCPU とメモリを必要とするワークロードに最適です。

  • C4
  • C4 インスタンスは、コンピューティング集約型ワークロードのために最適化されており、低いコンピューティングあたりの価格率でコスト効率性が極めて高い優れたパフォーマンスを実現します。

    特徴:

    • 最大 2.9 GHz のインテル Xeon スケーラブルプロセッサ (Haswell E5-2666 v3)
    • EC2 用に特別に最適化された高クロックのインテル Xeon E5-2666 v3 (Haswell) プロセッサ
    • 追加料金なしでストレージパフォーマンスを向上させるデフォルトの EBS 最適化
    • インテル 82599 VF をサポートする拡張ネットワーキングによる、より優れたネットワーキングパフォーマンス
    • Amazon VPC、Amazon EBS、および 64 ビットの HVM AMI が必要
    インスタンス vCPU* メモリ (GiB) ストレージ 専用 EBS 帯域幅 (Mbps) ネットワークパフォーマンス
    c4.large 2 3.75 EBS のみ 500
    c4.xlarge 4 7.5 EBS のみ 750
    c4.2xlarge 8 15 EBS のみ 1,000
    c4.4xlarge 16 30 EBS のみ 2,000
    c4.8xlarge 36 60 EBS のみ 4,000 10 ギガビット

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    高パフォーマンスのフロントエンドフリート、ウェブサーバー、バッチ処理、分散型分析、高パフォーマンスの科学アプリケーションとエンジニアリングアプリケーション、広告配信、MMO ゲーム、および動画エンコーディング。

Graviton ベースの Amazon EC2 インスタンスの各 vCPU は、AWS Graviton プロセッサのコアとなります。

非 Graviton ベースの Amazon EC2 インスタンスの各 vCPU は、C7a インスタンスとを除き、x86 ベースのプロセッサのスレッドとなります。

† AVX、AVX2、拡張ネットワーキングは、HVM AMI で起動したインスタンスでのみ使用可能です。

* これは、このインスタンスタイプで提供されている vCPU のデフォルトの最大数です。このインスタンスタイプの起動時には、任意の数の vCPU を指定できます。有効な vCPU 数と、この機能の使用開始方法に関する詳細については、こちらの CPU 最適化のドキュメントページをご覧ください。

*** ネットワーク帯域幅が「最大」と表示されているインスタンスは、ベースライン帯域幅を持ち、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えるバーストをベストエフォートの原則で行うことができます。詳細については、「インスタンスネットワーク帯域幅」を参照してください。

メモリ最適化

メモリ最適化インスタンスは、メモリ内の大きいデータセットを処理するワークロードに対して高速なパフォーマンスを実現するように設計されています。

  • R8g
  • 現在プレビュー版の Amazon EC2 R8g インスタンスは、AWS Graviton4 プロセッサを搭載しています。メモリ最適化アプリケーションに最適です。

    特徴:

    • カスタムビルドの AWS Graviton4 プロセッサを搭載
    • R7g インスタンスと比べて最大 3 倍の vCPU とメモリを備えた大容量のインスタンスを提供
    • 最新の DDR5-5600 メモリを搭載
    • デフォルトで Amazon EBS 向けに最適化されています
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動

    すべてのインスタンスの仕様は以下のとおりです:

    ユースケース

    オープンソースデータベース、インメモリキャッシュ、リアルタイムビッグデータ分析などのメモリ集約型ワークロード。

  • R7g
  • Amazon EC2 R7g インスタンスには、AWS Graviton3 プロセッサが搭載されています。メモリ最適化アプリケーションに対して、Amazon EC2 の中で高い料金パフォーマンスを実現します。

    特徴:

    • カスタムビルドの AWS Graviton3 プロセッサを搭載
    • DDR4 と比較し帯域幅が 50% 多い DDR5 メモリを搭載
    • R6g インスタンスと比較して、ネットワーク帯域幅が 20% 強化
    • デフォルトで EBS 最適化済み
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
    • R7gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルストレージを提供します
    • r7g.16xlarge、r7g.metal、r7gd.16xlarge、r7gd.metal インスタンスで Elastic Fabric Adapter (EFA) をサポート
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)

    r7g.medium

    1

    8

    EBS のみ

    最大 12.5

    最大 10

    r7g.large

    2

    16

    EBS のみ

    最大 12.5

    最大 10

    r7g.xlarge

    4

    32

    EBS のみ

    最大 12.5

    最大 10

    r7g.2xlarge

    8

    64

    EBS のみ

    最大 15

    最大 10

    r7g.4xlarge

    16

    128

    EBS のみ

    最大 15

    最大 10

    r7g.8xlarge

    32

    256

    EBS のみ

    15

    10

    r7g.12xlarge

    48

    384

    EBS のみ

    22.5

    15

    r7g.16xlarge

    64

    512

    EBS のみ

    30

    20

    r7g.metal

    64

    512

    EBS のみ

    30

    20

    r7gd.medium

    1

    8

    1 x 59 NVMe SSD

    最大 12.5

    最大 10

    r7gd.large

    2

    16

    1 x 118 NVMe SSD

    最大 12.5

    最大 10

    r7gd.xlarge

    4

    32

    1 x 237 NVMe SSD

    最大 12.5

    最大 10

    r7gd.2xlarge

    8

    64

    1 x 474 NVMe SSD

    最大 15

    最大 10

    r7gd.4xlarge

    16

    128

    1 x 950 NVMe SSD

    最大 15

    最大 10

    r7gd.8xlarge

    32

    256

    1 x 1900 NVMe SSD

    15

    10

    r7gd.12xlarge

    48

    384

    2 x 1425 NVMe SSD

    22.5

    15

    r7gd.16xlarge

    64

    512

    2 x 1900 NVMe SSD

    30

    20

    r7gd.metal

    64

    512

    2 x 1900 NVMe SSD

    30

    20

    すべてのインスタンスの仕様は以下のとおりです。

    ユースケース

    オープンソースデータベース、インメモリキャッシュ、リアルタイムビッグデータ分析などのメモリ集約型ワークロード。

  • R7i
  • Amazon EC2 R7i インスタンスは、第 4 世代インテル Xeon スケーラブルプロセッサを搭載しており、R6i インスタンスより 15% 優れた料金パフォーマンスを実現します。

    特徴:

    • 最大 3.2 GHz の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 8488C)
    • 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化
    • 2 種類のメタルサイズ: r7i.metal-24xl と r7i.metal-48xl
    • 専用の組み込みアクセラレータ (R7i ベアメタルサイズでのみ使用可能)— Data Streaming Accelerator (DSA)、In-Memory Analytics Accelerator (IAA)、QuickAssist Technology (QAT)— データ操作の効率的なオフロードと高速化を実現し、データベース、暗号化と圧縮、およびキュー管理のワークロードのパフォーマンスを最適化
    • DDR4 に比べて広い帯域幅を提供する最新の DDR5 メモリ
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • インスタンスあたり最大 128 EBS ボリュームアタッチメントをサポート
    • 最大 192 基の vCPU と 1,536GiB のメモリ
    • 48xlarge サイズと metal-48xl サイズの Elastic Fabric Adapterをサポート
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro Systemを搭載
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    r7i.large

    2

    16

    EBS のみ

    最大 12.5

    最大 10

    r7i.xlarge

    4

    32

    EBS のみ

    最大 12.5

    最大 10

    r7i.2xlarge

    8

    64

    EBS のみ

    最大 12.5

    最大 10

    r7i.4xlarge

    16

    128

    EBS のみ

    最大 12.5

    最大 10

    r7i.8xlarge

    32

    256

    EBS のみ

    12.5

    10

    r7i.12xlarge

    48

    384

    EBS のみ

    18.75

    15

    r7i.16xlarge

    64

    512

    EBS のみ

    25

    20

    r7i.24xlarge

    96

    768

    EBS のみ

    37.5

    30

    r7i.48xlarge

    192

    1,536

    EBS のみ

    50

    40

    r7i.metal-24xl

    96

    768

    EBS のみ

    37.5

    30

    r7i.metal-48xl

    192

    1,536

    EBS のみ

    50

    40

    すべてのインスタンスの仕様は以下のとおりです:

    ユースケース

    R7i インスタンスは SAP 認定を受けており、メモリを多用するワークロード (SQL および NoSQL データベース)、分散ウェブスケールインメモリキャッシュ (Memcached および Redis)、インメモリデータベース (SAP HANA)、およびリアルタイムのビッグデータ分析 (Apache Hadoop および Apache Spark クラスター) に最適です。

  • R7iz
  • Amazon EC2 R7iz インスタンスは、第 4 世代のインテル Xeon スケーラブルプロセッサを搭載しており、ハイコンピューティングおよびメモリ集約型ワークロードに最適です。

    特徴:

    • 最大 3.9 GHz となるオールコアターボ周波数の第 4 世代インテル Xeon スケーラブルプロセッサ (Sapphire Rapids 6455B)
    • z1d インスタンスより最大 20% 高いコンピューティングパフォーマンス
    • 新しい Advance Matrix Extensions (AMX) がマトリックス乗法演算を高速化 - あらゆるサイズで利用可能
    • ディスクリートビルトインアクセラレータ (R7iz ベアメタルサイズでのみ利用可能) - Data Streaming Accelerator (DSA)、インメモリ分析アクセラレータ (IAA)、QuickAssist Technology (QAT) - により、データ操作の効率的なオフロードとアクセラレーションが可能になります。これにより、データベース、暗号化と圧縮、キュー管理ワークロードのパフォーマンスを最適化
    • 最大 50 Gbps のネットワークスピード
    • Amazon Elastic Block Store (EBS)への最大 40 Gbps の帯域幅
    • 最大 128 vCPU と 1,024 GiB のメモリを搭載したインスタンスサイズ
    • 32xlarge サイズおよび metal-32xl サイズの Elastic Fabric Adapterをサポート
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)

    r7iz.large

    2

    16

    EBS のみ

    最大 12.5

    最大 10

    r7iz.xlarge

    4

    32

    EBS のみ

    最大 12.5

    最大 10

    r7iz.2xlarge

    8

    64

    EBS のみ

    最大 12.5

    最大 10

    r7iz.4xlarge

    16

    128

    EBS のみ

    最大 12.5

    最大 10

    r7iz.8xlarge

    32

    256

    EBS のみ

    12.5

    10

    r7iz.12xlarge

    48

    384

    EBS のみ

    25

    19

    r7iz.16xlarge

    64

    512

    EBS のみ

    25

    20

    r7iz.32xlarge

    128

    1,024

    EBS のみ

    50

    40

    r7iz.metal-16xl

    64

    512

    EBS のみ

    25

    20

    r7iz.metal-32xl

    128

    1,024

    EBS のみ

    50

    40

    ユースケース

    フロントエンドの Electronic Design Automation (EDA)、コアごとのライセンス料金が高いリレーショナルデータベースのワークロード、財務、保険数理、およびデータ分析シミュレーションのワークロードなど、コンピューティングとメモリ集中型のワークロード。

  • R7a
  • 第 4 世代 AMD EPYC プロセッサを搭載した Amazon EC2 R7a インスタンスは、R6a インスタンスと比較して最大 50% 高いパフォーマンスを発揮します。

    特徴:

    • 最大 3.7 GHz の第 4 世代 AMD EPYC プロセッサ (AMD EPYC 9R14)
    • 最大 50 Gbps のネットワーク帯域幅
    • Amazon Elastic Block Store への最大 40 Gbps の帯域幅
    • 最大 192 vCPU と 1,536 GiB のメモリを搭載したインスタンスサイズ
    • SAP 認定インスタンス
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • AMD のセキュアメモリー暗号化(SME)による常時メモリ暗号化のサポート
    • AVX3-512、VNNI、bfloat16 などの新しいプロセッサー機能をサポートします。
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)

    r7a.medium

    1

    8

    EBS のみ

    最大 12.5

    最大 10

    r7a.large

    2

    16

    EBS のみ

    最大 12.5

    最大 10

    r7a.xlarge

    4

    32

    EBS のみ

    最大 12.5

    最大 10

    r7a.2xlarge

    8

    64

    EBS のみ

    最大 12.5

    最大 10

    r7a.4xlarge

    16

    128

    EBS のみ

    最大 12.5

    最大 10

    r7a.8xlarge

    32

    256

    EBS のみ

    12.5

    10

    r7a.12xlarge

    48

    384

    EBS のみ

    18.75

    15

    r7a.16xlarge

    64

    512

    EBS のみ

    25

    20

    r7a.24xlarge

    96

    768

    EBS のみ

    37.5

    30

    r7a.32xlarge

    128

    1,024

    EBS のみ

    50

    40

    r7a.48xlarge

    192

    1,536

    EBS のみ

    50

    40

    r7a.metal-48xl

    192

    1,536

    EBS のみ

    50

    40

    ユースケース

    SQL および NoSQL データベース、分散型 Web スケールインメモリキャッシュ、インメモリデータベース、リアルタイムのビッグデータ分析、Electronic Design Automation (EDA) など、メモリ集中型のワークロード

  • R6g
  • Amazon EC2 R6g インスタンスは、Arm ベースの AWS Graviton2 プロセッサを使用します。メモリ集約型アプリケーションに対して、現在の世代の R5 インスタンスよりも最大 40% 高いコストパフォーマンスを提供します。

    特徴:

    • 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
    • 最大 25 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
    • デフォルトで EBS 最適化済み
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • R6gd インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続されており、インスタンスの寿命に連係するブロックレベルのストレージを提供します
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Mbps)
    r6g.medium 1 8 EBS のみ 最大 10 最大 4,750
    r6g.large 2 16 EBS のみ 最大 10 最大 4,750
    r6g.xlarge 4 32 EBS のみ 最大 10 最大 4,750
    r6g.2xlarge 8 64 EBS のみ 最大 10 最大 4,750
    r6g.4xlarge 16 128 EBS のみ 最大 10 4,750
    r6g.8xlarge 32 256 EBS のみ 12 9,000
    r6g.12xlarge 48 384 EBS のみ 20 13,500
    r6g.16xlarge 64 512 EBS のみ 25 19,000
    r6g.metal 64 512 EBS のみ 25 19,000
    r6gd.medium 1 8 1 x 59 NVMe SSD 最大 10 最大 4,750
    r6gd.large 2 16 1 x 118 NVMe SSD 最大 10 最大 4,750
    r6gd.xlarge 4 32 1 x 237 NVMe SSD 最大 10 最大 4,750
    r6gd.2xlarge 8 64 1 x 474 NVMe SSD 最大 10 最大 4,750
    r6gd.4xlarge 16 128 1 x 950 NVMe SSD 最大 10 4,750
    r6gd.8xlarge 32 256 1 x 1900 NVMe SSD 12 9,000
    r6gd.12xlarge 48 384 2 x 1425 NVMe SSD 20 13,500
    r6gd.16xlarge 64 512 2 x 1900 NVMe SSD 25 19,000
    r6gd.metal 64 512 2 x 1900 NVMe SSD 25 19,000

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    オープンソースデータベース、インメモリキャッシュ、リアルタイムビッグデータ分析などのメモリ集約型アプリケーション

  • R6i
  • Amazon R6i インスタンスは、第 3 世代のインテル Xeon スケーラブルプロセッサ (コードネーム: Ice Lake) を搭載しており、メモリ負荷の高いワークロードに最適です。

    特徴:

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • R5 インスタンスと比較して、コンピューティング料金パフォーマンスが最大 15% 向上
    • R5 インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 20% 向上
    • 最大 50 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 40 Gbps の帯域幅
    • 新しいインスタンスサイズ (32xlarge)、128 vCPU、1,024 GiB メモリ
    • 32xlarge とメタルサイズの Elastic Fabric Adapter に対応
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extension (AVX 512) の新命令をサポート
    • R6id インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、R6i インスタンスの寿命に連動するブロックレベルのストレージを提供
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    r6i.large 2 16 EBS のみ 最大 12.5 最大 10
    r6i.xlarge 4 32 EBS のみ 最大 12.5 最大 10
    r6i.2xlarge 8 64 EBS のみ 最大 12.5 最大 10
    r6i.4xlarge 16 128 EBS のみ 最大 12.5 最大 10
    r6i.8xlarge 32 256 EBS のみ 12.5 10
    r6i.12xlarge 48 384 EBS のみ 18.75 15
    r6i.16xlarge 64 512 EBS のみ 25 20
    r6i.24xlarge 96 768 EBS のみ 37.5 30
    r6i.32xlarge 128 1,024 EBS のみ 50 40
    r6i.metal 128 1,024 EBS のみ 50 40
    r6id.large 2 16 1x118 NVMe SSD 最大 12.5 最大 10
    r6id.xlarge 4 32 1x237 NVMe SSD 最大 12.5 最大 10
    r6id.2xlarge 8 64 1x474 NVMe SSD 最大 12.5 最大 10
    r6id.4xlarge 16 128 1x950 NVMe SSD 最大 12.5 最大 10
    r6id.8xlarge 32 256 1x1900 NVMe SSD 12.5 10
    r6id.12xlarge 48 384 2x1425 NVMe SSD 18.75 15
    r6id.16xlarge 64 512 2x1900 NVMe SSD 25 20
    r6id.24xlarge 96 768 4x1425 NVMe SSD 37.5 30
    r6id.32xlarge 128 1,024 4x1900 NVMe SSD 50 40
    r6id.metal 128 1,024 4x1900 NVMe SSD 50 40

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    SAP、SQL および NoSQL データベース、Memcached や Redis などの分散ウェブスケールインメモリキャッシュ、SAP HANA などのインメモリデータベース、Hadoop や Spark クラスターなどのリアルタイムビッグデータ分析などのメモリ負荷の高いワークロード。

  • R6in
  • Amazon EC2 R6in および R6idn インスタンスは、SAP、SQL、NoSQL データベース、SAP HANA などのインメモリデータベースなど、高いネットワーク帯域幅を活用できるメモリ集約型ワークロードに最適です。R6in および R6idn インスタンスは、最大 200 Gbps のネットワーク帯域幅と最大 80 Gbps の Amazon Elastic Block Store (EBS) 帯域幅を提供します。

    特徴:

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • R5n および R5dn インスタンスと比較して、vCPU あたりメモリ帯域幅が最大 20% 向上
    • R5n および R5dn インスタンスと比較して最大 2 倍となる最大 200 Gbps のネットワーク速度
    • R5b インスタンスの最大 1.6 倍となる最大 100 Gbps の EBS 帯域幅
    • 32xlarge および metal サイズの Elastic Fabric Adapter (EFA) をサポートします
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの処理を高速化するインテル Advanced Vector Extensions (AVX-512) の新命令をサポート
    • R6idn インスタンスでは、最大 7.6 TB の NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、R6idn インスタンスの寿命に連動するブロックレベルのストレージを提供
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    r6in.large 2 16 EBS のみ 最大 25 最大 25
    r6in.xlarge 4 32 EBS のみ 最大 30 最大 25
    r6in.2xlarge 8 64 EBS のみ 最大 40 最大 25
    r6in.4xlarge 16 128 EBS のみ 最大 50 最大 25
    r6in.8xlarge 32 256 EBS のみ 50 25
    r6in.12xlarge 48 384 EBS のみ 75 37.5
    r6in.16xlarge 64 512 EBS のみ 100 50
    r6in.24xlarge 96 768 EBS のみ 150 75
    r6in.32xlarge 128 1,024 EBS のみ 200**** 100
    r6in.metal 128 1,024 EBS のみ 200**** 100
    r6idn.large 2 16 1x118 NVMe SSD 最大 25 最大 25
    r6idn.xlarge 4 32 1x237 NVMe SSD 最大 30 最大 25
    r6idn.2xlarge 8 64 1x474 NVMe SSD 最大 40 最大 25
    r6idn.4xlarge 16 128 1x950 NVMe SSD 最大 50 最大 25
    r6idn.8xlarge 32 256 1x1900 NVMe SSD 50 25
    r6idn.12xlarge 48 384 2x1425 NVMe SSD 75 37.5
    r6idn.16xlarge 64 512 2x1900 NVMe SSD 100 50
    r6idn.24xlarge 96 768 4x1425 NVMe SSD 150 75
    r6idn.32xlarge 128 1,024 4x1900 NVMe SSD 200**** 100
    r6idn.metal 128 1,024 4x1900 NVMe SSD 200**** 100


    ****32xlarge および metal サイズの場合、200 Gbps のスループットを達成するために、それぞれ異なるネットワークカードにアタッチされた少なくとも 2 つの Elastic Network Interface がインスタンス上に必要です。ネットワークカードにアタッチされた各ネットワークインターフェイスは、最大 170 Gbps を達成できます。詳細については、ネットワークカードを参照してください。

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    SAP、SQL、NoSQL データベース、SAP HANA などのインメモリデータベースなど、高いネットワークスループットを活用できるメモリ集約型ワークロード。

  • R6a
  • Amazon EC2 R6a インスタンスは、第 3 世代の AMD EPYC プロセッサを搭載し、メモリ集約型ワークロードに最適です。

    特徴:

    • 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
    • R5a インスタンスと比較して、コンピューティング料金パフォーマンスが最大 35% 向上
    • 最大 50 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 40 Gbps の帯域幅
    • 最大 192 vCPU と 1,536 GiB のメモリを搭載したインスタンスサイズ
    • SAP 認定インスタンス
    • 48xlarge とメタルサイズの Elastic Fabric Adapter に対応
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • AMD Transparent Single Key Memory Encryption (TSME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの実行を高速化する AMD Advanced Vector Extensions (AVX-2) の新命令をサポート
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    r6a.large 2 16 EBS のみ 最大 12.5 最大 10
    r6a.xlarge 4 32 EBS のみ 最大 12.5 最大 10
    r6a.2xlarge 8 64 EBS のみ 最大 12.5 最大 10
    r6a.4xlarge 16 128 EBS のみ 最大 12.5 最大 10
    r6a.8xlarge 32 256 EBS のみ 12.5 10
    r6a.12xlarge 48 384 EBS のみ 18.75 15
    r6a.16xlarge 64 512 EBS のみ 25 20
    r6a.24xlarge 96 768 EBS のみ 37.5 30
    r6a.32xlarge 128 1,024 EBS のみ 50 40
    r6a.48xlarge 192 1,536 EBS のみ 50 40
    r6a.metal 192 1,536 EBS のみ 50 40

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    SAP、SQL、NoSQLデータベースなどのメモリ集約型ワークロード、MemcachedやRedisなどの分散型Webスケールインメモリキャッシュ、HadoopやSparkクラスターなどのインメモリデータベースやリアルタイムビッグデータ分析、その他エンタープライズアプリケーションなど

  • R5
  • Amazon EC2 R5 インスタンスは、vCPU ごとに R4 よりも 5% 多いメモリを提供し、最も大きいサイズでは 768 GiB のメモリが提供されます。さらに、R5 インスタンスは R4 と比較して GiB あたりの価格が 10% 低く、CPU パフォーマンスも最大 20% 高くなっています。

    特徴:

    • 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した最大 3.1 GHz のインテル Xeon® Platinum 8000 プロセッサ (Skylake 8175M または Cascade Lake 8259CL)
    • インスタンスあたりの最大メモリが 768 GiB
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • R5d インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、R5 インスタンスの寿命に連係するブロックレベルのストレージを提供
    • 8xlarge と 16xlarge のサイズが新たに利用可能になりました。
    インスタンス vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** EBS 帯域幅 (Mbps)
    r5.large 2 16 EBS のみ 最大 10 最大 4,750
    r5.xlarge 4 32 EBS のみ 最大 10 最大 4,750
    r5.2xlarge 8 64 EBS のみ 最大 10 最大 4,750
    r5.4xlarge 16 128 EBS のみ 最大 10 4,750
    r5.8xlarge 32 256 EBS のみ 10 6,800
    r5.12xlarge 48 384 EBS のみ 10 9,500
    r5.16xlarge 64 512 EBS のみ 20 13,600
    r5.24xlarge 96 768 EBS のみ 25 19,000
    r5.metal 96* 768 EBS のみ 25 19,000
    r5d.large 2 16 1 x 75 NVMe SSD 最大 10 最大 4,750
    r5d.xlarge 4 32 1 x 150 NVMe SSD 最大 10 最大 4,750
    r5d.2xlarge 8 64 1 x 300 NVMe SSD 最大 10 最大 4,750
    r5d.4xlarge 16 128 2 x 300 NVMe SSD 最大 10 4,750
    r5d.8xlarge 32 256 2 x 600 NVMe SSD 10 6,800
    r5d.12xlarge 48 384 2 x 900 NVMe SSD 10 9,500
    r5d.16xlarge 64 512 4 x 600 NVMe SSD 20 13,600
    r5d.24xlarge 96 768 4 x 900 NVMe SSD 25 19,000
    r5d.metal 96* 768 4 x 900 NVMe SSD 25 19,000

    * r5.metal と r5d.metal では 48 個の物理コアに 96 個の論理プロセッサが提供されます。これらにはインテルの物理ソケットを 2 個搭載した 1 台のサーバー上で稼働します。

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    R5 インスタンスは、高パフォーマンスデータベース、分散型ウェブスケールインメモリキャッシュ、中規模のインメモリデータベース、リアルタイムのビッグデータ分析、およびその他エンタープライズアプリケーションなどのメモリ集約型アプリケーションに最適です。

  • R5n
  • Amazon EC2 R5 インスタンスは、高パフォーマンスデータベース、ウェブスケールインの分散型インメモリキャッシュ、中規模インメモリデータベース、リアルタイムビッグデータ分析、その他のエンタープライズアプリケーションなど、メモリバウンドのワークロードに最適です。帯域幅がより広い、R5n と R5dn、インスタンスのバリアントは、高いネットワークスループットおよびパケット率パフォーマンスを活用できるアプリケーションに最適です。

    特徴:

    • 持続的な全コアターボ CPU 周波数最大 3.1 GHz、最大シングルコアのターボ周波数最大 3.5 GHz を備えた第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8259CL) の搭載
    • 新しいインテル Vector Neural Network Instructions (AVX-512 VNNI) のサポートも提供されています。これは、畳み込みなどの典型的な機械学習の演算速度を向上させます。また、幅広い分野の深層学習ワークロードで推論パフォーマンスを自動的に向上させます。
    • 小さめのインスタンスサイズにおけるピーク帯域幅 25 Gbps
    • 最大インスタンスサイズにおけるネットワーク帯域幅 100 Gbps
    • ENA および NVMe 用のドライバーを含む HVM AMI が必要
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
    • R5dn インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、R5 インスタンスの寿命に連係するブロックレベルのストレージを提供
    インスタンスサイズ
    vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** EBS 帯域幅 (Mbps)
    r5n.large 2 16 EBS のみ 最大 25 最大 4,750
    r5n.xlarge 4 32 EBS のみ 最大 25 最大 4,750
    r5n.2xlarge 8 64 EBS のみ 最大 25 最大 4,750
    r5n.4xlarge 16 128 EBS のみ 最大 25 4,750
    r5n.8xlarge 32 256 EBS のみ 25 6,800
    r5n.12xlarge 48 384 EBS のみ 50 9,500
    r5n.16xlarge 64 512 EBS のみ 75 13,600
    r5n.24xlarge 96 768 EBS のみ 100 19,000
    r5n.metal 96* 768 EBS のみ 100 19,000
    r5dn.large 2 16 1 x 75 NVMe SSD 最大 25 最大 4,750
    r5dn.xlarge 4 32 1 x 150 NVMe SSD 最大 25 最大 4,750
    r5dn.2xlarge 8 64 1 x 300 NVMe SSD 最大 25 最大 4,750
    r5dn.4xlarge 16 128 2 x 300 NVMe SSD 最大 25 4,750
    r5dn.8xlarge 32 256 2 x 600 NVMe SSD 25 6,800
    r5dn.12xlarge 48 384 2 x 900 NVMe SSD 50 9,500
    r5dn.16xlarge 64 512 4 x 600 NVMe SSD 75 13,600
    r5dn.24xlarge 96 768 4 x 900 NVMe SSD 100 19,000
    r5dn.metal 96* 768 4 x 900 NVMe SSD 100 19,000

    *r5n.metal および r5dn.metal は、48 個の物理コアに 96 個の論理プロセッサを提供します。

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    高パフォーマンスデータベース、ウェブ規模の分散型インメモリキャッシュ、中規模インメモリデータベース、リアルタイムビッグデータ分析、その他のエンタープライズアプリケーション。

  • R5b
  • Amazon EC2 R5b インスタンスは、メモリ最適化 R5 インスタンスの EBS 最適化バリアントです。R5b インスタンスは、同じサイズの R5 インスタンスと比較して EBS パフォーマンスが 3 倍向上しています。R5b インスタンスは、最大 60 Gbps の帯域幅と 260K IOPS の EBS パフォーマンスを提供します。これは、EC2 で最速のブロックストレージパフォーマンスです。

    特徴:

    • 持続的な全コアターボ CPU 周波数最大 3.1 GHz、最大シングルコアのターボ周波数最大 3.5 GHz を備えた第 2 世代カスタムインテル Xeon スケーラブルプロセッサ (Cascade Lake 8259CL) の搭載
    • 最大 96 個の vCPU、最大 768 GiB のメモリ
    • 最大 25 Gbps のネットワーク帯域幅
    • 最大 60 Gbps の EBS 帯域幅
    インスタンスサイズ
    vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** EBS 帯域幅 (Mbps)

    r5b.large

    2

    16

    EBS のみ

    最大 10

    最大 10,000

    r5b.xlarge

    4

    32

    EBS のみ

    最大 10

    最大 10,000

    r5b.2xlarge

    8

    64

    EBS のみ

    最大 10

    最大 10,000

    r5b.4xlarge

    16

    128

    EBS のみ

    最大 10

    10,000

    r5b.8xlarge

    32

    256

    EBS のみ

    10

    20,000

    r5b.12xlarge

    48

    384

    EBS のみ

    10

    30,000

    r5b.16xlarge

    64

    512

    EBS のみ

    20

    40,000

    r5b.24xlarge

    96

    768

    EBS のみ

    25

    60,000

    r5b.metal

    96*

    768

    EBS のみ

    25

    60,000

    ユースケース

    高いパフォーマンスデータベース、ウェブ規模の分散型インメモリキャッシュ、中規模インメモリデータベース、リアルタイムビッグデータ分析。

  • R5a
  • Amazon EC2 R5a インスタンスは、メモリバウンドワークロードに最適な最新世代のメモリ最適化インスタンスで、AMD EPYC 7000 シリーズプロセッサを搭載しています。R5a インスタンスは、同等のインスタンスよりも GiB メモリあたり最大 10% 低いコストを実現します。

    特徴:

    • 全コアターボのクロック速度が 2.5 GHz の AMD EPYC 7000 シリーズプロセッサ (AMD EPYC 7571)
    • 拡張ネットワーキングを使用した最大 20 Gbps のネットワーク帯域幅
    • インスタンスあたりの最大メモリが 768 GiB
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • ホストサーバーに物理的に接続された EBS または NVMe SSD を通じて提供されるインスタンスストレージ
    • R5ad インスタンスでは、NVMe ベースのローカル SSD をホストサーバーに物理的に接続し、R5a インスタンスの寿命に連動するブロックレベルのストレージを提供
    インスタンスサイズ
    vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)*** EBS 帯域幅 (Mbps)
    r5a.large 2 16
    EBS のみ 最大 10 
    最大 2,880
    r5a.xlarge 4 32 EBS のみ 最大 10  最大 2,880
    r5a.2xlarge 8 64 EBS のみ 最大 10  最大 2,880
    r5a.4xlarge 16 128 EBS のみ 最大 10  2,880
    r5a.8xlarge 32 256 EBS のみ 最大 10 4,750
    r5a.12xlarge 48 384 EBS のみ 10 6,780
    r5a.16xlarge 64 512 EBS のみ 12 9,500
    r5a.24xlarge 96 768 EBS のみ 20 13,570
    r5ad.large 2 16 1 x 75 NVMe SSD 最大 10
    最大 2,880
    r5ad.xlarge 4 32 1 x 150 NVMe SSD 最大 10
    最大 2,880
    r5ad.2xlarge 8 64 1 x 300 NVMe SSD 最大 10
    最大 2,880
    r5ad.4xlarge 16 128 2 x 300 NVMe SSD 最大 10
    2,880
    r5ad.8xlarge 32 256 2 x 600 NVMe SSD 最大 10 4,750
    r5ad.12xlarge 48 384 2 x 900 NVMe SSD 10 6,780
    r5ad.16xlarge 64 512 4 x 600 NVMe SSD 12 9,500
    r5ad.24xlarge 96 768 4 x 900 NVMe SSD 20 13,570

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    R5a インスタンスは、高パフォーマンスデータベース、分散型ウェブスケールインメモリキャッシュ、中規模のインメモリデータベース、リアルタイムのビッグデータ分析、およびその他エンタープライズアプリケーションなどのメモリ集約型アプリケーションに最適です。

  • R4
  • Amazon EC2 R4 インスタンスは、メモリ負荷の高いアプリケーション向けに最適化されており、RAM の GiB あたりの価格が R3 よりも安価です。

    特徴:

    • 高クロックのインテル Xeon スケーラブル (Broadwell E5-2686 v4) プロセッサ
    • DDR4 メモリ
    • 拡張ネットワークのサポート
    インスタンス vCPU メモリ (GiB) ストレージ ネットワーキングパフォーマンス (Gbps)***
    r4.large 2 15.25 EBS のみ 最大 10
    r4.xlarge 4 30.5 EBS のみ 最大 10
    r4.2xlarge 8 61 EBS のみ 最大 10
    r4.4xlarge 16 122 EBS のみ 最大 10
    r4.8xlarge 32 244 EBS のみ 10
    r4.16xlarge 64 488 EBS のみ 25

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    ハイパフォーマンスデータベース、データのマイニングと分析、インメモリデータベース、ウェブ規模の分散型インメモリキャッシュ、構造化されていないビッグデータのリアルタイム処理を実行するアプリケーション、Hadoop/Spark クラスター、その他のエンタープライズアプリケーション。

  • X2gd
  • Amazon EC2 X2gd インスタンスは、Arm ベースの AWS Graviton2 プロセッサを搭載しており、Amazon EC2 メモリの GiB あたりのコストを最小限に抑えます。これらは、現世代の X1 インスタンスと比較してコストパフォーマンスが最大 55% 優れています。

    特徴:

    • 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • 最大 25 Gbps のネットワーク帯域幅を持つ拡張ネットワーキングをサポート
    • ローカル NVMe ベースの SSD ストレージは、メモリ内データへの高速で低レイテンシーのアクセスを提供します
    • デフォルトで EBS 最適化済み

    インスタンスサイズ

    vCPU

    メモリ (GiB)

    インスタンスストレージ (GB)

    ネットワーク帯域幅 (Gbps)***

    EBS 帯域幅 (Gbps)

    x2gd.medium

    1

    16

    1x59 NVMe SSD

    最大 10

    最大 4.75

    x2gd.large

    2

    32

    1x118 NVMe SSD

    最大 10

    最大 4.75

    x2gd.xlarge

    4

    64

    1x237 NVMe SSD

    最大 10

    最大 4.75

    x2gd.2xlarge

    8

    128

    1x475 NVMe SSD

    最大 10

    最大 4.75

    x2gd.4xlarge

    16

    256

    1x950 NVMe SSD

    最大 10

    4.75

    x2gd.8xlarge

    32

    512

    1x1900 NVMe SSD

    12

    9.5

    x2gd.12xlarge

    48

    768

    2x1425 NVMe SSD

    20

    14.25

    x2gd.16xlarge

    64

    1,024

    2x1900 NVMe SSD

    25

    19

    x2gd.metal

    64

    1,024

    2x1900 NVMe SSD

    25

    19

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    オープンソースデータベース (MySQL、MariaDB、PostgreSQL)、インメモリキャッシュ (Redis、KeyDB、Memcached)、Electronic Design Automation (EDA) ワークロード、リアルタイム分析、リアルタイムキャッシングサーバーなどのメモリを大量に使用するワークロード。

  • X2idn
  • Amazon EC2 X2idn インスタンスは、最大 3.5 GHz のオールコアターボ周波数を持つ第 3 世代のインテル Xeon スケーラブルプロセッサを搭載し、メモリ集約型の幅広いアプリケーションに適しています。

    特徴:

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • 全サイズでメモリと vCPU の比率が 16:1
    • X1 インスタンスと比較して、料金パフォーマンスが最大 50% 向上
    • 最大 100 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 80 Gbps の帯域幅
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extensions (AVX 512) の新命令をサポート

    インスタンスサイズ

    vCPU

    メモリ (GiB)

    インスタンスストレージ (GB)

    ネットワーク帯域幅 (Gbps)

    EBS 帯域幅 (Gbps)

    x2idn.16xlarge

    64

    1,024

    1 x 1900 NVMe SSD

    50

    40

    x2idn.24xlarge

    96 1,536

    2 x 1425 NVMe SSD

    75

    60

    x2idn.32xlarge

    128

    2,048

    2 x 1900 NVMe SSD

    100

    80

    x2idn.metal

    128

    2,048

    2 x 1900 NVMe SSD

    100

    80

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    インメモリデータベース (SAP HANA、Redis など)、従来のデータベース (Oracle DB、Microsoft SQL Server など)、インメモリ分析 (SAS、Aerospike など)。

  • X2iedn
  • Amazon EC2 X2iedn インスタンスは、最大 3.5 GHz のオールコアターボ周波数を持つ第 3 世代のインテル Xeon スケーラブルプロセッサ (コードネーム Ice Lake) を搭載し、大規模メモリ集約型の幅広いアプリケーションに適しています。

    特徴:

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • 全サイズでメモリと vCPU の比率が 32:1
    • X1 インスタンスと比較して、料金パフォーマンスが最大 50% 向上
    • 最大 100 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 80 Gbps の帯域幅
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extensions (AVX 512) の新命令をサポート

    インスタンスサイズ

    vCPU

    メモリ (GiB)

    インスタンスストレージ (GB)

    ネットワーク帯域幅 (Gbps)***

    EBS 帯域幅 (Gbps)

    x2iedn.xlarge

    4

    128

    1 x 118 NVMe SSD

    最大 25

    最大 20

    x2iedn.2xlarge

    8

    256

    1 x 237 NVMe SSD

    最大 25

    最大 20

    x2iedn.4xlarge

    16

    512

    1 x 475 NVMe SSD

    最大 25

    最大 20

    x2iedn.8xlarge

    32

    1,024

    1 x 950 NVMe SSD

    25

    20

    x2iedn.16xlarge

    64

    2,048

    1 x 1900 NVMe SSD

    50

    40

    x2iedn.24xlarge

    96

    3,072

    2 x 1425 NVMe SSD

    75

    60

    x2iedn.32xlarge

    128

    4,096

    2 x 1900 NVMe SSD

    100

    80

    x2iedn.metal

    128

    4,096

    2 x 1900 NVMe SSD

    100

    80

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    大規模インメモリデータベース (SAP HANA、Redis など)、従来のデータベース (Oracle DB、Microsoft SQL Server など)、インメモリ分析 (SAS、Aerospike など)。

  • X2iezn
  • Amazon EC2 X2iezn インスタンスは、クラウドで最速のインテル Xeon スケーラブルプロセッサ (コードネーム Cascade Lake) を搭載し、オールコアターボ周波数は最大 4.5 GHz で、メモリ集約型の Electronic Design Automation (EDA) ワークロードに適した選択肢です。

    特徴:

    • 最大 4.5 GHz の第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake 8252C)
    • 全サイズでメモリと vCPU の比率が 32:1
    • X1e インスタンスと比較して、料金パフォーマンスが最大 55% 向上
    • 最大 100 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 19 Gbps の帯域幅
    • 12xlarge とメタルサイズの Elastic Fabric Adapter に対応
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    x2iezn.2xlarge 8 256 EBS のみ 最大 25 3.17
    x2iezn.4xlarge 16 512 EBS のみ 最大 25 4.75
    x2iezn.6xlarge 24 768 EBS のみ 50 9.5
    x2iezn.8xlarge 32 1,024 EBS のみ 75 12
    x2iezn.12xlarge 48 1,536 EBS のみ 100 19
    x2iezn.metal 48 1,536 EBS のみ 100 19

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    物理検証、静的タイミング分析、電力サインオフ、フルチップゲートレベルシミュレーションなどの Electronic Design Automation (EDA) ワークロード。

  • X1
  • Amazon EC2 X1 インスタンスは、エンタープライズクラスのデータベースやインメモリアプリケーションに最適化されています。 

    特徴:

    • 高クロックのインテル Xeon E7-8880 v3 (Haswell) プロセッサ
    • RAM 1 GiB あたりの料金が最も安価なインスタンスの 1 つ
    • 最大 1,952 GiB の DRAM ベースのインスタンスメモリ
    • ブロックレベルの一時ストレージで、追加料金不要で使用できるデフォルトで EBS 最適化された SSD インスタンスストレージ
    • プロセッサの C ステートおよび P ステート設定を制御する機能
    インスタンス vCPU メモリ (GiB) SSD ストレージ (GB) 専用 EBS 帯域幅 (Mbps) ネットワークパフォーマンス (Gbps)
    x1.16xlarge 64 976 1 x 1,920 7,000 10
    x1.32xlarge 128 1,952 2 x 1,920 14,000 25

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    インメモリデータベース (SAP HANA など)、ビッグデータ処理エンジン (Apache Spark や Presto など)、ハイパフォーマンスコンピューティング (HPC)。SAP から、Business Warehouse on HANA (BW)、Data Mart Solutions on HANA、Business Suite on HANA (SoH)、Business Suite S/4HANA を実行するための認定を受けています。

  • X1e
  • Amazon EC2 X1e インスタンスは、大規模データベース、インメモリデータベース、およびその他メモリ集約型のエンタープライズアプリケーション用に最適化されています。

    特徴:

    • 高クロックのインテル Xeon E7-8880 v3 (Haswell) プロセッサ
    • RAM 1 GiB あたりの料金が最も安価なインスタンスの 1 つ
    • 最大 3,904 GiB の DRAM ベースのインスタンスメモリ
    • ブロックレベルの一時ストレージで、追加料金不要で使用できるデフォルトで EBS 最適化された SSD インスタンスストレージ
    • x1e.32xlarge、x1e.16xlarge、x1e.8xlarge のインスタンスで、プロセッサの C ステートおよび P ステート設定を制御する機能
    インスタンス vCPU メモリ (GiB) SSD ストレージ (GB) 専用 EBS 帯域幅 (Mbps) ネットワーキングパフォーマンス (Gbps)***
    x1e.xlarge 4 122 1 x 120 500 最大 10
    x1e.2xlarge 8 244 1 x 240 1,000 最大 10
    x1e.4xlarge 16 488 1 x 480 1,750 最大 10
    x1e.8xlarge 32 976 1 x 960 3,500 最大 10
    x1e.16xlarge 64 1,952 1 x 1,920 7,000 10
    x1e.32xlarge 128 3,904 2 x 1,920 14,000 25

    すべてのインスタンスの仕様は以下のとおりです

    上記に加えて、x1e.16xlarge と x1e.32xlarge には以下があります。

    ユースケース

    ハイパフォーマンスデータベース、インメモリデータベース (SAP HANA など)、メモリ負荷の高いアプリケーション。x1e.32xlarge インスタンスは SAP による認定を受けて、AWS クラウドで次世代ビジネススイートの S/4HANA、Business Suite on HANA (SoH)、Business Warehouse on HANA (BW)、および Data Mart Solutions on HANA を実行しています。

  • ハイメモリ
  • Amazon EC2 High Memory インスタンスは大規模なインメモリデータベースを実行するよう目的に応じて構築されており、これにはクラウドでの SAP HANA の本番デプロイを含みます。

    特徴:

    • ベアメタルメモリと仮想化メモリの両方で利用可能になりました
    • 3〜24 TiB のインスタンスメモリ
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • 仮想化されたインスタンスは、オンデマンドおよび 1 年および 3 年の Savings Plan 購入オプションで利用できます
    名前 論理プロセッサ* メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)  EBS 帯域幅 (Gbps)
    u-3tb1.56xlarge 224 3,072 EBS のみ 50 19
    u-6tb1.56xlarge 224 6,144 EBS のみ 100 38
    u-6tb1.112xlarge 448 6,144 EBS のみ 100 38
    u-6tb1.metal** 448 6,144 EBS のみ 100 38
    u-9tb1.112xlarge 448 9,216 EBS のみ 100 38
    u-9tb1.metal** 448 9,216 EBS のみ 100 38
    u-12tb1.112xlarge 448 12,288 EBS のみ 100 38
    u-12tb1.metal** 448 12,288 EBS のみ 100 38
    u-18tb1.112xlarge 448 18,432 EBS のみ 100 38
    u-18tb1.metal 448 18,432 EBS のみ 100 38
    u-24tb1.112xlarge 448 24,576 EBS のみ 100 38
    u-24tb1.metal 448 24,576 EBS のみ 100 38

     

    ** 2020 年 3 月 12 日より前に作成されたインスタンスの中には、パフォーマンスが低いものがある可能性があります。より高いパフォーマンスを得るために、アカウントチームに連絡してインスタンスをアップグレードしてください (追加料金は発生しません)。

    * 各論理プロセッサは、224 個のコア上のハイパースレッドです

    • 6TB、9TB、12TB インスタンスには、2.1GHz (3.80 GHz までの Turbo Boost) のインテル Xeon スケーラブルプロセッサ (Skylake 8176M)、または第 2 世代 2.7GHz (4.0GHz までの Turbo Boost) インテル Xeon スケーラブルプロセッサ (Cascade Lake 8280L) を搭載
    • 18 TB と 24 TB のインスタンスは、第 2 世代 2.7 GHz (4.0 GHz までの Turbo Boost) のインテル Xeon スケーラブルプロセッサ (Cascade Lake 8280L) を装備

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    クラウド内の SAP HANA 製品のインメモリデータベースの本番インストレーションを含む、大規模なエンタープライズデータベースを実行するのに理想的です。Business Suite on HANA、次世代 Business Suite S/4HANA、Data Mart Solutions on HANA、Business Warehouse on HANA、SAP BW/4HANA を本番環境で実行できることが SAP で認定されています。

  • z1d
  • Amazon EC2 z1d インスタンスは、優れたコンピューティング性能と大きなメモリフットプリントの両方を提供します。z1d インスタンスは、どのクラウドインスタンスよりも周波数が高い最大 4.0 GHz の持続的な全コア周波数で動作します。

    特徴:

    • 全コアのクロックを最大 4.0 GHz に維持できるカスタムのインテル® Xeon® スケーラブルプロセッサ (Skylake 8151) は、新しい Advanced Vector Extension (AVX-512) の命令セットを搭載
    • 最大 1.8 TB のインスタンスストレージ
    • 384 GiB の RAM を備えたハイメモリインスタンス
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • z1d インスタンスでは、NVMe ベースのローカル SSD がホストサーバーに物理的に接続され、z1d インスタンスの寿命に連係するブロックレベルのストレージを提供
    インスタンス vCPU メモリ (GiB) ネットワーキングパフォーマンス (Gbps)*** SSD ストレージ (GB)
    z1d.large 2 16 最大 10 1 x 75 NVMe SSD
    z1d.xlarge 4 32 最大 10 1 x 150 NVMe SSD
    z1d.2xlarge 8 64 最大 10 1 x 300 NVMe SSD
    z1d.3xlarge 12 96 最大 10 1 x 450 NVMe SSD
    z1d.6xlarge 24 192 10 1 x 900 NVMe SSD
    z1d.12xlarge 48 384 25 2 x 900 NVMe SSD
    z1d.metal 48* 384 25 2 x 900 NVMe SSD

    * z1d.metal は、24 個の物理コアに 48 個の論理プロセッサを提供します

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    コアごとのライセンスコストが高額な Electronic Design Automation (EDA) および特定のリレーショナルデータベースワークロードに最適です。

Graviton ベースの Amazon EC2 インスタンスの各 vCPU は、AWS Graviton プロセッサのコアです。

Graviton ベースではない Amazon EC2 インスタンスの各 vCPU は、R7a インスタンスを除く、x86 ベースのプロセッサのスレッドです。

† AVX、AVX2、および拡張ネットワーキングは、HVM AMI で起動されたインスタンスのみでご利用いただけます。

*** ネットワーク帯域幅が「最大」と表示されているインスタンスは、ベースライン帯域幅を持ち、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えるバーストをベストエフォートの原則で行うことができます。詳細については、「インスタンスネットワーク帯域幅」を参照してください。

高速コンピューティング

高速コンピューティングインスタンスでは、ハードウェアアクセラレーター (コプロセッサ) を使用して、浮動小数点計算、グラフィックス処理、データパターン照合などの機能を、CPU で実行中のソフトウェアよりも効率的に実行します。

  • P5
  • Amazon EC2 P5 インスタンスは最新世代の GPU ベースのインスタンスであり、深層学習とハイパフォーマンスコンピューティング (HPC) において Amazon EC2 の中で最高のパフォーマンスを発揮します。

    特徴:

    • 第3世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
    • 最大 8 つの NVIDIA H100 Tensor Core GPU
    • Elastic Fabric Adapter (EFA) および NVIDIA GPUDirect RDMA (リモートダイレクトメモリアクセス) をサポートし、3,200 Gbps を誇るネットワーク帯域幅
    • NVIDIA NVSwitch により 900GB/秒のピアツーピア GPU 通信を実現
    • 20,000 を超える NVIDIA H100 Tensor Core GPU を搭載し、ペタビット規模のネットワーキング、Amazon FSx for Lustre による拡張可能な低レイテンシストレージで構成される EC2 UltraClusters にデプロイ
    インスタンス GPU vCPU インスタンス
    メモリ (TiB)
    GPU
    メモリ 
    ネットワーク帯域幅 GPUDirect RDMA GPU ピアツーピア インスタンスストレージ (TB) EBS 帯域幅 (Gbps)

    p5.48X ラージ

    8

    192

    640 GB HBM3

    3200 Gbps EFAv2

    900 GB/秒 NVSwitch

    8 x 3.84 NVMe SSD

    80

    P5 インスタンスには以下の仕様があります。

    ユースケース

    質問応答、コード生成、ビデオと画像の生成、音声認識などを含む生成系 AI アプリケーション。

    医薬品の発見、地震解析、天気予報、財務モデリングにおけるスケールイン HPC アプリケーション

  • P4
  • Amazon EC2 P4 インスタンスは、クラウドでの機械学習トレーニングとハイパフォーマンスコンピューティングに高いパフォーマンスを提供します。

    • 3.0 GHz の第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8275CL)
    • 最大 8 つの NVIDIA A100 Tensor Core GPU
    • Elastic Fabric Adapter (EFA) および NVIDIA GPUDirect RDMA (リモートダイレクトメモリアクセス) をサポートし、400 Gbps を誇るインスタンスネットワーキング
    • NVIDIA NVSwitch により 600 GB/秒のピアツーピア GPU 通信を実現
    • 4,000 を超える NVIDIA A100 Tensor Core GPU を搭載し、ペタビット規模のネットワーキング、Amazon FSx for Lustre による拡張可能な低レイテンシストレージで構成される EC2 UltraClusters にデプロイ
    インスタンス GPU vCPU インスタンス
    メモリ (GiB)
    GPU
    メモリ 
    ネットワーク帯域幅 GPUDirect RDMA GPU ピアツーピア インスタンスストレージ (GB) EBS 帯域幅 (Gbps)
    p4d.24xlarge 8 96 1152 320 GB HBM2 400 ENA および EFA はい 600GB/秒 NVSwitch 8 × 1000 NVMe SSD 19
    p4de.24xlarge
    (プレビュー)
    8 96 1152 640 GB HBM2e 400 ENA および EFA はい 600GB/秒 NVSwitch 8 × 1000 NVMe SSD 19

    P4d インスタンスは、以下のような仕様です。

     

    ユースケース

    機械学習、ハイパフォーマンスコンピューティング (HPC)、計算流体力学、金融工学、耐震解析、音声認識、自律走行車、創薬。

  • P3
  • Amazon EC2 P3 インスタンスは、クラウド内でハイパフォーマンスコンピューティングを提供します。最大 8 個の NVIDIA® V100 Tensor Core GPU を搭載し、機械学習と HPC アプリケーション向けに最大 100 Gbps のネットワークスループットを実現します。

    特徴:

    • 5,120 の CUDA コアと 640 の Tensor コアがペアとなった NVIDIA Tesla V100 GPU を最大 8 つ提供
    • 高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4) (p3.2xlarge、p3.8xlarge、p3.16xlarge 向け)。 
    • 高クロックの 2.5 GHz (ベース) インテル Xeon スケーラブルプロセッサ (Skylake 8175) (p3dn.24xlarge 向け)。
    • ピアツーピアの GPU 通信を行う NVLink をサポート
    • 最大 100 Gbps の集約ネットワーク帯域幅を提供します。
    • p3dn.24xlarge インスタンスでの EFA サポート
    インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) GPU P2P ストレージ (GB) 専用 EBS 帯域幅 (Gbps) ネットワーキングパフォーマンス (Gbps)***
    p3.2xlarge 1 8 61 16 - EBS のみ 1.5  最大 10
    p3.8xlarge 4 32 244 64 NVLink EBS のみ 10
    p3.16xlarge 8 64 488 128 NVLink EBS のみ 14  25 
    p3dn.24xlarge 8 96 768 256 NVLink 2 x 900 NVMe SSD 19 100 

    すべてのインスタンスの仕様は以下のとおりです

     
    p3.2xlarge、p3.8xlarge、p3.16xlarge には、2.3 GHz (ベース) および 2.7 GHz (ターボ) インテル Xeon E5-2686 v4 プロセッサが搭載されています。 
     
    p3dn.24xlarge には、2.5 GHz (ベース)および 3.1 GHz (持続型全コアターボ) のインテル Xeon 8175M プロセッサが搭載されており、インテル AVX-512 をサポートしています。p3dn.24xlarge インスタンスは Elastic Fabric Adapter (EFA) もサポートしており、NVIDIA Collective Communications Library (NCCL) を使った Message Passing Interface (MPI) や機械学習 (ML) アプリケーションを使用して、 ハイパフォーマンスコンピューティング (HPC) アプリケーションが多数の GPU にスケールするようにします。

    ユースケース

    機械学習/深層学習、ハイパフォーマンスコンピューティング (HPC)、計算流体力学、金融工学、耐震解析、音声認識、自律走行車、創薬。

  • P2
  • P2 インスタンスは汎用 GPU コンピューティングアプリケーション用に設計されています。

    特徴:

    • 高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4)
    • それぞれに 2,496 個の並列処理コアと 12 GiB の GPU メモリが搭載された、高性能の NVIDIA K80 GPU
    • ピアツーピアの GPU 通信のための GPUDirect™ をサポート
    • プレイスメントグループ内において、最大 25 Gbps の集約ネットワーク帯域幅で Elastic Network Adapter (ENA) を使用する拡張ネットワーキングを提供
    • デフォルトで EBS 最適化、追加料金なし
    インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) ネットワークパフォーマンス (Gbps)
    p2.xlarge 1 4 61 12
    p2.8xlarge 8 32 488 96 10
    p2.16xlarge 16 64 732 192 25 

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    機械学習、ハイパフォーマンスデータベース、数値流体力学、金融工学、耐震解析、分子モデリング、ゲノミクス、レンダリング、その他のサーバー側の GPU コンピューティングワークロード。

  • G5g
  • Amazon EC2 G5g インスタンスは、AWS Graviton2 プロセッサを搭載し、NVIDIA T4G Tensor Core GPU を装備しており、Android ゲームストリーミングなどのグラフィックスワークロード向けに Amazon EC2 で最高の料金パフォーマンスを提供します。主要クラウドで初めて GPU アクセラレーション機能を搭載した Arm ベースのインスタンスです。また、お客様は G5g インスタンスを利用することで、コスト効率性が高い機械学習推論を行うことができます。

    特徴:

    • 64 ビットの Arm Neoverse コアを搭載したカスタムビルドの AWS Graviton2 プロセッサ
    • 最大 2 つの NVIDIA T4G Tensor Core GPU
    • 最大 25 Gbps のネットワーク帯域幅
    • デフォルトで EBS 最適化済み
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンス名 vCPU メモリ (GiB) NVIDIA T4G Tensor Core GPU GPU メモリ (GiB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    g5g.xlarge 4 8 1 16 最大 10 最大 3.5
    g5g.2xlarge 8 16 1 16 最大 10 最大 3.5
    g5g.4xlarge 16 32 1 16 最大 10 最大 3.5
    g5g.8xlarge 32 64 1 16 12 9
    g5g.16xlarge 64 128 2 32 25 19
    g5g.metal 64 128 2 32 25 19

    ユースケース

    Android ゲームストリーミング、機械学習推論、グラフィックスレンダリング、自律走行車シミュレーション

  • G5
  • Amazon EC2 G5 インスタンスは、グラフィックを大量に使用するアプリケーションや機械学習推論を高速化するために設計されています。また、簡単な機械学習モデルから中程度に複雑な機械学習モデルのトレーニングにも使用できます。

    特徴:

    • 第 2 世代 AMD EPYC プロセッサ (AMD EPYC 7R32)
    • 最大 8 つの NVIDIA A10G Tensor Core GPU
    • 最大 100 Gbps のネットワーク帯域幅
    • ローカル NVMe ローカルストレージ最大 7.6 TB
    インスタンスサイズ GPU GPU メモリ (GiB) vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    g5.xlarge 1 24 4 16 1 × 250 NVMe SSD 最大 10 最大 3.5
    g5.2xlarge 1 24 8 32 1 × 450 NVMe SSD 最大 10 最大 3.5
    g5.4xlarge 1 24 16 64 1 × 600 NVMe SSD 最大 25 8
    g5.8xlarge 1 24 32 128 1 × 900 NVMe SSD 25 16
    g5.16xlarge 1 24 64 256 1 × 1900 NVMe SSD 25 16
    g5.12xlarge 4 96 48 192 1 × 3800 NVMe SSD 40 16
    g5.24xlarge 4 96 96 384 1 × 3800 NVMe SSD 50 19
    g5.48xlarge 8 192 192 768 2x 3800 NVME SSD 100 19

    G5 インスタンスには以下の仕様があります。

    ユースケース

    リモートワークステーション、ビデオレンダリング、クラウドゲーミングなどのグラフィックス集約型アプリケーションで、高忠実度のグラフィックスをリアルタイムに作成することができます。自然言語処理、コンピュータビジョン、レコメンダーエンジンのユースケースなど、機械学習ユースケースのための深層学習モデルのトレーニングと推論。

  • G4dn
  • Amazon EC2 G4dn インスタンスは、機械学習推論やグラフィックを大量に使用するワークロードを高速化するために設計されています。

    特徴:

    • 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL)
    • 最大 8 つの NVIDIA T4 Tensor Core GPU
    • ネットワークスループット最大 100 GBPS
    • ローカル NVMe ストレージ最大 1.8 TB
    インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) インスタンスストレージ (GB) ネットワークパフォーマンス (Gbps)*** EBS 帯域幅 (Gbps)
    g4dn.xlarge 1 4 16 16 1 × 125 NVMe SSD 最大 25 最大 3.5
    g4dn.2xlarge 1 8
    32 16 1 × 225 NVMe SSD 最大 25 最大 3.5
    g4dn.4xlarge 1 16 64 16 1 × 225 NVMe SSD 最大 25 4.75
    g4dn.8xlarge 1 32 128 16 1 × 900 NVMe SSD 50 9.5
    g4dn.16xlarge 1 64 256 16 1 × 900 NVMe SSD 50 9.5
    g4dn.12xlarge 4 48 192 64 1 × 900 NVMe SSD 50 9.5
    g4dn.metal 8 96 384 128 2 × 900 NVMe SSD 100 19


    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    画像へのメタデータ追加、オブジェクト検出、レコメンドシステム、自動音声認識、言語翻訳といったアプリケーションの機械学習推論。また、G4 インスタンスを使用すると、リモートグラフィックワークステーション、動画トランスコーディング、フォトリアリスティックの作成、クラウド上のゲームストリーミングなど、グラフィックを大量に使用するアプリケーションの構築および運用を行うための非常にコスト効率が良いプラットフォームを実現できます。 

  • G4ad
  • Amazon EC2 G4ad インスタンスは、クラウド内でグラフィックスを多用するアプリケーションに最高のコストパフォーマンスを提供します。

    特徴:

    • 第 2 世代 AMD EPYC プロセッサ (AMD EPYC 7R32)
    • AMD Radeon Pro V520 GPU
    • 最大 2.4 TB のローカル NVMe ストレージ
    インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    g4ad.xlarge 1 4 16 8 1 x 150 NVMe SSD 最大 10 最大 3
    g4ad.2xlarge 1 8 32 8 1 × 300 NVMe SSD 最大 10 最大 3
    g4ad.4xlarge 1 16 64 8 1 × 600 NVMe SSD 最大 10 最大 3
    g4ad.8xlarge 2 32 128 16 1 × 1200 NVMe SSD 15 3
    g4ad.16xlarge 4 64 256 32 1 × 2400 NVMe SSD 25 6


    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    リモートグラフィックスワークステーション、動画変換、フォトリアルデザイン、クラウド上のゲームストリーミングといったグラフィックスを多用するアプリケーション。

  • G3
  • Amazon EC2 G3 インスタンスは、グラフィック集約型アプリケーション用に最適化されています。

    特徴:

    • 高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4)
    • それぞれに 2,048 個の並列処理コアと 8 GiB のビデオメモリが搭載された NVIDIA Tesla M60 GPU
    • 最大解像度 4,096 x 2,160 のモニタ 4 台のサポートを含む、NVIDIA GRID Virtual Workstation 機能を有効化。インスタンスに含まれる各 GPU は、1 人の「同時接続ユーザー」にライセンスされます
    • Citrix XenApp Essentials および VMware Horizon などのアプリケーション仮想化ソフトウェアのために NVIDIA GRID Virtual Application 機能を有効化し、GPU ごとに最大 25 人の同時ユーザーをサポート
    • 各 GPU には、最大 10 個の H.265 (HEVC) 1080p30 ストリームと最大 18 個の H.264 1080p30 ストリームをサポートするために設計された内蔵ハードウェアビデオエンコーダーが搭載されており、低レイテンシーのフレームキャプチャとエンコーディング、および高品質のインタラクティブなストリーミング経験を実現
    • プレイスメントグループ内における、25 Gbps の集約ネットワーク帯域幅の Elastic Network Adapter (ENA) を使用した拡張ネットワーク
    インスタンス GPU vCPU メモリ (GiB) GPU メモリ (GiB) ネットワークパフォーマンス (Gbps)***
    g3s.xlarge 1 4 30.5 8 最大 10
    g3.4xlarge 1 16 122 8 最大 10
    g3.8xlarge 2 32 244 16 10
    g3.16xlarge 4 64 488 32 25

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    3D ビジュアライゼーション、グラフィックス集約型リモートワークステーション、3D レンダリング、アプリケーションストリーミング、動画エンコーディング、およびその他のサーバー側グラフィックワークロード。

  • Trn1
  • AWS Trainium チップを搭載した Amazon EC2 Trn1 インスタンスは、高性能な深層学習トレーニング用に構築されており、同等の Amazon EC2 インスタンスと比較してトレーニングコストを最大 50% 削減することが可能です。

    特徴:

    • 16 AWS Trainium アクセラレーター
    • AWS Neuron SDK でサポート
    • 第 3 世代インテル Xeon スケーラブルプロセッサー (Ice Lake SP)
    • 最大 1600 Gbps の第二世代 Elastic Fabric Adapter (EFA) ネットワーク帯域幅
    • 最大 8 TBのローカル NVMe ストレージ
    • NeuronLink による高帯域幅のインスタンス内接続性
    • EC2 UltraClusters にデプロイし、30,000 の AWS Trainium アクセラレーター、ペタビット規模のノンブロッキングネットワーク、Amazon FSx for Lustre によるスケーラブルな低レイテンシーストレージに接続可能
    • Amazon EBS 最適化
    • 拡張ネットワーキング
    インスタンスサイズ Trainium アクセラレーター アクセラレーターメモリ (GB) vCPU メモリ (GiB)

    インスタンス
    ストレージ (GB)

    ネットワーク
    帯域幅 (Gbps)***

    EBS 帯域幅
    (Gbps)

    trn1.2xlarge 1 32 8 32 1 x 500 NVMe SSD
    最大 12.5 最大 20
    trn1.32xlarge 16 512 128 512 4 x 2000 NVMe SSD
    800 80
    trn1n.32xlarge 16 512 128 512 4 x 2000 NVMe SSD 1600 80

    ユースケース

    自然言語処理 (NLP)、コンピュータビジョン、検索、レコメンデーション、ランキングなどの深層学習トレーニング

  • Inf2
  • Amazon EC2 Inf2 インスタンスは、深層学習推論用に構築されています。大規模言語モデルやビジョントランスフォーマーなどのジェネレーティブ人工知能モデル向けに、Amazon EC2 で最小のコストで高いパフォーマンスを実現します。Inf2 インスタンスは、AWS Inferentia2 によって提供されます。これらの新しいインスタンスは、Inf1 インスタンスと比較して、3 倍のコンピューティングパフォーマンス、4 倍のアクセラレーターメモリ、最大 4 倍のスループット、最大 10 分の 1 の低いレイテンシーを提供

    特徴:

    • 最大 12 台の AWS Inferentia2 アクセラレーター
    • AWS Neuron SDK でサポート
    • デュアル AMD EPYC プロセッサ (AMD EPYC 7R13)
    • 最大 384 GB のアクセラレーター共有メモリ (1 アクセラレーターあたり 32 GB の HBM)
    • 最大 100 Gbps のネットワーキング
    インスタンスサイズ

    Inferentia2 アクセラレーター

    アクセラレーターメモリ (GB) vCPU メモリ (GiB) ローカルストレージ アクセラレーター間インターコネクト ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    inf2.xlarge 1 32 4 16 EBS のみ NA 最大 15 最大 10
    inf2.8xlarge 1 32 32 128 EBS のみ 該当なし 最大 25 10
    inf2.24xlarge 6 192 96 384 EBS のみ はい 50 30
    inf2.48xlarge 12 384 192 768 EBS のみ はい 100 60

    ユースケース

    自然言語理解 (高度なテキスト分析、ドキュメント分析、会話エージェント)、翻訳、画像および動画生成、音声認識、個別化、不正検出など。

  • Inf1
  • Amazon EC2 Inf1 インスタンスは、機械学習推論アプリケーションをサポートするため、全く新規に構築されました。

    特徴:

    • 最大 16 の AWS Inferentia チップ
    • AWS Neuron SDK でサポート
    • 高クロックの第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259L)
    • 最大 100 Gbps のネットワーキング
    インスタンスサイズ Inferentia アクセラレーター vCPU メモリ (GiB) インスタンスストレージ アクセラレーター間インターコネクト ネットワーク帯域幅 (Gbps)*** EBS 帯域幅
    inf1.xlarge 1 4 8 EBS のみ 該当なし 最大 25 最大 4.75
    inf1.2xlarge 1 8 16 EBS のみ 該当なし 最大 25 最大 4.75
    inf1.6xlarge 4 24 48 EBS のみ はい 25 4.75
    inf1.24xlarge 16 96 192 EBS のみ はい 100 19

    ユースケース

    レコメンデーションエンジン、天気予報、画像および動画分析、高度なテキスト分析、ドキュメント分析、音声、会話型エージェント、翻訳、文字起こし、不正検出。

  • DL1
  • Amazon EC2 DL1 インスタンスは、Habana Labs (インテル) の Gaudi アクセラレーターを搭載しています。現世代の GPU ベースの EC2 インスタンスと比較して、深層学習モデルのトレーニングにおいて最大 40% 優れた価格性能を実現しています。

    特徴:

    • 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8275CL)
    • 最大 8 台の Gaudi アクセラレーター、アクセラレータごとに 32 GB の高帯域幅のメモリ (HBM) を搭載
    • ネットワークスループット最大 400 GBPS
    • ローカル NVMe ストレージ最大 4 TB

    インスタンスサイズ

    vCPU

    Gaudi アクセラレーター

    インスタンスメモリ (GiB)

    インスタンスストレージ (GB)

    アクセラレーター Peer-to-Peer Bidirectional
    (Gbps)

    ネットワーク帯域幅 (Gbps)

    EBS 帯域幅 (Gbps)

    dl1.24xlarge

    96

    8

    768

    4 × 1000 NVMe SSD

    100

    400

    19


    DL1 インスタンスには以下の仕様があります。

    ユースケース

    深層学習トレーニング、物体検出、画像認識、自然言語処理、レコメンデーションエンジン。

  • DL2q
  • Qualcomm AI 100 アクセラレータを搭載した Amazon EC2 DL2q インスタンスを使用すると、深層学習 (DL) ワークロードをコスト効率よくクラウドにデプロイ、あるいはクアルコムのデバイスにデプロイされる DL ワークロードのパフォーマンスと精度を検証することができます。

    特徴:

    • 8 クアルコム AI 100 アクセラレータ
    • クアルコムのクラウド AI プラットフォームとアプリ SDK によるサポート
    • 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL)
    • 最大 128 GB の共有アクセラレータメモリ  
    • 最大 100 Gbps のネットワーキング
    インスタンスサイズ

    クアルコム AI 100 アクセラレータ

    アクセラレータメモリ (GB) vCPU メモリ (GiB) ローカルストレージ アクセラレーター間インターコネクト ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    dl2q.24xlarge 8 128 96 768 EBS のみ いいえ 100 19

    ユースケース

    コンテンツ生成、画像分析、テキスト要約、仮想アシスタントなど、一般的な DL および生成系 AI アプリケーションを実行します。スマートフォン、自動車、ロボティクス、拡張現実ヘッドセットに展開する前に、AI ワークロードを検証します。

  • F1
  • Amazon EC2 F1 インスタンスでは、フィールドプログラマブルゲートアレイ (FPGA) によるカスタマイズ可能なハードウェアアクセラレーションが提供されます。

    インスタンスの特徴:

    • 高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4)
    • NVMe SSD ストレージ
    • 拡張ネットワークのサポート

    FPGA の特徴:

    • Xilinx Virtex UltraScale+ VU9P FPGA
    • 4 つの DDR4 64 GiB ECC 保護メモリ
    • 専用 PCI-Express x16 インターフェイス
    • 約 250 万のロジックエレメント
    • 約 6,800 個のデジタル信号処理 (DSP) エンジン
    • FPGA デベロッパー AMI
    インスタンス FPGA vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)***
    f1.2xlarge 1 8 122 1 × 470 最大 10
    f1.4xlarge 2 16 244 1 × 940 最大 10
    f1.16xlarge 8 64 976 4 x 940 25

    f1.16xlarge インスタンスについては、専用 PCI-e ファブリックにより、FPGA は同じメモリ領域を共有し、各方向に最大 12 Gbps のファブリック間通信が可能です。

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    ゲノム研究、財務分析、リアルタイムのビデオ処理、ビッグデータの検索と分析、およびセキュリティ。

  • VT1
  • Amazon EC2 VT1 インスタンスは、最大 4K UHD 解像度に対応したリアルタイム動画トランスコーディングを低コストで実現するように設計されています。

    特徴:

    • 第 2 世代インテル Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL)
    • 高速 H.264/AVC および H.265/HEVC コーデックを搭載した最大 8 枚の Xilinx U30 メディアアクセラレーターカード
    • 強化されたネットワークスループット最大 25 Gbps
    • 最大 19 Gbps の EBS 帯域幅

    インスタンスサイズ

    U30 アクセラレーター

    vCPU

    メモリ (GiB)

    ネットワーク帯域幅 (Gbps)

    EBS 帯域幅
    (Gbps)

    1080p60 ストリーム

    4Kp60 ストリーム

    vt1.3xlarge

    1

    12

    24

    3.125

    最大 4.75

    8

    2

    vt1.6xlarge

    2

    24

    48

    6.25

    4.75

    16

    4

    vt1.24xlarge

    8

    96

    192

    25

    19

    64

    16

     

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    ライブイベント放送、ビデオ会議、ジャストインタイムトランスコーディング。

T2 および m3.medium を除き、各 vCPU はインテル Xeon コアまたは AMD EPYC コア上のスレッドです。

† AVX、AVX2、AVX-512、および拡張ネットワーキングは、HVM AMI で起動されたインスタンスのみで利用できます。

* これは、このインスタンスタイプで提供されている vCPU のデフォルトの最大数です。このインスタンスタイプの起動時には、任意の数の vCPU を指定できます。有効な vCPU 数と、この機能の使用開始方法に関する詳細については、こちらの CPU 最適化のドキュメントページをご覧ください。

*** ネットワーク帯域幅が「最大」と表示されているインスタンスは、ベースライン帯域幅を持ち、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えるバーストをベストエフォートの原則で行うことができます。詳細については、「インスタンスネットワーク帯域幅」を参照してください。

ストレージ最適化

ストレージ最適化インスタンスは、ローカルストレージの大規模データセットに対する高いシーケンシャル読み取りおよび書き込みアクセスを必要とするワークロード用に設計されています。ストレージ最適化インスタンスは、数万 IOPS もの低レイテンシーなランダム I/O オペレーションをアプリケーションに提供するように最適化されています。

  • I4g
  • Amazon EC2 I4g インスタンスは、AWS Graviton2 プロセッサを搭載し、Amazon EC2 のストレージ集約型ワークロードに最適な料金パフォーマンスを提供します。I4g インスタンスは、同様のストレージ最適化インスタンスと比較して、コンピューティングパフォーマンスを最大 15% 向上させます。

    特徴:

    • AWS Graviton2 プロセッサによる駆動
    • I3 および I3en インスタンスと比較して、I/O レイテンシーを最大 60% 低減し、レイテンシーの変動を最大 75% 低減する AWS Nitro SSD を搭載した最大 15 TB の NVMe SSD インスタンスストレージを備え、常時暗号化機能を搭載
    • 1 vCPU あたり 8 GB のメモリにマッピングされるワークロードに最適化
    • Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 38 Gbps のネットワーク帯域幅
    • i4g.16xlarge インスタンスの Elastic Fabric Adapter (EFA) に対応
    • Amazon Elastic Block Store (EBS) への最大 20 Gbps の帯域幅
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • Torn Write Prevention (TWP) のサポートにより、MySQL や MariaDB などのデータベースワークロードでさらなるパフォーマンスの向上とレイテンシーを低減できます。
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps)
    i4g.large 2 16 1 x 468 GB = 468 GB 最大 10 最大 10
    i4g.xlarge 4 32 1 x 937 GB = 937 GB 最大 10 最大 10
    i4g.2xlarge 8 64 1 x 1,875 GB = 1,875 GB 最大 12 最大 10
    i4g.4xlarge 16 128 1 x 3,750 GB = 3,750 GB 最大 25 最大 10
    i4g.8xlarge 32 256 2 x 3,750 GB = 7,500 GB 18.75 10
    i4g.16xlarge 64 512 4 x 3,750 GB = 15,000 GB 37.5 20

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    Amazon EC2 I4g インスタンスは I/O 集約型アプリケーション向けに最適化されており、トランザクションデータベース (Amazon DynamoDB、MySQL、PostgreSQL)、Amazon OpenSearch Service、および Apache Spark などのリアルタイム分析を使用するお客様を対象としています。

  • Im4gn
  • Amazon EC2 Im4gn インスタンスは、AWS Graviton2 プロセッサを搭載し、Amazon EC2 のストレージ集約型ワークロードに最適な料金パフォーマンスを提供します。I3 インスタンスと比較して、料金パフォーマンスは最大 40% 向上し、ストレージ 1 TB あたりのコストは最大 44% 削減されます。

    特徴:

    • AWS Graviton2 プロセッサによる駆動
    • I3 および I3en インスタンスと比較して、I/O レイテンシーを最大 60% 低減し、レイテンシーの変動を最大 75% 低減する AWS Nitro SSD を搭載した最大 30 TB の NVMe SSD インスタンスストレージを備え、常時暗号化機能を搭載
    • 1 vCPU あたり 4 GB のメモリにマッピングされるワークロードに最適化
    • I3 インスタンスと比較して、1 vCPU あたり 2 倍の NVMe SSD ストレージ密度
    • Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 100 Gbps のネットワーク帯域幅
    • im4gn.16xlarge での Elastic Fabric Adapter のサポート
    • Amazon Elastic Block Store への最大 38 Gbps の帯域幅
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • Torn Write Prevention (TWP) のサポートにより、MySQL や MariaDB などのデータベースワークロードでさらなるパフォーマンスの向上とレイテンシーの低減を可能にします。
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    Im4gn.large 2 8 1 x 937 AWS Nitro SSD 最大 25 最大 9.5
    Im4gn.xlarge 4 16 1 × 1875 AWS Nitro SSD 最大 25 最大 9.5
    Im4gn.2xlarge 8 32 1 × 3750 AWS Nitro SSD 最大 25 最大 9.5
    Im4gn.4xlarge 16 64 1 × 7500 AWS Nitro SSD 25 9.5
    Im4gn.8xlarge 32 128 2 × 7500 AWS Nitro SSD 50 19
    Im4gn.16xlarge 64 256 4 × 7500 AWS Nitro SSD 100 38

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    これらのインスタンスは、リレーショナルデータベース (MySQL、MariaDB、PostgreSQL など) や NoSQL データベース (KeyDB、ScyllaDB、Cassandra) など、中規模のデータセットを備えており、高いコンピューティングパフォーマンスと高いネットワークスループットを利用できる、I/O 集約型のビジネスクリティカルなワークロードで 1 秒あたり処理されるトランザクション (TPS) の数を最大化します。また、検索エンジンやデータ分析ワークロードなど、ローカルストレージ上の中規模データセットに対して、非常に高速なアクセスを必要とするワークロードにも最適です。

  • Is4gen
  • Amazon EC2 Is4gen インスタンスは、AWS Graviton2 プロセッサを搭載しており、ストレージ集約型のワークロードに対して、SSD ストレージの 1 TB あたりのコストが最も低く、1 vCPU あたりの SSD ストレージの密度が最も高い Amazon EC2 インスタンスを提供します。これらのインスタンスは、I3en インスタンスと比較して、1 TB あたりのコストが最大 15% 低く、1 vCPU あたりのコンピューティングパフォーマンスが最大 48% 向上します。

    特徴:

    • AWS Graviton2 プロセッサによる駆動
    • I3 および I3en インスタンスと比較して、I/O レイテンシーを最大 60% 低減し、レイテンシーの変動を最大 75% 低減する AWS Nitro SSD を搭載した最大 30 TB の NVMe SSD インスタンスストレージを備え、常時暗号化機能を搭載
    • 1 vCPU あたり 6 GB のメモリにマッピングされるワークロードに最適化
    • I3en と比較して、1 vCPU あたりの NVMe SSD ストレージが 50% 増加
    • Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 50 Gbps のネットワーク帯域幅
    • Amazon Elastic Block Store への最大 19 Gbps の帯域幅
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • Torn Write Prevention (TWP) のサポートにより、MySQL や MariaDB などのデータベースワークロードでさらなるパフォーマンスの向上とレイテンシーの低減を可能にします。
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    Is4gen.medium 1 6 1 x 937 AWS Nitro SSD 最大 25 最大 9.5
    Is4gen.large 2 12 1 × 1875 AWS Nitro SSD 最大 25 最大 9.5
    Is4gen.xlarge 4 24 1 × 3750 AWS Nitro SSD 最大 25 最大 9.5
    Is4gen.2xlarge 8 48 1 × 7500 AWS Nitro SSD 最大 25 最大 9.5
    Is4gen.4xlarge 16 96 2 × 7500 AWS Nitro SSD 25 9.5
    Is4gen.8xlarge 32 192 4 × 7500 AWS Nitro SSD 50 19

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    これらのインスタンスは、NoSQL データベース (KeyDB、MongoDB、ScyllaDB、Cassandra) など、大きなデータセットを持ち、1 vCPU あたりの NVMe ストレージ密度が最も高くマッピングできる、I/O 要求の高いワークロードの 1 秒あたり処理されるトランザクション (TPS) 数を最大化します。また、検索エンジン (Splunk や Elasticsearch)、データストリーミング、大規模分散ファイルシステムなど、ローカルストレージ上の大規模データセットに対する高速アクセスや、高いストレージ密度を必要とするワークロードにも最適です。

  • I4i
  • Amazon EC2 I4i インスタンスは、第 3 世代のインテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載し、AWS Nitro NVMe SSD を使用して Amazon EC2 内で最高のローカルストレージパフォーマンスを提供します。

    特徴: 

    • 最大 3.5 GHz の第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake 8375C)
    • I3 インスタンスと比較して、コンピューティング料金パフォーマンスが最大 30% 向上
    • AWS Nitro SSD による最大 30 TB の NVMe ストレージは、I3 インスタンスと比較して、最大 60% 低いストレージ I/O レイテンシーと最大 75% 低いストレージ I/O レイテンシーの変動を提供します
    • 最大 75 Gbps のネットワークスピード
    • Amazon Elastic Block Store への最大 40 Gbps の帯域幅
    • 新しいインスタンスサイズ (32xlarge)、128 vCPU、1,024 GiB メモリ
    • 32xlarge サイズの Elastic Fabric Adapter に対応
    • インテル Total Memory Encryption (TME) による常時メモリ暗号化のサポート
    • 専用ハードウェアと軽量ハイパーバイザーが組み合わされた AWS Nitro System に構築
    • 暗号アルゴリズムの実行を高速化するインテル Advanced Vector Extensions (AVX 512) の新命令をサポート
    • Torn Write Prevention (TWP) のサポートにより、MySQL や MariaDB などのデータベースワークロードでさらなるパフォーマンスの向上とレイテンシーの低減を可能にします。
    インスタンスサイズ vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)*** EBS 帯域幅 (Gbps)
    i4i.large 2 16 1 x 468 AWS Nitro SSD 最大 10 最大 10
    i4i.xlarge 4 32 1 x 937 AWS Nitro SSD 最大 10 最大 10
    i4i.2xlarge 8 64 1 × 1875 AWS Nitro SSD 最大 12 最大 10
    i4i.4xlarge 16 128 1 × 3750 AWS Nitro SSD 最大 25 最大 10
    i4i.8xlarge 32 256 2 × 3750 AWS Nitro SSD 18.75 10
    i4i.12xlarge 48 384 3 x 3750 AWS Nitro SSD 28.12 15
    i4i.16xlarge 64 512 4 × 3750 AWS Nitro SSD 37.5 20
    i4i.24xlarge 96 768 6 x 3750 AWS Nitro SSD 56.25 30
    i4i.32xlarge 128 1,024 8 × 3750 AWS Nitro SSD 75 40
    i4i.metal 128 1,024 8 × 3750 AWS Nitro SSD 75 40

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    これらのインスタンスは、トランザクションデータベース (MySQL、Oracle DB、Microsoft SQL Server など) や NoSQL データベース (MongoDB、Couchbase、Aerospike、Redis など) など、ローカルストレージ上の小、中規模のデータセットに非常に高速なアクセスを必要とする I/O 要求の高いワークロードの 1 秒あたりトランザクション (TPS) を最大化するように設計されています。また、I4i インスタンスは、データ分析や検索エンジンなど、ストレージ 1 TB あたりの高いコンピューティングパフォーマンスの恩恵を受けられるワークロードに最適です。

  • I3
  • このインスタンスファミリーは、低レイテンシー、超高ランダム I/O パフォーマンス、高シーケンシャル読み込みスループットに最適化された Non-Volatile Memory Express (NVMe) SSD タイプのインスタンスストレージで、高い IOPS を低コストで実現しています。I3 は、非仮想化ワークロード、物理リソースへのアクセスを活用するワークロード、またはライセンス制限が存在する可能性があるワークロードのために、Nitro System によるベアメタルインスタンス (i3.metal) も提供します。

    特徴:

    • ベースクロックが 2.3 GHz である高クロックのインテル Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4)
    • Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 25 Gbps のネットワーク帯域幅
    • 高いランダム I/O パフォーマンスと高いシーケンシャル読み取りスループット
    • 物理プロセッサと物理メモリへの直接アクセスが有用なワークロードのためのベアメタルインスタンスサイズをサポート
    インスタンス vCPU* メモリ (GiB) インスタンスストレージ (GB) ネットワーキングパフォーマンス (Gbps)***
    i3.large 2 15.25 1 x 475 NVMe SSD 最大 10
    i3.xlarge 4 30.5 1 x 950 NVMe SSD 最大 10
    i3.2xlarge 8 61 1 x 1900 NVMe SSD 最大 10
    i3.4xlarge 16 122 2 x 1900 NVMe SSD 最大 10
    i3.8xlarge 32 244 4 x 1900 NVMe SSD 10
    i3.16xlarge 64 488 8 x 1900 NVMe SSD 25
    i3.metal 72** 512 8 x 1900 NVMe SSD 25

     

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    小、中規模の NoSQL データベース (例: Cassandra、MongoDB、Aerospike)、インメモリデータベース (例: Redis)、スケールアウトトランザクションデータベース、データウェアハウジング、Elasticsearch、分析ワークロードなど。

  • I3en
  • このインスタンスファミリーは、低レイテンシー、高いランダム I/O パフォーマンス、高いシーケンシャルディスクスループットに最適化された高密度の Non-Volatile Memory Express (NVMe) SSD インスタンスストレージを提供します。この SSD インスタンスストレージは、Amazon EC2 において GB あたりの料金が最も安価です。 I3en は、非仮想化ワークロード、物理リソースへのアクセスを活用するワークロード、またはライセンス制限が存在する可能性があるワークロードのために、Nitro System によるベアメタルインスタンス (i3en.metal) も提供します。

    特徴:

    • 最大 60 TB の NVMe SSD インスタンスストレージ
    • Elastic Network Adapter (ENA) ベースの拡張ネットワーキングを使用した、最大 100 Gbps のネットワーク帯域幅
    • 高いランダム I/O パフォーマンスと高いシーケンシャルディスクスループット
    • 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した最大 3.1 GHz のインテル® Xeon® スケーラブルプロセッサ (Skylake 8175M または Cascade Lake 8259CL)
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    • 物理プロセッサと物理メモリへの直接アクセスが有用なワークロードのためのベアメタルインスタンスサイズをサポート
    • i3en.24xlarge での Elastic Fabric Adapter のサポート
    インスタンス vCPU メモリ (GiB) インスタンスストレージ (GB) ネットワーク帯域幅 (Gbps)***
    i3en.large 2 16 1 x 1250 NVMe SSD
    最大 25
    i3en.xlarge 4 32 1 x 2500 NVMe SSD
    最大 25
    i3en.2xlarge 8 64 2 x 2500 NVMe SSD
    最大 25
    i3en.3xlarge 12 96 1 x 7500 NVMe SSD
    最大 25
    i3en.6xlarge 24 192 2 x 7500 NVMe SSD
    25
    i3en.12xlarge 48 384 4 x 7500 NVMe SSD
    50
    i3en.24xlarge
    96 768 8 x 7500 NVMe SSD
    100
    i3en.metal 96 768 8 x 7500 NVMe SSD 100

    すべてのインスタンスの仕様は以下のとおりです

    • 3.1 GHz 全コアターボ インテル® Xeon® Scalable (Skylake) プロセッサ
    • インテル AVX†、インテル AVX2†、インテル AVX-512†、インテルターボ 
    • EBS 最適化
    • 拡張ネットワーキング

    ユースケース

    小規模から大規模の NoSQL データベース (例: Cassandra、MongoDB、Aerospike)、インメモリデータベース (例: Redis)、スケールアウトトランザクションデータベース、分散型ファイルシステム、データウェアハウジング、Elasticsearch、分析ワークロード。

  • D2
  • Amazon EC2 D2 インスタンスは、最大 48 TB の HDD ベースのローカルストレージが特徴となっていて、高いディスクスループットを実現しています。ディスクスループットパフォーマンスあたりの価格は Amazon EC2 では最小です。

    特徴:

    • 高クロックのインテル Xeon スケーラブルプロセッサ (Haswell E5-2676 v3)
    • HDD ストレージ
    • 起動時にパフォーマンスが一貫して高い
    • 高いディスクスループット
    • 拡張ネットワークのサポート
    インスタンス vCPU* メモリ (GiB) インスタンスストレージ (GB) ネットワークパフォーマンス
    d2.xlarge 4 30.5 3 x 2,000 HDD
    d2.2xlarge 8 61 6 × 2,000 HDD
    d2.4xlarge 16 122 12 × 2,000 HDD
    d2.8xlarge 36 244 24 × 2,000 HDD 10 Gbps

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    超並列処理 (MPP) データウェアハウジング、MapReduce および Hadoop 分散型コンピューティング、分散ファイルシステム、ネットワークファイルシステム、ログアプリケーションまたはデータ処理アプリケーション。

  • D3
  • Amazon EC2 D3 インスタンスは、高いシーケンシャル I/O パフォーマンスやディスクスループットを必要とするアプリケーション向けに最適化されています。D3 インスタンスは、TB あたりの価格が安価な追加のコンピューティングとネットワークパフォーマンスを必要とする D2 インスタンスで実行するワークロードを改善するのに最適です。

    特徴:

    • 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した、最大 3.1 GHz の第 2 世代インテル® Xeon® スケーラブルプロセッサ (インテル Cascade Lake 8259CL)
    • 最大 48 TB の HDD インスタンスストレージ
    • EC2 D2 インスタンスよりも最大 45% 高い読み書きディスクスループット
    • AWS Nitro System 搭載

    インスタンスサイズ

    vCPU

    メモリ (GiB)

    インスタンスストレージ (TB)

    集約ディスクスループット (MiB/s)

    ネットワーク帯域幅 (Gbps)***

    EBS 帯域幅 (Mbps)

    d3.xlarge

    4

    32

    3 x 2 HDD

    580

    最大 15

    850

    d3.2xlarge

    8

    64

    6 x 2 HDD

    1,100

    最大 15

    1,700

    d3.4xlarge

    16

    128

    12 x 2 HDD

    2,300

    最大 15

    2,800

    d3.8xlarge

    32

    256

    24 x 2 HDD

    4,600

    25

    5,000

    * 128,000 ブロックサイズ、シーケンシャル読み込みおよび書き込み (xlarge を除いて 100 に最も近い値に丸められます)

    すべてのインスタンスの仕様は以下のとおりです

    • 最大 3.1 GHz の第 2 世代インテル® Xeon® Scalable (Cascade Lake) プロセッサ
    • インテル AVX†、インテル AVX2†、インテル AVX-512†、インテルターボ
    • 拡張ネットワーキング

    ユースケース

    分散ファイルシステム (HDFS、MapReduce ファイルシステムなど)、ビッグデータ分析ワークロード (Elastic MapReduce、Spark、Hadoop など)、超並列処理 (MPP) データウェアハウス (Redshift、HP Vertica など)、ログまたはデータ処理アプリケーション (Kafka、Elasticsearch など)

  • D3en
  • Amazon EC2 D3en インスタンスは、高いシーケンシャル I/O パフォーマンス、ディスクスループット、非常に大きなデータセット用の低コストストレージを必要とするアプリケーション向けに最適化されています。D3en インスタンスは、あらゆるクラウド製品の中で最も低価格な高密度ストレージを提供します。

    特徴:

    • 新しいインテル Advanced Vector Extension (AVX-512) 命令セットを内蔵した、最大 3.1 GHz の第 2 世代インテル® Xeon® スケーラブルプロセッサ (インテル Cascade Lake 8259CL)
    • 最大 336 TB の HDD インスタンスストレージ
    • 最大 75 Gbps のネットワーク帯域幅
    • EC2 D2 インスタンスよりも最大 2 倍高い読み書きディスクスループット
    • AWS Nitro System 搭載

    インスタンスサイズ

    vCPU

    メモリ (GiB)

    インスタンスストレージ (TB)

    集約ディスクスループット (MiB/s)

    ネットワーク帯域幅 (Gbps)***

    EBS 帯域幅 (Mbps)

    d3en.xlarge

    4

    16

    2 x 14 HDD

    500

    最大 25

    850

    d3en.2xlarge

    8

    32

    4 x 14 HDD

    1,000

    最大 25

    1,700

    d3en.4xlarge

    16

    64

    8 x 14 HDD

    2,000

    25

    2,800

    d3en.6xlarge

    24

    96

    12 x 14 HDD

    3,100

    40

    4,000

    d3en.8xlarge

    32

    128

    16 x 14 HDD

    4,100

    50

    5,000

    d3en.12xlarge

    48

    192

    24 x 14 HDD

    6,200

    75

    7,000

    * 128k ブロックサイズ、シーケンシャル読み込みおよび書き込み (最も近い 100 の倍数に丸められます)

    すべてのインスタンスの仕様は以下のとおりです

    • 3.1 GHz 全コアターボの第 2 世代インテル® Xeon® Scalable (Cascade Lake) プロセッサ
    • インテル AVX†、インテル AVX2†、インテル AVX-512†、インテルターボ
    • 拡張ネットワーキング

    ユースケース

    Lustre、BeeGFS、GPFS、VxCFS、GFS2 などのマルチノードファイルストレージシステム。一貫したシーケンシャル I/O パフォーマンスを備えた大容量データレイク

  • H1
  • Amazon EC2 H1 インスタンスは、最大 16 TB の HDD ベースのローカルストレージを備えており、高ディスクスループット、およびバランスの取れたコンピューティングとメモリを実現します。

    特徴:

    • 2.3 GHz インテル Xeon スケーラブルプロセッサ (Broadwell E5 2686 v4) を搭載
    • 最大 16 TB の HDD ストレージ
    • 高いディスクスループット
    • ENA が有効化された最大 25 Gbps の拡張ネットワーク
    インスタンス vCPU* メモリ (GiB) ネットワーキングパフォーマンス (Gbps)*** インスタンスストレージ (GB)
    h1.2xlarge 8 32 最大 10 1 × 2000 HDD
    h1.4xlarge 16 64 最大 10 2 x 2000 HDD
    h1.8xlarge 32 128 10 4 x 2000 HDD
    h1.16xlarge 64 256 25 8 x 2000 HDD

    すべてのインスタンスの仕様は以下のとおりです

    ユースケース

    MapReduce ベースのワークロード、HDFS や MapR-FS などの分散型ファイルシステム、ネットワークファイルシステム、Apache Kafka などのログまたはデータ処理アプリケーション、ビッグデータワークロードクラスター。

** i3.metal は、36 個の物理コアに 72 個の論理プロセッサを提供します

このページに掲載されていない旧世代のインスタンスをお探しですか? 旧世代のインスタンスページを参照してください。

HPC 最適化

ハイパフォーマンスコンピューティング (HPC) インスタンスは、AWS で HPC ワークロードを大規模に実行するために、最高の料金パフォーマンスを提供することを目的に構築されています。HPC インスタンスは、大規模で複雑なシミュレーションや深層学習のワークロードなど、ハイパフォーマンスプロセッサのメリットを享受できるアプリケーションに最適です。

  • Hpc7g
  • Amazon EC2 Hpc7g インスタンスは、計算流体力学 (CFD)、天気予報、分子動力学など、計算負荷の高いハイパフォーマンスコンピューティング (HPC) ワークロード向けに設計されています。

    特徴:

    • 128 GiB のメモリを搭載した最大 64 コアの Graviton3E プロセッサ
    • Elastic Fabric Adapter (EFA) の有効化で、ノード間ネットワーク帯域幅を最大 200 Gbps まで高速化、ネットワーク集約型アプリケーションのパフォーマンスを向上
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ 物理コア メモリ (GiB) インスタンスストレージ EFA ネットワーク帯域幅 (Gbps) ネットワーク帯域幅 (Gbps*)
    hpc7g.4xlarge 16 128 EBS のみ 200 25
    hpc7g.8xlarge 32 128 EBS のみ 200 25
    hpc7g.16xlarge 64 128 EBS のみ 200 25

     

    *仮想プライベートクラウド (VPC) および Amazon Simple Storage Service (Amazon S3) の外部では 500 Mbps のネットワーク帯域幅。
  • Hpc7a
  • Amazon EC2 Hpc7a インスタンスは、第 4 世代 AMD EPYC プロセッサを搭載し、計算流体力学 (CFD)、天気予報、マルチフィジックスシミュレーションなど、緊密に結合された計算負荷の高いハイパフォーマンスコンピューティング (HPC) ワークロード向けに設計されています。

    特徴:

    • 768 GiB のメモリを搭載した最大 192 コアの第 4 世代 AMD EPYC プロセッサー (AMD EPYC 9R14)
    • Elastic Fabric Adapter (EFA) の有効化で、ノード間ネットワーク帯域幅を最大 300 Gbps まで高速化、ネットワーク集約型アプリケーションのパフォーマンスを向上
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ 物理コア メモリ (GiB) インスタンスストレージ EFA ネットワーク帯域幅 (Gbps) ネットワーク帯域幅 (Gbps)*

    hpc7a.12xlarge

    24

    768

    EBS のみ

    300

    25

    hpc7a.24xlarge

    48

    768

    EBS のみ

    300

    25

    hpc7a.48xlarge

    96

    768

    EBS のみ

    300

    25

    hpc7a.96xlarge

    192

    768

    EBS のみ

    300

    25

     

    *仮想プライベートクラウド (VPC) および Amazon Simple Storage Service (Amazon S3) の外部では 500 Mbps のネットワーク帯域幅。

  • Hpc6id
  • Amazon EC2 Hpc6id インスタンスは、クラッシュシミュレーション、地震貯留層シミュレーション、構造シミュレーションのための有限要素解析 (FEA) など、データを多用するメモリバインドのハイパフォーマンスコンピューティング (HPC) ワークロード向けに設計されています。

    特徴: 

    • 最大 3.5 GHz のオールコアターボ周波数、64 コアのインテル Xeon スケーラブルプロセッサ、vCPU あたり 5 GB/秒のメモリ帯域幅、1024 GiB のメモリ
    • Elastic Fabric Adapter (EFA) の有効化で、ノード間ネットワーク帯域幅を最大 200 Gbps まで高速化、ネットワーク集約型アプリケーションのパフォーマンスを向上
    • パフォーマンスとクラスター管理を最適化するため、同時マルチスレッドを無効化
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ コア メモリ (GiB) SSD ストレージ (GiB) ネットワーク帯域幅 (Gbps)* EFA ネットワーク帯域幅 (Gbps)
    hpc6id.32xlarge 64 1,024 4 × 3800 (NVMe SSD) 25 200

     

    *仮想プライベートクラウド (VPC) および Amazon Simple Storage Service (S3) の外部では 500 Mbps のネットワーク帯域幅。
  • Hpc6a
  • Amazon EC2 Hpc6a インスタンスは、密結合で計算量の多いハイパフォーマンスコンピューティング (HPC) ワークロード向けに最適化されており、コスト効率の高いパフォーマンスを実現します。Hpc6a インスタンスは、計算流体力学、分子動力学、天気予報などのワークロード向けに設計されています。また、優れたネットワークスループットやパケットレートパフォーマンスを活用できるワークロード向けに設計されています。

    特徴: 

    • 最大 3.6 GHz の第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13)
    • Elastic Fabric Adapter (EFA) の有効化で、ノード間ネットワーク帯域幅を最大 100 Gbps まで高速化、ネットワーク集約型アプリケーションのパフォーマンスを向上
    • パフォーマンスとクラスター管理を最適化するため、同時マルチスレッドを無効化
    • 専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で駆動
    インスタンスサイズ コア メモリ (GiB) ネットワーク帯域幅 (Gbps)* EFA ネットワーク帯域幅 (Gbps)
    hpc6a.48xlarge 96 384 25 100

     

    *仮想プライベートクラウド (VPC) 外の 25 Gbps ネットワーク帯域幅、Amazon Simple Storage Service (S3)、または Amazon Elastic Block Store (EBS)。

インスタンスの機能

Amazon EC2 インスタンスには、アプリケーションのデプロイ、管理、スケーリングに役立つさまざまな追加機能があります。

バーストパフォーマンスインスタンス

Amazon EC2 では、定常パフォーマンスのインスタンスファミリー (M6、C6、R6 など) とバーストパフォーマンスインスタンスファミリー (T3 など) のいずれかを選択できます。バーストパフォーマンスインスタンスでは、ベースラインレベルの CPU パフォーマンスが提供されますが、そのベースラインを超えてバーストする能力を備えています。

Unlimited モードの T インスタンスは、ワークロードで必要とされる間、高い CPU パフォーマンスを維持できます。ほとんどの汎用ワークロードについて、Unlimited モードの T インスタンスは追加料金を一切生じることなく十分なパフォーマンスを提供します。時間あたりの T インスタンス料金は、T インスタンスの平均 CPU 使用率が 24 時間にわたってベースライン以下の場合は、すべての一時的な使用率のスパイクを時間あたりの T インスタンス料金で自動的にカバーします。長時間にわたって高い CPU 使用率でインスタンスを実行する必要がある場合には、固定の追加料金 (vCPU 時間あたり 5 セント) で実行できます。

T インスタンスのベースラインパフォーマンスとバーストする機能は、CPU クレジットによって制御されます。各 T インスタンスは、CPU クレジットを継続的に獲得します。その速度はインスタンスのサイズによって異なります。T インスタンスは、アイドル状態のときに CPU クレジットが加算され、アクティブなときに CPU クレジットを消費します。1 CPU クレジットで 1 分間、最大の CPU コアパフォーマンスにバーストできます。

例えば、t2.small インスタンスは 1 時間あたり 12 CPU クレジットの速度でクレジットを継続的に獲得します。この機能により、CPU コアの 20% に相当するベースラインパフォーマンスが提供されます (20% x 60 分 = 12 分)。獲得したクレジットはインスタンスで使用されない場合、CPU クレジット残高に最大 288 CPU クレジットまで保存されます。t2.small インスタンスがコアの 20% を超えてバーストする必要がある場合、CPU クレジット残高からの引き出しによってこの急増を自動的に処理します。

T2 Unlimited が有効な場合、t2.small インスタンスは、CPU クレジット残高がなくなるまで引き出された後でも、ベースラインを超えてバーストできます。汎用ワークロードのほとんどは平均 CPU 使用率がベースラインパフォーマンスを超えないため、t2.small の基本時間単価ですべての CPU バーストがカバーされます。CPU クレジット残高がなくなるまで引き出された後、24 時間にわたって 25% の平均 CPU 使用率 (ベースラインを 5% 超過) でインスタンスがインスタンスが実行された場合、6 セント (5 セント/vCPU 時間 x 1 vCPU x 5% x 24 時間) の追加料金が発生します。

ウェブサーバー、開発環境、小規模なデータベースなどの多くのアプリケーションでは、常に高性能な CPU を必要とするわけではありませんが、必要なときに非常に高速な CPU にフルアクセスできると大きな利点となります。T インスタンスは、特にこれらのユースケースのために設計されています。動画エンコーディング、ボリュームの大きなウェブサイトまたは HPC アプリケーションなど、アプリケーションで一貫して高い CPU パフォーマンスが必要な場合は、固定パフォーマンスインスタンスの使用をお勧めします。 アプリケーションで本当に CPU パフォーマンスが必要なときに、T インスタンスは専用の高速なプロセッサコアが利用可能であるかのように動作します。同時に、他の環境のオーバーサブスクリプションでよく見られるパフォーマンスの変動やその他の一般的な副作用からユーザーを保護するように設計されています。

複数のストレージオプション

Amazon EC2 では、要件に基づいて複数のストレージオプションから選択できます。Amazon EBS は、実行中の Amazon EC2 インスタンス 1 つにアタッチできる、耐久性に優れたブロックレベルのストレージボリュームです。Amazon EBS は、頻繁にきめ細かな更新が必要なデータのプライマリストレージデバイスとして使用できます。例えば、Amazon EC2 でデータベースを実行するときには、Amazon EBS をストレージオプションとして使用することを推奨します。Amazon EBS ボリュームは、Amazon EC2 インスタンスの運用状況からは独立して存続します。インスタンスにアタッチした後のボリュームは、他の物理ハードドライブと同じように使用できます。Amazon EBS では、実際のワークロードのニーズに最適なように、汎用 (SSD)、プロビジョンド IOPS (SSD)、マグネティックという 3 つのボリュームタイプが用意されています。汎用 (SSD) は、新しい SSD ベースの汎用 EBS ボリュームタイプで、お客様のデフォルトの選択肢としてお勧めしています。汎用 (SSD) ボリュームは、小~中規模のデータベース、開発やテストの環境など、広範なワークロードに適しています。また、ブートボリュームに最適です。プロビジョンド IOPS (SSD) ボリュームは、安定した低レイテンシーのパフォーマンスを備えたストレージを提供します。大規模なリレーショナルデータベースや NoSQL データベースなど、I/O 負荷の高いアプリケーション向けに設計されています。マグネティックボリュームは、すべての EBS ボリュームタイプの中でギガバイトあたりのコストが最も安価です。マグネティックボリュームは、データへのアクセス頻度が低いワークロードや、ストレージコストをなるべく安く抑えることが重要なアプリケーションに最適です。

多くの Amazon EC2 インスタンスは、インスタンスストレージと呼ばれるホストコンピュータ内にあるデバイスのストレージも含めることができます。インスタンスストレージは、Amazon EC2 インスタンスにブロックレベルの一時ストレージを提供します。インスタンスストレージ上のデータは、関連付けられた Amazon EC2 インスタンスの稼働中のみ保持されます。

Amazon EBS またはインスタンスストレージ経由のブロックレベルストレージに加えて、耐久性に優れた高可用性オブジェクトストレージに Simple Storage Service (Amazon S3) を使用することもできます。Amazon EC2 ストレージオプションの詳細については、Amazon EC2 のドキュメント を参照してください。

EBS 最適化インスタンス

1 時間単位のわずかな追加料金で、お客様指定の Amazon EC2 インスタンスタイプを EBS 最適化インスタンスとして起動できます。EBS 最適化インスタンスを利用すると、EBS ボリュームに対してプロビジョニングされた IOPS を EC2 インスタンスで最大限に使用できるようになります。EBS 最適化インスタンスは、Amazon EC2 と Amazon EBS の間に専用のスループットを提供するもので、使用するインスタンスタイプに応じて、500 メガビット/秒 (Mbps)~80 ギガビット/秒 (Gbps) のオプションが用意されています。この専有スループットにより、Amazon EBS I/O と EC2 インスタンスからの他のトラフィックとの競合を最低限に抑え、EBS ボリュームのパフォーマンスを最大限に引き出します。EBS 最適化インスタンスは、すべての EBS ボリュームで使用できるように設計されています。EBS 最適化インスタンスにアタッチされたプロビジョンド IOPS ボリュームは、10 ミリ秒未満のレイテンシーを実現でき、プロビジョニングされた IOPS の 10% 以内のパフォーマンスを発揮できる時間が 99.9% となるように設計されています。プロビジョンド IOPS ボリュームは、EBS 最適化インスタンスや、ストレージ I/O の要件レベルが高いアプリケーションのクラスターネットワークをサポートするインスタンスと併用することをお勧めします。

クラスターネットワーク

一般的なクラスタープレイスメントグループ内で起動した特定の EC2 インスタンスでは、クラスターネットワークを利用できます。クラスタープレイスメントグループでは、クラスター内のすべてのインスタンス間で、低レイテンシーのネットワーキングが提供されます。EC2 インスタンスが利用できる帯域幅は、インスタンスタイプおよびそのネットワークパフォーマンスの仕様によって異なります。同じリージョン内のインスタンス間トラフィックでは、シングルフローの場合は最大 5 Gbps、各方向 (全二重) のマルチフロートラフィックの場合は最大 100 Gbps を利用できます。同じリージョン内の S3 バケットに対するトラフィックでも、インスタンスで使用できる分をすべて集約した帯域幅を利用できます。プレイスメントグループ内で起動したインスタンスは、シングルフロートラフィックの場合は最大 10 Gbps、マルチフロートラフィックの場合は最大 100 Gbps を利用できます。インターネットに向かうネットワークトラフィックは、5 Gbps (全二重) に制限されます。クラスターネットワークは、高性能の分析システムや多くの科学および工学アプリケーションに最適で、特に、並列プログラミングでは標準的な MPI ライブラリを使用するものに適しています。

インテルプロセッサの機能

インテルプロセッサ搭載の Amazon EC2 インスタンスは、以下のプロセッサ機能を利用できる場合があります。

  • インテル AES New Instructions (AES-NI): インテル AES-NI 暗号化命令セットは、オリジナルの Advanced Encryption Standard (AES) アルゴリズムを改良し、より高速なデータ保護とより優れたセキュリティを提供します。現行世代の全 EC2 インスタンスがこのプロセッサ機能をサポートしています。
  • インテル Advanced Vector Extensions (インテル AVX、インテル AVX2、およびインテル AVX-512): 浮動小数点 (FP) 集約型のアプリケーション用に設計された命令セット拡張で、インテル AVX およびインテル AVX2 は 256 ビット、インテル AVX-512 は 512 ビットです。インテル AVX 命令は、画像およびオーディオ/ビデオ処理、科学的シミュレーション、財務分析、および 3D モデリングと分析などのアプリケーションに対するパフォーマンスを向上させます。これらの機能は、HVM AMI で起動されたインスタンスのみで利用できます。
  • インテルターボブーストテクノロジー: インテルターボブーストテクノロジーは、必要なときにパフォーマンスを向上します。このプロセッサは、自動的にコアを定格の動作周波数よりも速く実行でき、より多くの作業をより速く実行するために役立ちます。
  • インテル Deep Learning Boost (インテル DL Boost): AI 深層学習のユースケースを迅速化するために設計された、一連の組み込み型プロセッサテクノロジー。第 2 世代インテル Xeon スケーラブルプロセッサでは、新しいベクトルニューラルネットワーク命令 (VNNI/INT8) を使ってインテル AVX-512 を拡張します。これにより、画像認識/セグメント化、物体検出、音声認識、言語翻訳、レコメンデーションシステム、強化学習などにおけるディープラーニングの推論パフォーマンスは、前世代のインテル Xeon スケーラブルプロセッサ (FP32) よりも大幅に向上します。VNNI はすべての Linux ディストリビューションと互換性があるわけではありません。使用する前にドキュメントをご確認ください。 

一部のインスタンスタイプではすべてのプロセッサ機能を利用できない場合があるため、インスタンスタイプメトリクスで、どのインスタンスタイプにどの機能を使用できるかについての詳細情報を確認してください。

インスタンスのパフォーマンスの測定

インスタンスのパフォーマンスを測定する必要がある理由

Amazon EC2 では、さまざまなインスタンスタイプのプロビジョニングが可能で、異なる組み合わせの CPU、メモリ、ディスク、ネットワークが提供されています。新しいインスタンスの導入と並行して容易にテストを実施できるので、アプリケーションのパフォーマンスを測定して、適切なインスタンスタイプを特定し、アプリケーションアーキテクチャの妥当性を検証することをお勧めします。また、ロードとスケーリングの厳しいテストにより、意図したとおりアプリケーションがスケールできるかどうかを確認することをお勧めします。

Amazon EC2 パフォーマンス評価の考慮事項

Amazon EC2 では、10 種類の異なるインスタンスタイプにわたって多数のオプションが用意されています。各タイプに 1 つ以上のサイズオプションがあり、さまざまなタイプのアプリケーションのために最適化された異なるインスタンスファミリーに分類されています。アプリケーションのパフォーマンスをテストするときは、始めにアプリケーションの要件を評価し、適切なインスタンスファミリーを選択することをお勧めします。アプリケーションのパフォーマンス評価では、まず、(a) 異なるインスタンスファミリーと比較してお使いのアプリケーションのニーズ (例えば、アプリケーションがコンピューティングとメモリのどちらに結び付いているかなど) を洗い出し、(b) 適切なインスタンスサイズを識別するためにワークロードの規模を明らかにしてください。アプリケーションのパフォーマンスは、下層のインフラストラクチャや、ソフトウェアおよびアーキテクチャの制限による影響を受ける可能性があるため、アプリケーション全体のパフォーマンスを測定することに代わる手段はありません。アプリケーションプロファイリングおよびロードテスティング用のツールとサービスの使用を含む、アプリケーションレベルのテストの実行が推奨されます。 詳細については、サポートケースを開いて、関心のある特定のインスタンスタイプの追加ネットワークパフォーマンス仕様を要求してください。