Amazon Web Services ブログ

NVIDIA RTX PRO 6000 Blackwell Server Edition GPU で高速化された Amazon EC2 G7e インスタンスのご紹介

2026 年 1 月 20 日、Amazon Elastic Compute Cloud (Amazon EC2) G7e インスタンスの一般提供が発表されました。G7e インスタンスは生成 AI 推論ワークロードにコスト効率の高いパフォーマンスを提供し、グラフィックワークロードでは最も高いパフォーマンスを実現します。

G7e インスタンスは NVIDIA RTX PRO 6000 Blackwell Server Edition GPU によって高速化されており、空間コンピューティングや科学コンピューティングのワークロードなど、さまざまな GPU 対応ワークロードに適しています。G7e インスタンスは、G6e インスタンスよりも最大 2.3 倍優れた推論パフォーマンスを提供します。

以前のインスタンスからの改善点は以下のとおりです。

  • NVIDIA RTX PRO 6000 Blackwell GPU – NVIDIA RTX PRO 6000 Blackwell Server Edition GPU は、G6e インスタンスと比較して 2 倍の GPU メモリと 1.85 倍の GPU メモリ帯域幅を提供します。G7e インスタンスが提供する大容量の GPU メモリを使用することにより、単一の GPU で最大 70B パラメータの中規模モデルを FP8 の精度で実行できます。
  • NVIDIA GPUDirect P2P – 単一 GPU のメモリでは対応し切れない大きさのモデルについては、複数の GPU にモデルまたは計算を分割することができます。G7e インスタンスは、PCIe インターコネクト経由での GPU 間直接通信を可能にする NVIDIA GPUDirect P2P をサポートしているため、マルチ GPU ワークロードのレイテンシーが低減します。これらのインスタンスは、同一の PCIe スイッチ上にある GPU に最も低いピアツーピアレイテンシーを提供します。さらに、G7e インスタンスは G6e インスタンスに搭載された L40s GPU よりも最大 4 倍広い GPU 間帯域幅を提供するため、マルチ GPU ワークロードのパフォーマンスが向上します。これらの改善により、単一のノード内で最大 768 GB の GPU メモリを提供する複数の GPU で大規模モデルの推論を実行できるようになります。
  • ネットワーク – G7e インスタンスは G6e インスタンスより 4 倍広いネットワーク帯域幅を提供するため、小規模のマルチノードワークロードでの使用が可能です。また、マルチ GPU G7e インスタンスは Elastic Fabric Adapter (EFA) 経由で NVIDIA GPUDirect Remote Direct Memory Access (RDMA) をサポートすることから、マルチノードワークロードのリモート GPU 間通信のレイテンシーが低減します。これらのインスタンスサイズは Amazon FSx for Lustre での NVIDIA GPUDirectStorage の使用もサポートしており、インスタンスへのスループットが G6e インスタンスよりも最大 1.2 Tbps 高くなるため、モデルをすばやくロードできます。

EC2 G7e の仕様
G7e インスタンスには、最大 768 GB の総 GPU メモリ (GPU あたり 96 GB のメモリ) を提供する最大 8 個の NVIDIA RTX PRO 6000 Blackwell Server Edition GPU と、Intel Emerald Rapids プロセッサが搭載されています。また、最大 192 個の vCPU、最大 1,600 Gbps のネットワーク帯域幅、最大 2,048 GiB のシステムメモリ、最大 15.2 TB のローカル NVMe SSD ストレージもサポートしています。

仕様は以下のとおりです。

インスタンス名
GPU 数 GPU メモリ (GB) vCPU 数 メモリ (GiB) ストレージ (TB) EBS 帯域幅 (Gbps) ネットワーク帯域幅 (Gbps)
g7e.2xlarge 1 96 8 64 1.9 x 1 最大 5 50
g7e.4xlarge 1 96 16 128 1.9 x 1 8 50
g7e.8xlarge 1 96 32 256 1.9 x 1 16 100
g7e.12xlarge 2 192 48 512 3.8 x 1 25 400
g7e.24xlarge 4 384 96 1,024 3.8 x 2 50 800
g7e.48xlarge 8 768 192 2,048 3.8 x 4 100 1,600

G7e インスタンスの使用開始には、機械学習ワークロードに AWS Deep Learning AMI (DLAMI) を使用できます。インスタンスの実行には、AWS マネジメントコンソールAWS コマンドラインインターフェイス (AWS CLI)、または AWS SDK を使用できます。マネージド型のエクスペリエンスを希望する場合は、Amazon Elastic Container Service (Amazon ECS)Amazon Elastic Kubernetes Service (Amazon EKS) で G7e インスタンスを使用できます。Amazon SageMaker AI のサポートも近日提供予定です。

今すぐご利用いただけます
Amazon EC2 G7e インスタンスは、2026 年 1 月 20 日から米国東部 (バージニア北部) と米国東部 (オハイオ) の各 AWS リージョンでご利用いただけます。リージョンの提供状況と今後のロードマップについては、AWS Capabilities by Region[CloudFormation リソース] タブでインスタンスタイプを検索してください。

G7e インスタンスは、オンデマンドインスタンスSavings Planスポットインスタンスとして購入できます。G7e インスタンスは、ハードウェア専有インスタンスおよび専有ホストでの利用も可能です。詳細については、Amazon EC2 の料金ページをご覧ください。

Amazon EC2 コンソールで G7e インスタンスをお試しください。詳細については、Amazon EC2 G7e instances ページをご覧ください。フィードバックもお待ちしています。フィードバックは AWS re:Post for EC2 に送信するか、通常の AWS サポート連絡先経由でお寄せください。

Channy

原文はこちらです。