Amazon EC2 G7e インスタンスの一般提供開始
Amazon は本日、NVIDIA RTX PRO 6000 Blackwell Server Edition GPU によって高速化された Amazon Elastic Compute Cloud (Amazon EC2) G7e インスタンスの一般提供を発表しました。 G7e インスタンスは G6e と比較して推論パフォーマンスが最大 2.3 倍になります。
G7e インスタンスを使用して、大規模言語モデル (LLM)、エージェンティック AI モデル、マルチモーダル生成 AI モデル、物理 AI モデルをデプロイできます。G7e インスタンスは、空間コンピューティングワークロードに加えて、グラフィック処理と AI 処理の両方の機能が必要なワークロードのためのきわめて高いパフォーマンスを提供します。 G7e インスタンスは、最大 8 つの NVIDIA RTX PRO 6000 Blackwell Server Edition GPU を搭載し、GPU あたり 96 GB のメモリと第 5 世代 Intel Xeon プロセッサーを備えています。最大 192 個の仮想 CPU (vCPU) と、最大 1600 Gbps の Elastic Fabric Adapter ネットワーク帯域幅をサポートします。G7e インスタンスは、マルチ GPU ワークロードのパフォーマンスを向上させる NVIDIA GPUDirect Peer to Peer (P2P) をサポートしています。マルチ GPU の G7e インスタンスは EC2 UltraClusters の EFAv4 と共に NVIDIA GPUDirect Remote Direct Memory Access (RDMA) もサポートしているため、小規模なマルチノードワークロードのレイテンシーが減少します。
Amazon EC2 の G7e インスタンスは、米国東部 (バージニア北部) および米国東部 (オハイオ) の AWS リージョンでご利用いただけます。G7e インスタンスは、オンデマンドインスタンス、スポットインスタンス、または Savings Plans の一部としてご購入いただけます。
使用を開始するには、AWS マネジメントコンソール、AWS コマンドラインインターフェイス (CLI)、AWS SDK にアクセスしてください。詳細については、G7e インスタンスをご覧ください。