EC2 Capacity Blocks を介した Amazon EC2 P5e インスタンスの一般提供を開始
本日、AWS は、最新の NVIDIA H200 Tensor コア GPU を搭載した Amazon Elastic Compute Cloud (Amazon EC2) P5e インスタンスの一般提供を開始しました。EC2 Capacity Blocks を介して利用可能なこれらのインスタンスは、深層学習と生成 AI 推論において Amazon EC2 で最高のパフォーマンスを発揮します。
Amazon EC2 P5e インスタンスは、最も要求の厳しい生成 AI アプリケーションを強化する、ますます複雑化する大規模言語モデル (LLM) や拡散モデルのトレーニングやデプロイに使用できます。また、P5e インスタンスを使用して、医薬品開発、耐震解析、天気予報、財務モデリングなどの要求の厳しい HPC アプリケーションを大規模にデプロイすることもできます。
P5e インスタンスには 8 個の H200 GPU が搭載されており、P5 インスタンスに搭載されている H100 GPU の 1.7 倍の GPU メモリサイズと 1.5 倍の GPU メモリ帯域幅を備えています。第 2 世代の Elastic Fabric Adapter (EFA) テクノロジーを使用した最大 3,200 Gbps のネットワーキングにより、分散型トレーニングや密結合された HPC ワークロード向けの、市場をリードするスケールアウト機能を提供します。P5e インスタンスは、低レイテンシーで大規模なお客様のニーズに応えるため、Amazon EC2 UltraClusters にデプロイされています。
P5e インスタンスは、EC2 Capacity Blocks for ML を介して、米国東部 (オハイオ) AWS リージョンで p5e.48xlarge サイズが利用可能になりました。
P5e インスタンスの詳細については、「Amazon EC2 P5e インスタンス」を参照してください。