投稿日: Jul 26, 2023
本日、AWS は、最新の NVIDIA H100 Tensor コア GPU を搭載した Amazon Elastic Compute Cloud (Amazon EC2) P5 インスタンスの一般提供を開始しました。これらのインスタンスは、深層学習アプリケーションやハイパフォーマンスコンピューティング (HPC) アプリケーション向けに Amazon EC2 で最高のパフォーマンスを発揮します。 前世代の GPU ベースのインスタンスと比べて、ソリューションまでの時間が最大 6 倍短縮され、ML モデルのトレーニングコストが最大 40% 削減されます。
Amazon EC2 P5 インスタンスは、最も要求の厳しい生成系 AI アプリケーションを強化する、ますます複雑化する大規模言語モデル (LLM) や拡散モデルのトレーニングやデプロイに使用できます。これには、質問への回答、コード生成、動画と画像の生成、音声認識などが含まれます。また、P5 インスタンスを使用して、医薬品開発、耐震解析、天気予報、財務モデリングなどの要求の厳しい HPC アプリケーションを大規模にデプロイすることもできます。
こうしたパフォーマンス向上とコスト削減を実現するため、P5 インスタンスは、前世代の GPU ベースのインスタンスと比較して、2 倍の CPU パフォーマンス、2 倍のシステムメモリ、4 倍のローカルストレージを備えた NVIDIA H100 Tensor コア GPU を組み合わせています。第 2 世代の Elastic Fabric Adapter (EFA) テクノロジーを使用した最大 3,200 Gbps のネットワーキングにより、分散型トレーニングや密結合された HPC ワークロード向けの、市場をリードするスケールアウト機能を提供します。P5 インスタンスは、低レイテンシーで大規模なお客様のニーズに応えるため、Amazon EC2 UltraClusters にデプロイされています。これらにより、最大 20,000 個の H100 GPU 間でペタビット規模のノンブロッキング相互接続が可能になり、合計で最大 20 エクサフロップスのコンピューティング能力が得られます。
P5 インスタンスは、p5.48xl サイズで米国東部 (バージニア北部) と米国西部 (オレゴン) の AWS リージョンで利用できるようになりました。
P5 インスタンスの詳細については、「Amazon EC2 P5 Instances」を参照してください。