投稿日: May 26, 2022
Amazon EC2 P4de インスタンスのプレビュー開始を発表いたします。これは、機械学習 (ML) トレーニングおよび、物体検出、セマンティックセグメンテーション、自然言語処理、レコメンデーションシステム、地震解析、計算流体力学などのハイパフォーマンスコンピューティング (HPC) アプリケーションに最高のパフォーマンスを提供する最新の GPU ベースのインスタンスです。
P4de インスタンスは、80GB の高性能 HBM2e GPU メモリ、現在の P4d インスタンスの GPU より 2 倍速い GPU を備えた 8 つの NVIDIA A100 GPU を搭載しています。この新しい P4de インスタンスは合計 640GB の GPU メモリを提供し、P4d インスタンスと比較して最大 60% 優れた ML トレーニングパフォーマンスと 20% 低いトレーニングコストを提供します。パフォーマンスの向上により、お客様はモデルのトレーニング時間を短縮し、市場投入までの時間を短縮できます。P4de の GPU メモリを増やすと、高解像度データの大規模なデータセットでトレーニングする必要があるワークロードにもメリットがあります。
P4de インスタンスが、AWS 米国東部 (バージニア北部) および米国西部 (オレゴン) リージョンでご利用いただけるようになりました。同インスタンスは p4de.24xl サイズで利用でき、96 個の vCPU、8 個の NVIDIA A100-80GB GPU、1.1 TB のインスタンスメモリ、8 TB のローカル NVMe ベースの SSD ストレージ、19Gbps の EBS 帯域幅、EFA および GPUDirect RDMA による 400Gbps のネットワーク帯域幅を提供します。P4de インスタンスは、EC2 UltraClusters にデプロイされ、ML トレーニングと HPC のスケールアウトアプリケーション向けに、ペタビットスケールのノンブロッキングネットワーキングインフラストラクチャ、FSx を介した高スループットで低レイテンシーのストレージを提供します。新しい P4de インスタンスにより、業界で最も幅広い高速コンピューティングインスタンスのポートフォリオを拡張し続け、独自のシリコンとパートナーからのアクセラレータで強化されたプラットフォームを特徴とし、お客様があらゆる規模の機械学習モデルを構築、トレーニング、デプロイできるように、最高のパフォーマンスを発揮する NVIDIA GPU を提供いたします。
P4de インスタンスの詳細とアクセスのリクエストについては、P4 製品ページにアクセスしてください。