投稿日: Jan 27, 2023

AWS は、Amazon SageMaker で推論用の機械学習 (ML) モデルをデプロイするための ml.p4de.24xlarge インスタンスのプレビュー版を発表しました。

ml.p4de.24xlarge インスタンスは 1 GPU あたり 80 GB のメモリ (合計 640 GB) を搭載し、最大 8 TB のローカル NVMe SSD ストレージに対応しています。これにより SageMaker で、大規模言語モデルや Generative AI モデルなど、コンピューティング集約型ワークロードの高性能な機械学習推論が可能になります。これらのインスタンスには、96 個の vCPU、1152 GiB のインスタンスメモリ、400 Gbps のネットワーク帯域幅が搭載されています。 

ml.p4de インスタンスは、米国東部 (バージニア北部) と米国西部 (オレゴン) で使用できます。 

AWS Service Quotas を使って制限の引き上げをリクエストするだけで、プレビュー版を利用できます。これらのインスタンスの料金情報については、料金ページをご覧ください。SageMaker によるモデルのデプロイの詳細については、こちらの概要とこちらのドキュメントを参照してください。P4de インスタンス全般の詳細については、P4 製品ページをご覧ください。