投稿日: Oct 17, 2023

AWS は、Amazon SageMaker でリアルタイムおよび非同期推論用の機械学習 (ML) モデルをデプロイするための ml.p5.48xlarge インスタンスのプレビュー版を発表しました。

NVIDIA H100 Tensor Core GPU あたり 80 GB のメモリ (合計 640 GB)、30 TB のローカル NVMe SSD ストレージ、192 個の vCPU、2 TiB のインスタンスメモリを備えた ml.p5.48xlarge インスタンスは、質問応答、コード生成、ビデオと画像の生成、音声認識などのコンピューティング負荷の高い AI ワークロードで高性能の機械学習推論を可能にするように構築されています。

ml.p5.48xlarge インスタンスは、米国東部 (バージニア北部) および米国西部 (オレゴン) の SageMaker でご利用いただけるようになりました。

AWS Service Quotas を使って制限の引き上げをリクエストするだけで、プレビュー版を利用できます。これらのインスタンスの料金情報については、料金ページをご覧ください。SageMaker によるモデルのデプロイの詳細については、こちらの概要とこちらのドキュメントを参照してください。P5 インスタンス全般の詳細については、P5 製品ページをご覧ください。