投稿日: Oct 17, 2023
AWS は、Amazon SageMaker でリアルタイムおよび非同期推論用の機械学習 (ML) モデルをデプロイするための ml.p5.48xlarge インスタンスのプレビュー版を発表しました。
NVIDIA H100 Tensor Core GPU あたり 80 GB のメモリ (合計 640 GB)、30 TB のローカル NVMe SSD ストレージ、192 個の vCPU、2 TiB のインスタンスメモリを備えた ml.p5.48xlarge インスタンスは、質問応答、コード生成、ビデオと画像の生成、音声認識などのコンピューティング負荷の高い AI ワークロードで高性能の機械学習推論を可能にするように構築されています。
ml.p5.48xlarge インスタンスは、米国東部 (バージニア北部) および米国西部 (オレゴン) の SageMaker でご利用いただけるようになりました。