投稿日: Jan 27, 2023
AWS は、Amazon SageMaker で推論用の機械学習 (ML) モデルをデプロイするための ml.p4de.24xlarge インスタンスのプレビュー版を発表しました。
ml.p4de.24xlarge インスタンスは 1 GPU あたり 80 GB のメモリ (合計 640 GB) を搭載し、最大 8 TB のローカル NVMe SSD ストレージに対応しています。これにより SageMaker で、大規模言語モデルや Generative AI モデルなど、コンピューティング集約型ワークロードの高性能な機械学習推論が可能になります。これらのインスタンスには、96 個の vCPU、1152 GiB のインスタンスメモリ、400 Gbps のネットワーク帯域幅が搭載されています。
ml.p4de インスタンスは、米国東部 (バージニア北部) と米国西部 (オレゴン) で使用できます。