投稿日: Oct 4, 2019

Amazon SageMaker では、機械学習アプリケーション向けに最適化された最もパワフルな P3 インスタンスである ml.p3dn.24xlarge をサポートするようになりました。このインスタンスでは高速ネットワーキングを提供することで、データ転送のボトルネックを解消し、GPU の使用を最適化して、深層学習モデルのトレーニングのパフォーマンスを最大化できます。

ml.p3dn.24xlarge インスタンスは、最大 100 Gbps のネットワーキングスループット、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、それぞれに 32 GB のメモリを搭載した 8 個の NVIDIA® V100 Tensor Core GPU、300 GB/秒の NVLINK GPU 相互接続、1.8 TB の NVMe ベースのローカル SSD ストレージを提供します。2 番目に大規模な P3 インスタンスと比較してネットワークスループットが 4 倍拡張され、より高速なプロセッサとローカル NVMe ベースの SSD ストレージと組み合わせることで、開発者は複数の ml.p3dn.24xlarge インスタンスに機械学習トレーニングジョブを効率的に分散し、データ転送と前処理のボトルネックを排除することができます。

下表で、Amazon SageMaker ml.p3dn.24xlarge インスタンスと既存のAmazon SageMaker ml.p3dn.24xlarge インスタンスの比較をご覧ください。

ML インスタンスタイプ GPUs – Tesla V100 GPU Peer to Peer GPU メモリ (GB) vCPU メモリ (GB) ネットワーク帯域幅 EBS 帯域幅 ローカルインスタンスストレージ
ml.p3.2xlarge 1 該当なし 16 8 (Broadwell) 61 最大 10 Gbps 1.5 Gbps 該当なし
ml.p3.8xlarge 4 NVLink 64 32 (Broadwell) 244 10 Gbps 7 Gbps 該当なし
ml.p3.16xlarge 8 NVLink 128 64 (Broadwell) 488 25 Gbps 14 Gbps 該当なし
ml.p3dn.24xlarge 8 NVLink 256 96 (Skylake) 768 100 Gbps 14 Gbps 900 GB NVMe SSD x 2

Amazon SageMaker ml.p3dn.24xlarge インスタンスは、米国東部 (バージニア北部) リージョンおよび米国西部 (オレゴン) リージョンでご利用いただけます。これらのインスタンスを使用すると 1.8 TB のローカル NVMe ベース SSD ストレージを使用でき、追加の ml ストレージボリュームを作成して支払う必要がなくなります。このインスタンスタイプでのローカル NVMe ベース SSD ストレージの使用方法について詳しくは、Amazon SageMaker のドキュメントをご覧ください。AWS のお客様の P3 インスタンスの使用については、P3 ページをご覧ください。