投稿日: Oct 4, 2019
Amazon SageMaker では、機械学習アプリケーション向けに最適化された最もパワフルな P3 インスタンスである ml.p3dn.24xlarge をサポートするようになりました。このインスタンスでは高速ネットワーキングを提供することで、データ転送のボトルネックを解消し、GPU の使用を最適化して、深層学習モデルのトレーニングのパフォーマンスを最大化できます。
ml.p3dn.24xlarge インスタンスは、最大 100 Gbps のネットワーキングスループット、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、それぞれに 32 GB のメモリを搭載した 8 個の NVIDIA® V100 Tensor Core GPU、300 GB/秒の NVLINK GPU 相互接続、1.8 TB の NVMe ベースのローカル SSD ストレージを提供します。2 番目に大規模な P3 インスタンスと比較してネットワークスループットが 4 倍拡張され、より高速なプロセッサとローカル NVMe ベースの SSD ストレージと組み合わせることで、開発者は複数の ml.p3dn.24xlarge インスタンスに機械学習トレーニングジョブを効率的に分散し、データ転送と前処理のボトルネックを排除することができます。
下表で、Amazon SageMaker ml.p3dn.24xlarge インスタンスと既存のAmazon SageMaker ml.p3dn.24xlarge インスタンスの比較をご覧ください。
ML インスタンスタイプ | GPUs – Tesla V100 | GPU Peer to Peer | GPU メモリ (GB) | vCPU | メモリ (GB) | ネットワーク帯域幅 | EBS 帯域幅 | ローカルインスタンスストレージ |
---|---|---|---|---|---|---|---|---|
ml.p3.2xlarge | 1 | 該当なし | 16 | 8 (Broadwell) | 61 | 最大 10 Gbps | 1.5 Gbps | 該当なし |
ml.p3.8xlarge | 4 | NVLink | 64 | 32 (Broadwell) | 244 | 10 Gbps | 7 Gbps | 該当なし |
ml.p3.16xlarge | 8 | NVLink | 128 | 64 (Broadwell) | 488 | 25 Gbps | 14 Gbps | 該当なし |
ml.p3dn.24xlarge | 8 | NVLink | 256 | 96 (Skylake) | 768 | 100 Gbps | 14 Gbps | 900 GB NVMe SSD x 2 |
Amazon SageMaker ml.p3dn.24xlarge インスタンスは、米国東部 (バージニア北部) リージョンおよび米国西部 (オレゴン) リージョンでご利用いただけます。これらのインスタンスを使用すると 1.8 TB のローカル NVMe ベース SSD ストレージを使用でき、追加の ml ストレージボリュームを作成して支払う必要がなくなります。このインスタンスタイプでのローカル NVMe ベース SSD ストレージの使用方法について詳しくは、Amazon SageMaker のドキュメントをご覧ください。AWS のお客様の P3 インスタンスの使用については、P3 ページをご覧ください。