投稿日: Dec 7, 2018

Amazon EC2 P3dn.24xlarge GPU インスタンスを本日発表いたします。この P3 インスタンスファミリーの最新インスタンスはすでに一般提供が開始されています。P3.16xlarge インスタンスの最大 4 倍のネットワーク帯域幅を持つ P3dn.24xlarge インスタンスは、分散型機械学習と HPC アプリケーション向けに最適化されています。この新たなインスタンスは、最大 100 Gbps のネットワーキングスループット、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、それぞれに 32 GB のメモリを搭載した 8 個の NVIDIA® V100 Tensor Core GPU、300 GB/秒の NVLINK GPU 相互接続、1.8 TB の NVMe ベースのローカル SSD ストレージを提供します。

ネットワークの高速化、vCPU が増加した新しいプロセッサの搭載、GPU メモリの倍増、高速なローカルインスタンスストレージの追加が行われたこのインスタンスを使用すると、開発者はシングルインスタンスでのパフォーマンスを最適化できるだけでなく、複数のインスタンス (たとえば、16 個、32 個、64 個のインスタンス) にジョブをスケールアウトすることで、ML モデルのトレーニングにかかる時間を大幅に短縮したり、より多くの HPC シミュレーションを実行したりすることもできます。

AWS はクラウドプロバイダーとしては初めて 100 Gbps のネットワーキングスループットを提供します。この高いスループットにより、データ転送のボトルネックが解消され、GPU の使用が最適化されて、インスタンスのパフォーマンスが最大化されます。さらに、GPU 1 個あたり 16 GB から 32 GB に倍増した GPU メモリによって柔軟性が提供され、より高度かつより大規模な機械学習モデルのトレーニングや、画像分類システム、オブジェクト検出システム向けの 4k 画像のようなより大容量のデータの処理が可能になります。

下表で、P3dn.24xlarge が既存の P3 インスタンスを凌駕するものであるかをご覧ください。

インスタンスサイズ GPUs - Tesla V100 GPU Peer to Peer GPU メモリ (GB) vCPU メモリ (GB) ネットワーク帯域幅 EBS 帯域幅 ローカルインスタンスストレージ
p3.2xlarge 1 該当なし 16 8 (Broadwell) 61 最大 10 Gbps 1.5 Gbps 該当なし
p3.8xlarge 4
NVLink 64 32 (Broadwell) 244 10 Gbps 7 Gbps 該当なし
p3.16xlarge 8 NVLink 128 64 (Broadwell) 488 25 Gbps 14 Gbps 該当なし
p3dn.24xlarge 8 NVLink 256 96 (Skylake) 768 100 Gbps 14 Gbps 900 GB NVMe SSD x 2

P3dn.24xlarge インスタンスは、米国東部 (バージニア北部)、米国西部 (オレゴン) の AWS リージョンにおいて、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンスとして利用可能です。P3 インスタンスの詳細や Airbnb、Salesforce、Western Digital といったお客様の P3 インスタンスのご利用状況についての情報は、Amazon EC2 P3 インスタンスのページをご覧ください。