投稿日: Dec 7, 2018
Amazon EC2 P3dn.24xlarge GPU インスタンスを本日発表いたします。この P3 インスタンスファミリーの最新インスタンスはすでに一般提供が開始されています。P3.16xlarge インスタンスの最大 4 倍のネットワーク帯域幅を持つ P3dn.24xlarge インスタンスは、分散型機械学習と HPC アプリケーション向けに最適化されています。この新たなインスタンスは、最大 100 Gbps のネットワーキングスループット、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、それぞれに 32 GB のメモリを搭載した 8 個の NVIDIA® V100 Tensor Core GPU、300 GB/秒の NVLINK GPU 相互接続、1.8 TB の NVMe ベースのローカル SSD ストレージを提供します。
ネットワークの高速化、vCPU が増加した新しいプロセッサの搭載、GPU メモリの倍増、高速なローカルインスタンスストレージの追加が行われたこのインスタンスを使用すると、開発者はシングルインスタンスでのパフォーマンスを最適化できるだけでなく、複数のインスタンス (たとえば、16 個、32 個、64 個のインスタンス) にジョブをスケールアウトすることで、ML モデルのトレーニングにかかる時間を大幅に短縮したり、より多くの HPC シミュレーションを実行したりすることもできます。
AWS はクラウドプロバイダーとしては初めて 100 Gbps のネットワーキングスループットを提供します。この高いスループットにより、データ転送のボトルネックが解消され、GPU の使用が最適化されて、インスタンスのパフォーマンスが最大化されます。さらに、GPU 1 個あたり 16 GB から 32 GB に倍増した GPU メモリによって柔軟性が提供され、より高度かつより大規模な機械学習モデルのトレーニングや、画像分類システム、オブジェクト検出システム向けの 4k 画像のようなより大容量のデータの処理が可能になります。
下表で、P3dn.24xlarge が既存の P3 インスタンスを凌駕するものであるかをご覧ください。
インスタンスサイズ | GPUs - Tesla V100 | GPU Peer to Peer | GPU メモリ (GB) | vCPU | メモリ (GB) | ネットワーク帯域幅 | EBS 帯域幅 | ローカルインスタンスストレージ |
---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | 該当なし | 16 | 8 (Broadwell) | 61 | 最大 10 Gbps | 1.5 Gbps | 該当なし |
p3.8xlarge | 4 |
NVLink | 64 | 32 (Broadwell) | 244 | 10 Gbps | 7 Gbps | 該当なし |
p3.16xlarge | 8 | NVLink | 128 | 64 (Broadwell) | 488 | 25 Gbps | 14 Gbps | 該当なし |
p3dn.24xlarge | 8 | NVLink | 256 | 96 (Skylake) | 768 | 100 Gbps | 14 Gbps | 900 GB NVMe SSD x 2 |
P3dn.24xlarge インスタンスは、米国東部 (バージニア北部)、米国西部 (オレゴン) の AWS リージョンにおいて、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンスとして利用可能です。P3 インスタンスの詳細や Airbnb、Salesforce、Western Digital といったお客様の P3 インスタンスのご利用状況についての情報は、Amazon EC2 P3 インスタンスのページをご覧ください。