投稿日: Oct 25, 2017
このたび、次世代の EC2 コンピューティング最適化 GPU インスタンスである Amazon EC2 P3 インスタンスをご利用いただけるようになりましたことを、ここにお知らせいたします。P3 インスタンスは最新世代の NVIDIA Tesla V100 GPU を最大 8 個利用し、機械学習 (ML)、ハイパフォーマンスコンピューティング (HPC)、データ圧縮、暗号化など、高度な計算を必要とするワークロードに最適です。また、科学計算やシミュレーション、財務分析、イメージやビデオ処理など、特定の業界アプリケーションにも最適です。
P3 インスタンスは、カスタム Intel Xeon E5 プロセッサを使用した 64 個の vCPU、488 GB の RAM、および Elastic Network Adapter テクノロジを利用した 25 Gbps の集計ネットワーク帯域幅も利用して、ML および HPC 用の強力なプラットフォームを提供します。
各 Tesla V100 GPU は、NVIDIA の最新の Volta アーキテクチャに基づき、125 TFLOPS のさまざまな精度のパフォーマンス、15.7 TFLOPS の単精度 (FP32) のパフォーマンス、および 7.8 TFLOPS の倍精度 (FP64) のパフォーマンスを提供します。これが可能になるのは、各 Tesla V100 GPU には 5,120 の CUDA Core および 640 の Tensor Core が含まれているためです。300 GB/秒の NVLink ハイパーメッシュ相互接続により、GPU 間の通信が高速に、低レイテンシーで可能になります。
ML アプリケーションの場合、P3 インスタンスは P2 インスタンスと比較して最大 14 倍パフォーマンスが向上します。これにより、開発者は数日ではなく数時間で機械学習モデルをトレーニングし、イノベーションを市場に迅速に投入することができます。
P3 インスタンスは 3 つのインスタンスサイズ (p3.2xlarge と 1 GPU、p3.8xlarge と 4 GPU、および p3.16xlarge と 8 GPU) で利用できます。米国東部 (バージニア北部)、米国西部 (オレゴン)、欧州西部 (アイルランド)、およびアジアパシフィック (東京) の各リージョンで利用可能です。P3 インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、および Dedicated Host として購入できます。
開始するには AWS マネジメントコンソール、AWS コマンドラインインターフェイス (CLI)、および AWS SDK をご覧ください。詳細については、Amazon EC2 P3 インスタンスページをご覧ください。