投稿日: Dec 13, 2017

Amazon EC2 P3 インスタンスが AWS 米国東部 (オハイオ)、アジアパシフィック (ソウル) および AWS GovCloud (米国) リージョンで利用可能になりました。 

次世代の EC2 コンピューティング最適化 GPU インスタンスである P3 インスタンスは、最大 8 個の最新世代の NVIDIA Tesla V100 GPU を利用しており、機械学習 (ML)、ハイパフォーマンスコンピューティング (HPC)、科学計算やシミュレーション、財務分析、イメージやビデオ処理、データ圧縮など、高度な計算を必要とするワークロードに最適です。 

P3 インスタンスを使用すると、前世代の Amazon EC2 GPU コンピューティングインスタンスの最大 14 倍の高度な計算を必要とするワークロードを構築およびデプロイできます。また、機械学習アプリケーションのトレーニング時間を数日から数時間に短縮できます。P3 インスタンスは、最大 8 個の NVIDIA Tesla V100 GPU を使用して、混合精度では最大 1 ペタフロップ、単精度では 125 テラフロップ、および倍精度浮動小数点では 62 テラフロップのパフォーマンスを提供します。また、高速、低レイテンシーの GPU 間通信を可能にする、300 GB/s の第 2 世代 NVIDIA NVLink インターコネクトを提供します。P3 インスタンスはまた、カスタムのインテル Xeon E5 (Broadwell) プロセッサに基づいた最大 64 個の vCPU、488 GB の DRAM、および Elastic Network Adapter (ENA) を使用した 25 Gbps の専用集計ネットワーク帯域幅も特長です。 

AWS ディープラーニングマシンイメージ (AMI) は、AWS Marketplace で入手できます。これを利用して機械学習アプリケーションの構築を数分で開始できます。Deep Learning AMI は Apache MXNet、Caffe2、TensorFlow、その他のフレームワークの最新リリースにプリインストールされています。

開始するには AWS マネジメントコンソールAWS コマンドラインインターフェイス (CLI)、および AWS SDK をご覧ください。詳細については、Amazon EC2 P3 インスタンスページをご覧ください。