Amazon EC2 P3 インスタンス

強力な GPU で機械学習とハイパフォーマンスコンピューティングアプリケーションを加速

Amazon EC2 P3 インスタンスは、最大 8 個の NVIDIA® V100 Tensor Core GPU と最大 100 Gbps のネットワークスループットにより、機械学習と HPC アプリケーションに適したハイパフォーマンスクラウドコンピューティングを実現します。インスタンスあたり、混合精度で最大 1 PFLOPS のパフォーマンスが実現可能で、機械学習とハイパフォーマンスコンピューティングアプリケーションを大幅に加速させます。Amazon EC2 P3 インスタンスでは、機械学習トレーニングの所要時間を日単位から分単位に短縮できます。ハイパフォーマンスコンピューティングで実行できるシミュレーションの回数も 3~4 倍に増加します。
P3.16xlarge インスタンスの最大 4 倍のネットワーク帯域幅を備える Amazon EC2 P3dn.24xlarge インスタンスは、分散型機械学習と HPC アプリケーション向けに最適化された、P3 ファミリーの最新インスタンスです。このインスタンスは、カスタム Intel® Xeon® Scalable (Skylake) vCPU を 96 個、各メモリが 32 GB の NVIDIA® V100 Tensor Core GPU を 8 個、NVMe ベースの SSD ローカルストレージを 1.8 TB 搭載し、最大 100 Gbps のネットワークスループットを実現します。

Amazon EC2 P3dn.24xlarge のご紹介 – これまでで最もパワフルな P3 インスタンス

分散型の機械学習トレーニングとハイパフォーマンスコンピューティング向けに最適化

ReInvent_HA_P3_EDITORIAL

メリット

機械学習トレーニングの所要時間を日単位から分単位に短縮

機械学習アプリケーションの高速化を必要としているデータサイエンティストや研究者、開発者たちにとって、Amazon EC2 P3 インスタンスはクラウド内で最も高速な機械学習トレーニング用インスタンスです。Amazon EC2 P3 インスタンスでは、最新世代の NVIDIA V100 Tensor Core GPU を最大 8 個搭載し、混合精度で最大 1 PFLOPS のパフォーマンスを実現可能で、機械学習ワークロードを大幅に加速させます。モデルトレーニングの高速化によって、データサイエンティストや機械学習エンジニアは、より速く反復処理を行い、より多くのモデルをトレーニングし、精度を向上させることができます。

業界で最もコスト効率に優れた機械学習トレーニング向けソリューション

クラウド内で最も強力な GPU インスタンスと柔軟性の高い料金プランを組み合わせることで、コスト効率が非常に優れた機械学習トレーニング向けソリューションが実現します。通常の Amazon EC2 インスタンスと同様、P3 インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンスとしてご利用いただけます。スポットインスタンスでは未使用の EC2 インスタンスキャパシティーを利用できるため、オンデマンド料金から最大 70% の割引を適用して Amazon EC2 のコストを大幅に削減できます。

柔軟で強力なハイパフォーマンスコンピューティング

オンプレミスのシステムとは異なり、Amazon EC2 P3 インスタンスでハイパフォーマンスコンピューティングを実行すると、インフラストラクチャをスケールアウトできる容量が事実上無制限になります。またその柔軟性により、ワークロードの需要に応じて簡単にリソースを変更できます。アプリケーションの必要に応じてリソースを設定し、HPC クラスターを数分以内に起動できます。お支払いいただくのは利用した分のみです。

AWS Machine Learning サービスとの統合

Amazon EC2 P3 インスタンスはシームレスに Amazon SageMaker と連携し、強力で使いやすい、完全な機械学習プラットフォームを提供します。Amazon SageMaker は、機械学習モデルを迅速かつ簡単に構築、トレーニング、デプロイできるフルマネージド型の機械学習プラットフォームです。さらに、Amazon EC2 P3 インスタンスは一般的な深層学習フレームワークが事前インストールされた AWS 深層学習 AMI (Amazon Machine Image) と統合できます。これにより、機械学習のトレーニングや推測を迅速かつ簡単に開始できます。

主要な機械学習フレームワークをすべてサポート

Amazon EC2 P3 インスタンスは、TensorFlow、PyTorch、Apache MXNet、Caffe、Caffe2、Microsoft Cognitive Toolkit (CNTK)、Chainer、Theano、Keras、Gluon、Torch といった、主要な機械学習フレームワークをすべてサポートしています。アプリケーションにとって最適なフレームワークを柔軟に選択できます。

スケーラブルなマルチノード機械学習トレーニング

最大 100 Gbps のネットワークスループットを実現する Amazon EC2 P3 インスタンスを複数使用することで、迅速に機械学習モデルをトレーニングできます。高速なネットワークスループットにより、開発者はデータ転送のボトルネックを気にせずに、複数の P3 インスタンスにわたってモデルトレーニングジョブを効率よくスケールアウトできます。一般的な画像分類モデルである ResNet-50 を 16 個の P3 インスタンスを使ってわずか 18 分ほどトレーニングすれば、精度を業界標準にまで引き上げることができます。オンプレミスで GPU クラスターを構築する場合、大規模な CapEx 投資を必要としたため、以前は大半の機械学習のお客様がこのレベルのパフォーマンスを達成できませんでした。P3 インスタンスはオンデマンド使用モデルで利用できるため、今やすべての開発者と機械学習エンジニアがこのレベルのパフォーマンスを達成できます。

お客様事例

200x100_AirBNB_Logo

Airbnb は、機械学習を使用して検索結果に表示するお勧め情報を最適化し、ホスト向けの機能である動的価格設定のサポートを改善しています。これらはいずれも予約コンバージョンの増加につながります。Amazon EC2 P3 インスタンスを使用することにより、Airbnb ではトレーニングワークロードをより迅速に実行し、より多くの反復処理を行い、優れた機械学習モデルを構築し、コストを削減できました。

salesforce_logo_200x100

Salesforce は機械学習を使用して Einstein Vision を強化しています。これにより開発者は画像認識の能力を視覚検索、ブランド検出、製品識別といったユースケースに活かすことができています。Amazon EC2 P3 インスタンスにより、開発者たちは深層学習モデルをさらに速くトレーニングし、機械学習の目標を迅速に達成できます。

western-digital_200x100

Western Digital はハイパフォーマンスコンピューティング (HPC) を使用して、材料科学、熱流、磁気、データ転送のシミュレーションを何万回も実行し、ディスクドライブやストレージソリューションのパフォーマンスと品質を向上させています。初期のテストによると、Amazon EC2 P3 インスタンスを使用することで、エンジニアリングチームは、以前にデプロイされたソリューションより少なくとも 3 倍速くシミュレーションを実行できました。 

schrodinger-200x100

Schrodinger はハイパフォーマンスコンピューティング (HPC) を使用して予測モデルを開発し、発見と最適化の規模を拡大することで、顧客が人の命に関わる薬をより迅速に市場に投入できるようにしています。Schrodinger は Amazon EC2 P3 インスタンスを使用することによって、P2 インスタンスを使用していたときの 4 倍のシミュレーションを 1 日の間に実行できます。 

Amazon EC2 P3 インスタンスと Amazon SageMaker

機械学習モデルをトレーニングおよび実行する最速の方法

Amazon SageMaker は、機械学習モデルを構築、トレーニング、デプロイするフルマネージドサービスです。Amazon EC2 P3 インスタンスと一緒に使用することで、数十、数百、数千の GPU に簡単にスケールし、あらゆる規模でモデルを迅速にトレーニングできます。クラスターやデータパイプラインを設定する必要はありません。Amazon SageMaker でのトレーニングやホスティングのワークフローのために、Amazon Virtual Private Cloud (Amazon VPC) のリソースに簡単にアクセスすることもできます。この機能を使用すると、VPC からのみアクセス可能な Amazon Simple Storage Service (S3) バケットを使用してトレーニングデータを保存できます。また、トレーニングプロセスから派生したモデルアーティファクトを保存してホストすることもできます。モデルは、S3 に加え、VPC に含まれる他のすべての AWS リソースにアクセスできます。詳細はこちら

構築

Amazon SageMaker では、より簡単に機械学習モデルを構築し、トレーニングを始めることができます。トレーニングデータにすばやく接続し、アプリケーションに最適なアルゴリズムとフレームワークを選択して最適化するために必要なツールがすべて揃っています。Amazon SageMaker ではホスト型の Jupyter ノートブックを利用でき、Amazon S3 に保存されているトレーニングデータを簡単に分析して可視化できます。  また、ノートブックインスタンスを使用してコードを記述することや、モデルのトレーニングジョブの作成、Amazon SageMaker ホスティングへのモデルのデプロイ、モデルのテストや検証も実行できます。

トレーニング

コンソールでワンクリックするか、API コールでモデルのトレーニングを開始できます。Amazon SageMaker は TensorFlow、Apache MXNet の最新バージョンがあらかじめ設定されており、NVIDIA GPU で最高のパフォーマンスを得るために CUDA9 ライブラリを備えています。加えて、ハイパーパラメータ最適化の機能では、異なる組み合わせのモデルパラメータをスマートに調節して最も正確な予測に迅速に到達させることで、モデルのチューニングを自動的に実行できます。さらに大きなスケールが必要な場合、数十のインスタンスにスケールして、モデル構築を迅速に実行できます。

デプロイ

トレーニング終了後、複数のアベイラビリティーゾーンにまたがる Auto Scaling Amazon EC2 インスタンスにモデルをワンクリックでデプロイできます。本番環境では、Amazon SageMaker がお客様に代わってコンピューティングインフラストラクチャを管理し、健全性チェックを行い、セキュリティパッチを適用し、その他の日常的メンテナンスを行います。これらはすべて組み込みの Amazon CloudWatch モニタリングとロギングで行います。

 

Amazon EC2 P3 インスタンスと AWS 深層学習 AMI

事前設定済みの開発環境で深層学習アプリケーションの構築を迅速に開始

さらに特殊な要件を持つ開発者のために、Amazon SageMaker の代わりとなるのが AWS 深層学習 AMI です。これによって機械学習の専門家や研究者に、クラウド上での深層学習をあらゆる規模で加速するためのインフラストラクチャとツールが提供されます。Amazon EC2 P3 インスタンスには TensorFlow、PyTorch、Apache MXNet、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Chainer、Gluon、Keras といった一般的な深層学習フレームワークが事前インストールされています。このため、Amazon EC2 P3 インスタンスをすばやく作成して、高度なカスタム AI モデルのトレーニング、新しいアルゴリズムの実験、新しいスキルや技術の学習を行えます。詳細

Amazon EC2 P3 インスタンスとハイパフォーマンスコンピューティング

AWS で HPC のパワーを使用してコンピューティングに関する大きな問題を解決し、新しいインサイトを獲得

Amazon EC2 P3 インスタンスは、エンジニアリングシミュレーション、金融工学、地震分析、分子モデリング、ゲノミクス、レンダリングやその他の GPU コンピューティングワークロードの実行に理想的なプラットフォームです。ハイパフォーマンスコンピューティング (HPC) により、科学者とエンジニアは、複雑でコンピューティング負荷の高い問題を解決できます。HPC アプリケーションでは、通常、高いネットワークパフォーマンス、高速ストレージ、大容量メモリ、高いコンピューティング性能が必要になります。AWS を使用すると、クラウド内で HPC を実行し、大多数のオンプレミス環境で現実的とされる数よりも多くの並列タスクをスケールできるため、研究のスピードを速め、結果を取得するまでの時間を短縮できます。AWS では、特定のアプリケーション用に最適化されたソリューションを利用できるため、大規模な設備投資を必要とすることなく、コストを削減するのに役立ちます。詳細

Amazon EC2 P3dn.24xlarge インスタンス

分散型機械学習およびハイパフォーマンスコンピューティング向けに最適化された、より強力、より高速、より大規模な新しいインスタンスサイズ

Amazon EC2 P3dn.24xlarge インスタンスは、現在提供されている P3 インスタンスサイズの中で最も強力で、最速、最大のインスタンスです。各メモリが 32 GB の NVIDIA® V100 Tensor Core GPU を 8 個、カスタム Intel® Xeon® Scalable (Skylake) vCPU を 96 個、NVMe ベースの SSD ローカルストレージを 1.8 TB 搭載し、最大 100 Gbps のネットワークスループットを実現します。開発者は、ネットワークの高速化、新しいプロセッサ、GPU メモリの倍増、vCPU の追加が行われたこのインスタンスを使用して、複数のインスタンス (例えば、16 個、32 個、64 個のインスタンス) にジョブをスケールアウトすることで、ML モデルのトレーニングやより多くの HPC シミュレーションの実行にかかる時間を大幅に短縮できます。機械学習モデルでは、トレーニングのための大量のデータが必要となります。P3dn.24xlarge インスタンスではネットワークスループットが強化されているため、インスタンス間でデータの受け渡しを行う際のスループットが向上するほか、Amazon EFS のような共有ファイルシステムソリューションや Amazon S3 に接続して大量のトレーニングデータにアクセスする場合でも高速化のメリットを享受できます。

ボトルネックを取り除き、機械学習トレーニングの所要時間を短縮

100 Gbps のネットワークスループットにより、デベロッパーは分散型トレーニングで多数の P3dn.24xlarge インスタンス (16 台、32 台、64 台など) を効率的に使用できるため、モデルのトレーニングにかかる時間を大幅に短縮できます。AWS 向けにカスタマイズされた、AVX-512 命令対応の Intel Skylake プロセッサーを使用した 96 個の vCPU は、2.5 GHz で動作し、データ前処理の最適化をサポートします。さらに、P3dn.24xlarge インスタンスでは、専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro システムを使用します。これにより、ホストハードウェアのコンピューティングリソースとメモリリソースがほぼすべて、お客様のインスタンスに提供されます。

 

GPU の利用を最適化して TCO を削減

最新バージョンの Elastic Network Adapter を使用した拡張ネットワークは、最大 100 Gbps のネットワーク総帯域幅を提供し、複数の P3dn.24xlarge インスタンス間でのデータ共有に加え、Amazon EFS のようなファイル共有システムソリューションや Amazon S3 経由での高スループットデータアクセスにも役立ちます。高スループットデータアクセスは、GPU の利用を最適化してコンピューティングインスタンスから最大限のパフォーマンスを提供するために非常に重要です。

より大規模で複雑なモデルをサポート

P3dn.24xlarge インスタンスは、32 GB メモリの NVIDIA V100 Tensor Core GPU を搭載します。これにより、より高度で、より大規模な機械学習モデルを柔軟にトレーニングできるほか、画像分類システムやオブジェクト検出システムで使用される 4K 画像などの大容量データを一括処理することが可能となります。

 

Amazon EC2 P3 インスタンスの製品詳細

インスタンスサイズ GPUs – Tesla V100 GPU Peer to Peer GPU メモリ (GB) vCPU メモリ (GB) ネットワーク帯域幅 EBS 帯域幅 オンデマンド料金/時間* 1 年間のリザーブドインスタンスの実質的時間単価* 3 年間のリザーブドインスタンスの実質的時間単価*
p3.2xlarge 1 該当なし 16 8 61 最大 10 Gbps 1.5 Gbps 3.06 USD 1.99 USD 1.05 USD
p3.8xlarge 4
NVLink 64 32 244 10 Gbps 7 Gbps 12.24 USD 7.96 USD 4.19 USD
p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps 24.48 USD 15.91 USD 8.39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 Gbps 14 Gbps 31.218 USD 18.30 USD 9.64 USD

* – 提示されている料金は、米国東部 (バージニア北部) AWS リージョン内で使用される Linux/Unix に対する料金で、1 セント未満は四捨五入しています。すべての価格詳細を確認するには、Amazon EC2 料金ページを参照してください。

P3 インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、および Dedicated Hosts として購入できます。

秒単位の使用料金

クラウドコンピューティングの数あるメリットの 1 つは、必要に応じたリソースのプロビジョニングやプロビジョニングの解除ができる、伸縮自在な性質です。秒単位で使用料金が請求されるため、お客様の伸縮性のレベルアップ、コストの削減、機械学習の目標達成に向けたリソース配分の最適化が可能になります。

リザーブドインスタンスの料金

リザーブドインスタンスは、オンデマンドインスタンスに比べて料金が大幅に割引となります (最大 75%)。さらに、特定のアベイラビリティーゾーンにリザーブドインスタンスを割り当てると、キャパシティーが予約されるため、必要な時に安心してインスタンスを作成することができます。

スポット料金

スポットインスタンスでは、インスタンスが実行中である期間中は、その期間に有効なスポット料金を支払い続けます。スポットインスタンス料金は Amazon EC2 で設定され、長期の需要と供給に応じ、スポットインスタンス容量に合わせて緩やかに調整されます。スポットインスタンスは、オンデマンド料金と比べて最大 90% の割引価格でご利用いただけます。

最も幅広く、グローバルな可用性

1856-Updated Map Image-P3 Instances-transparentBG_1024x543

Amazon EC2 P3.2xlarge、P3.8xlarge、P3.16xlarge の各インスタンスは、14 の AWS リージョンで利用可能です。そのため、お客様はどこでもデータが保存されている場所で、機械学習モデルのトレーニングやデプロイを柔軟に行うことができます。P3 は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、カナダ (中央)、欧州 (アイルランド)、欧州 (フランクフルト)、欧州 (ロンドン)、アジアパシフィック (東京)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (シンガポール)、中国 (北京)、中国 (寧夏)、および AWS GovCloud (米国) の AWS リージョンで利用できます。

P3dn.24xlarge インスタンスは、米国東部 (バージニア北部) リージョンおよび米国西部 (オレゴン) リージョンでご利用いただけます。

Amazon EC2 P3 インスタンスの使用を開始して機械学習を行う

数分で開始できます。その前に Amazon SageMaker の詳細をご覧ください。または Caffe2 や MXnet といった、一般的な深層学習フレームワークに事前インストールされている、AWS 深層学習 AMI をご利用ください。また、GPU ドライバーや CUDA ツールキットが事前にインストールされている NVIDIA AMI を使用することもできます。

Amazon SageMaker について

詳細については、こちらをクリックしてください

AWS での深層学習について

詳細については、こちらをクリックしてください

ハイパフォーマンスコンピューティング (HPC) について

詳細については、こちらをクリックしてください
始める準備はできましたか?
サインアップ
ご不明な点がおありですか?
お問い合わせ