Amazon EC2 P3 インスタンス

強力な GPU で機械学習とハイパフォーマンスコンピューティングアプリケーションを加速

Airbnb、Salesforce、Western Digital といった大手企業は Amazon EC2 P3 インスタンスを使用して、機械学習やハイパフォーマンスコンピューティングアプリケーションを強化しています。
Amazon EC2 P3 インスタンスは、クラウド内で最も高性能なコンピューティングを実現しています。コスト効率が高く、主要なすべての機械学習フレームワークをサポートしており、世界中で利用可能です。
Amazon EC2 P3 インスタンスには、最新世代の NVIDIA Tesla V100 GPU が最大 8 個搭載されており、インスタンスあたり、混合精度で最大 1 PFLOPS のパフォーマンスが可能です。これにより機械学習とハイパフォーマンスコンピューティングアプリケーションの大幅な加速が実現しています。Amazon EC2 P3 インスタンスでは、機械学習トレーニングの所要時間を日単位から分単位に短縮でき、ハイパフォーマンスコンピューティングの結果までの時間も短縮できることが実証されています。

ReInvent_HA_P3_EDITORIAL
クラウド上の TensorFlow プロジェクトの 88% は AWS で実行されています。
Nucleus Research は、このレポートの中で、深層学習の専門家が深層学習のために他のクラウドプロバイダーよりも AWS を選択する 5 つの理由を説明しています。

Amazon EC2 P3 インスタンスの詳細と、Airbnb が機械学習アプリケーションを強化するために Amazon EC2 P3 インスタンスを使用している方法についてご覧ください (48:08 分)。
AWS re:Invent 2017: Amazon EC2 P3 インスタンスをリリース

メリット

機械学習トレーニングの所要時間を日単位から分単位に短縮

機械学習アプリケーションの高速化を必要としているデータサイエンティストや研究者、開発者たちにとって、Amazon EC2 P3 インスタンスはクラウド内で使用可能な、最も強力な GPU コンピューティングです。Amazon EC2 P3 インスタンスには、最新世代の NVIDIA Tesla V100 GPU が最大 8 個搭載されており、混合精度で最大 1 PFLOPS のパフォーマンスが可能です。これにより機械学習ワークロードの大幅な加速が実現しています。モデルトレーニングの高速化によって、データサイエンティストや機械学習エンジニアは、より速く反復処理を行い、より多くのモデルをトレーニングし、精度を向上させています。

 

業界で最もコスト効果に優れたソリューション

Amazon EC2 P3 インスタンスにはさまざまな料金プランがあるため、ニーズに応じたコスト削減が可能です。  作成したインスタンスに対して料金を支払うオンデマンドインスタンスに加え、リザーブドインスタンスを大幅な割引で購入できます。このインスタンスは、1 年から 3 年の期間で常に利用可能です。また、スポットインスタンスも使用できます。このインスタンスは使用していない EC2 インスタンスを利用するため、Amazon EC2 のコストを大幅に削減できます。

柔軟で強力なハイパフォーマンスコンピューティング

オンプレミスのシステムとは異なり、Amazon EC2 P3 インスタンスでハイパフォーマンスコンピューティングを実行すると、事実上無制限の容量でインフラストラクチャをスケールアウトできます。また柔軟性があるため、ワークロードの需要に応じて簡単にリソースを変更できます。アプリケーションの必要に応じてリソースを設定し、HPC クラスターを数分以内に起動できます。お支払いいただくのは利用した分のみです。

AWS の機械学習サービスとの統合

Amazon EC2 P3 インスタンスはシームレスに Amazon SageMaker と連携し、強力で使いやすい、完全な機械学習プラットフォームを提供します。Amazon SageMaker は、フルマネージド型の機械学習プラットフォームで、機械学習モデルを迅速かつ簡単に構築、トレーニング、デプロイできます。さらに、Amazon EC2 P3 インスタンスは AWS Deep Learning Amazon Machine Images (AMI) と統合できます。AWS Deep Learning Amazon Machine Images (AMI) は一般的な深層学習フレームワークと一緒に事前インストールされているため、推測やトレーニングを簡単に開始できます。

主要なすべての機械学習フレームワークをサポート

Amazon EC2 P3 インスタンスは、TensorFlow、PyTorch、Apache MXNet、Caffe、Caffe2、Microsoft Cognitive Toolkit (CNTK)、Chainer、Theano、Keras、Gluon、Torch といった、主要なすべての機械学習フレームワークをサポートしています。ユーザーは自分のアプリケーションにとって最適なフレームワークを選択できます。

スケーラブルなマルチノード機械学習トレーニング

複数の EC2 P3 インスタンスを使用すると、迅速に機械学習モデルをトレーニングできます。ストレージクラスターおよびコンピューティングクラスターを設定して、コンピューティングクラスターがフォワードパスやバックプロパゲーション、重み更新を実行している間に、ストレージクラスターがトレーニングデータセットや検証データセットを保存したり、データをコンピューティングクラスターに渡したりするようにできます。

お客様事例

200x100_AirBNB_Logo

Airbnb は、機械学習を使用して検索の推奨事項を最適化し、ホストの動的価格設定のガイダンスを改善しており、いずれも予約コンバージョンの増加につながっています。Amazon EC2 P3 インスタンスを使用すると、トレーニングワークロードをより迅速に実行できるため、より多くの反復処理を行い、優れた機械学習モデルを構築し、コストを削減できます。

salesforce_logo_200x100

Salesforce は機械学習を使用して Einstein Vision を強化しています。これにより開発者は画像認識の能力を視覚検索、ブランド検出、製品識別といったユースケースに活かすことができています。Amazon EC2 P3 インスタンスにより、開発者たちは深層学習モデルをさらに速くトレーニングし、機械学習の目標を迅速に達成できます。

western-digital_200x100

Western Digital はハイパフォーマンスコンピューティング (HPC) を使用して、材料科学、熱流、磁気、データ転送のシミュレーションを何万回も実行し、ディスクドライブやストレージソリューションのパフォーマンスと品質を向上させています。初期のテストによると、Amazon EC2 P3 インスタンスを使用することで、エンジニアリングチームは、以前にデプロイされたソリューションより少なくとも 3 倍速くシミュレーションを実行できています。 

schrodinger-200x100

Schrodinger はハイパフォーマンスコンピューティング (HPC) を使用して予測モデルを開発し、発見と最適化の規模を拡大することで、顧客が人の命に関わる薬をより迅速に市場に投入できるようにしています。Schrodinger は Amazon EC2 P3 インスタンスを使用することによって、P2 インスタンスを使用していたときの 4 倍のシミュレーションを 1 日の間に実行できます。 

Amazon EC2 P3 インスタンスと Amazon SageMaker

機械学習モデルをトレーニングおよび実行する最速の方法

Amazon SageMaker は、機械学習モデルを構築、トレーニング、デプロイするフルマネージドサービスです。Amazon EC2 P3 インスタンスと一緒に使用することで、数十、数百、数千の GPU に簡単にスケールし、あらゆる規模でモデルを迅速にトレーニングできます。クラスターやデータパイプラインを設定する必要はありません。Amazon SageMaker でのトレーニングやホスティングのワークフローのために、Amazon Virtual Private Cloud (VPC) のリソースに簡単にアクセスすることもできます。この機能を使用すると、VPC からのみアクセス可能な Amazon Simple Storage Service (S3) バケットを使用してトレーニングデータを保存できます。また、トレーニングプロセスから派生したモデル成果物を保存してホストすることもできます。S3 に加えて、モデルは VPC に含まれる他のすべての AWS リソースにアクセスできます。詳細はこちら

構築

Amazon SageMaker には、機械学習モデルの構築とトレーニングの準備をより簡単するため、トレーニングデータにすばやく接続し、アプリケーションに最適なアルゴリズムとフレームワークを選択して最適化するために必要なツールがすべて揃っています。Amazon SageMaker には、Amazon S3 に保存されているトレーニングデータを簡単に分析して可視化できる、ホスト型の Jupyter ノートブックが含まれています。  また、ノートブックインスタンスを使用してコードを記述することや、モデルのトレーニングジョブの作成、Amazon SageMaker ホスティングへのモデルのデプロイ、モデルのテストや検証も実行できます。

トレーニング

コンソールでワンクリックするか、簡単な API コールでモデルのトレーニングを開始できます。Amazon SageMaker は TensorFlow、Apache MXNet の最新バージョンに合わせてあらかじめ設定されており、NVIDIA GPU で最高のパフォーマンスを得るために CUDA9 ライブラリを備えています。加えて、ハイパーパラメータ最適化の機能では、異なる組み合わせのモデルパラメータをスマートに調節して最も正確な予測に迅速に到達させることで、モデルのチューニングを自動的に実行できます。さらに大きなスケールが必要な場合、数十のインスタンスにスケールして、モデル構築を迅速に実行できます。

デプロイ

トレーニング終了後、複数のアベイラビリティーゾーンにまたがる Auto Scaling EC2 インスタンスにモデルをワンクリックでデプロイできます。本番環境では、Amazon SageMaker がお客様に代わってコンピューティングインフラストラクチャを管理し、健全性チェックを行い、セキュリティパッチを適用し、その他の日常的メンテナンスを行います。これらはすべて組み込みの Amazon CloudWatch モニタリングとロギングで行います。

 

Amazon EC2 P3 インスタンスと AWS 深層学習 AMI

事前設定済みの開発環境で深層学習アプリケーションの構築を迅速に開始

さらにカスタマイズされた要件を持つ開発者のために、Amazon SageMaker の代わりとなるのが AWS 深層学習 AMI です。これによって機械学習の専門家や研究者に、クラウド上での深層学習をあらゆる規模で加速するためのインフラストラクチャとツールが提供されます。Amazon EC2 P3 インスタンスには TensorFlow、PyTorch、Apache MXNet、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Chainer、Gluon、Keras といった一般的な深層学習フレームワークが事前インストールされています。このため、Amazon EC2 P3 インスタンスをすばやく作成して、高度なカスタム AI モデルのトレーニング、新しいアルゴリズムの実験、新しいスキルや技術の学習を行えます。詳細はこちら

Amazon EC2 P3 インスタンスとハイパフォーマンスコンピューティング

AWS で HPC のパワーを使用してコンピューティングに関する大きな問題を解決し、新しいインサイトを獲得

Amazon EC2 P3 インスタンスは、エンジニアリングシミュレーション、金融工学、地震分析、分子モデリング、ゲノミクス、レンダリングやその他の GPU コンピューティングワークロードを実行するための理想的なプラットフォームです。ハイパフォーマンスコンピューティング (HPC) により、科学者とエンジニアは、複雑でコンピューティング負荷の高い問題を解決できます。HPC アプリケーションでは、通常、高いネットワークパフォーマンス、高速ストレージ、大容量メモリ、非常に高いコンピューティング性能が必要になります。AWS を使用すると、クラウド内で HPC を実行し、大多数のオンプレミス環境で現実的とされる数よりも多い数まで並列タスクをスケールすることで、研究の速度を上げて、結果を取得するまでの時間を短縮できます。AWS では、特定のアプリケーション用に最適化されたソリューションを利用できるため、大規模な設備投資を回避しながらコストを削減するのに役立ちます。詳細はこちら

Amazon EC2 P3 インスタンスの製品詳細

インスタンスサイズ GPUs - Tesla V100 GPU Peer to Peer GPU メモリ (GB) vCPU メモリ (GB) ネットワーク帯域幅 EBS 帯域幅 オンデマンド料金/時間* 1 年間のリザーブドインスタンスの実質的時間単価* 3 年間のリザーブドインスタンスの実質的時間単価*
p3.2xlarge 1 該当なし 16 8 61 最大 10 Gbps 1.5 Gbps

3.06 USD

1.99 USD

1.23 USD

p3.8xlarge 4 NVLink 64 32 244 10 Gbps 7 Gbps

12.24 USD

7.96 USD

4.93 USD

p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps

24.48 USD

15.91 USD

9.87 USD

*ここでは、米国東部 (バージニア北部) の AWS リージョンで Linux/Unix をご利用いただいた場合の料金を示しています。すべての価格詳細を確認するには、Amazon EC2 料金表を参照してください。 

P3 インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、および Dedicated Host として購入できます。

秒単位の使用料金

クラウドコンピューティングの数あるメリットの 1 つは、必要に応じたリソースのプロビジョニングやプロビジョニングの解除ができる、伸縮自在な性質です。秒単位で使用料金が請求されるため、お客様の伸縮性のレベルアップ、コストの削減、機械学習の目標達成に向けたリソース配分の最適化が可能になります。

リザーブドインスタンスの料金

リザーブドインスタンスは、オンデマンドインスタンスに比べて料金が大幅に (最大 75%) 割引になります。さらに、特定のアベイラビリティーゾーンにリザーブドインスタンスを割り当てると、キャパシティーが予約されるため、必要な時に安心してインスタンスを作成することができます。

スポット料金

スポットインスタンスでは、インスタンスが実行されている期間中、その期間に有効なスポット料金を支払います。スポットインスタンス料金は Amazon EC2 で設定され、長期の需要と供給に応じ、スポットインスタンス容量に合わせて緩やかに調整されます。スポットインスタンスは、オンデマンド料金と比べて最大 90% の割引価格でご利用いただけます。

最も幅広く、グローバルな可用性

1856-Updated Map Image-P3 Instances-transparentBG_1024x543

Amazon EC2 P3 インスタンスは、14 つの AWS リージョンで利用可能です。そのため、お客様はどこでもデータが保存されている場所で、機械学習モデルのトレーニングやデプロイを柔軟に行うことができます。EC2 P3 は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、カナダ (中央)、欧州 (アイルランド)、欧州 (フランクフルト)、欧州 (ロンドン)、アジアパシフィック (東京)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (シンガポール)、中国 (北京)、中国 (寧夏)、および GovCloud (米国) AWS リージョンで利用できます。

Amazon EC2 P3 インスタンスの使用を開始して機械学習を行う

数分で開始できます。その前に Amazon SageMaker の詳細をご覧ください。または Caffe2 や Mxnet といった、一般的な深層学習フレームワークに事前インストールされている、AWS 深層学習 AMI をご利用ください。また、GPU ドライバーや CUDA ツールキットが事前にインストールされている NVIDIA AMI を使用することもできます。

Amazon SageMaker の詳細

詳細については、ここをクリックしてください

AWS の深層学習の詳細

詳細については、ここをクリックしてください

ハイパフォーマンスコンピューティング (HPC) の詳細はこちら

詳細については、ここをクリックしてください
始める準備はできましたか?
サインアップ
ご不明な点がおありですか?
お問い合わせ