Amazon EC2 P3 インスタンス

強力な GPU で機械学習とハイパフォーマンスコンピューティングアプリケーションを加速

Amazon EC2 P3 インスタンスは、クラウド内でハイパフォーマンスコンピューティングを提供します。最大 8 個の NVIDIA® V100 Tensor Core GPU を搭載し、機械学習と HPC アプリケーション向けに最大 100 Gbps のネットワークスループットを実現します。これらのインスタンスは、インスタンスごとに最大 1 ペタフロップの混合精度のパフォーマンスを提供し、機械学習とハイパフォーマンスコンピューティングアプリケーションを大幅に加速します。Amazon EC2 P3 インスタンスは、機械学習のトレーニング時間を日単位から分単位に短縮し、ハイパフォーマンスコンピューティング用のシミュレーション実行数を 3~4 倍に増やすことが実証されています。

Amazon EC2 P3dn.24xlarge インスタンスは、P3 ファミリーに追加された最新のメンバーであり、P3.16xlarge インスタンスの最大 4 倍のネットワーク帯域幅を持ち、分散機械学習と HPC アプリケーション用に最適化されています。これらのインスタンスは、最大 100 Gbps のネットワークスループット、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、8 NVIDIA® V100 Tensor Core GPU (それぞれに 32 GiB のメモリを搭載)、1.8 TB の NVMe ベースのローカル SSD ストレージを提供します。P3dn.24xlarge インスタンスは、NVIDIA Collective Communications Library (NCCL) を使用する分散型機械学習アプリケーションを高速化する Elastic Fabric Adapter (EFA) もサポートしています。EFA は数千の GPU に拡張できるため、深層学習トレーニングモデルのスループットとスケーラビリティが大幅に向上し、結果がより速くなります。

Amazon EC2 P3 インスタンスの概要 (2:18)

利点

機械学習トレーニングの所要時間を日単位から分単位に短縮

機械学習アプリケーションのスピードアップを必要とするデータサイエンティスト、リサーチャー、およびデベロッパーにとって、Amazon EC2 P3 インスタンスはクラウド内の最速の機械学習トレーニング用インスタンスです。Amazon EC2 P3 インスタンスには、最新世代の NVIDIA V100 Tensor Core GPU が最大 8 個搭載されており、混合精度で最大 1 ペタフロップのパフォーマンスにより、ML ワークロードを大幅に加速します。モデルトレーニングの高速化によって、データサイエンティストや機械学習エンジニアは、より速く反復処理を行い、より多くのモデルをトレーニングし、精度を向上させています。

業界で最もコスト効率が高い機械学習トレーニング用ソリューション

クラウド内の最強の GPU インスタンスの 1 つであることに加えて柔軟な料金プランにより、機械学習トレーニング用のソリューションとして費用対効果の高さは比類がありません。通常の Amazon EC2 インスタンスと同じように、P3 インスタンスはオンデマンドインスタンス、リザーブドインスタンス、またはスポットインスタンスとして利用できます。スポットインスタンスは、未使用の EC2 インスタンスの容量を活用することで、Amazon EC2 のコストをオンデマンド料金の最大 70% まで節約できます。

柔軟で強力なハイパフォーマンスコンピューティング

オンプレミスのシステムとは異なり、Amazon EC2 P3 インスタンスでハイパフォーマンスコンピューティングを実行すると、事実上無制限の容量でインフラストラクチャをスケールアウトできます。また、ワークロードの需要に応じてリソースを簡単に変更できる柔軟性があります。アプリケーションの必要に応じてリソースを設定し、HPC クラスターを数分以内に起動できます。利用した分のみの料金を支払います。

すぐに構築を開始できる

事前にパッケージ化された Docker イメージを使用すると、深層学習環境を数分でデプロイできます。イメージには、必要になる深層学習フレームワークのライブラリ (現時点では TensorFlow と Apache MXNet) とツールが含まれ、そのすべてがテスト済みです。モニタリング、コンプライアンス、データ処理を高度に制御するために、イメージに独自のライブラリやツールを追加することも簡単に行えます。さらに、Amazon EC2 P3 インスタンスはシームレスに Amazon SageMaker と連携し、強力かつ直感的で、完全な機械学習プラットフォームを提供します。Amazon SageMaker は、完全マネージド型の機械学習プラットフォームで、機械学習モデルを迅速かつ簡単に構築、トレーニング、デプロイできます。さらに、Amazon EC2 P3 インスタンスは、一般的な深層学習フレームワークにプリインストールされている AWS 深層学習 Amazon マシンイメージ (AMI) と統合できます。これにより、機械学習トレーニングおよび推論をより高速かつ簡単に開始できます。

スケーラブルなマルチノード機械学習トレーニング

最大 100 Gbps のネットワークスループットで複数の Amazon EC2 P3 インスタンスを駆使し、機械学習モデルを迅速にトレーニングできます。ネットワークスループットが高いほど、デベロッパーはデータ転送のボトルネックをなくし、複数の P3 インスタンスをまたいでモデルのトレーニングジョブを効率的にスケールアウトできます。多くのお客様が、16 個の P3 インスタンスを使用して、たった 18 分で ResNet-50 (一般的なイメージ分類モデル) を業界標準の精度でトレーニングしています。大半の ML のお客様は、このレベルのパフォーマンスをこれまで達成できませんでした。オンプレミスの GPU クラスターを構築するには、多大な CapEx 投資が必要とされたためです。P3 インスタンスをオンデマンド使用モデルで利用することにより、このレベルのパフォーマンスをすべてのデベロッパーと機械学習エンジニアが達成できるようになりました。さらに、P3dn.24xlarge インスタンスは、NVIDIA Collective Communications Library (NCCL) を使用して数千の GPU に拡張する Elastic Fabric Adapter (EFA) をサポートします。

主要なすべての機械学習フレームワークをサポート

Amazon EC2 P3 インスタンスは、TensorFlow、PyTorch、Apache MXNet、Caffe、Caffe2、Microsoft Cognitive Toolkit (CNTK)、Chainer、Theano、Keras、Gluon、Torch といった、主要なすべての機械学習フレームワークをサポートしています。アプリケーションに最適なフレームワークを柔軟に選択できます。

お客様事例

Airbnb

Airbnb は、機械学習を使用して検索の推奨事項を最適化し、ホストの動的料金設定のガイダンスを改善しており、いずれも予約コンバージョンの増加につながっています。Amazon EC2 P3 インスタンスを使用することで、Airbnb はトレーニングワークロードのより迅速な実行、より多くの反復処理、優れた機械学習モデルの構築、コストの削減ができます。

Celgene

Celgene は、患者に合う標的療法を開発している世界的なバイオテクノロジー企業です。同社は、Amazon EC2 P3 インスタンスで次世代のゲノムシーケンスと化学シミュレーションを行うために HPC ワークロードを実行しています。この計算能力により、Celgene はディープラーニングモデルをトレーニングして、悪性細胞と良性細胞を区別することができます。P3 インスタンスを使用する前は、大規模な計算ジョブを実行するまで 2 か月かかりましたが、今ではわずか 4 時間で処理できます。AWS テクノロジーにより、Celgene はがんや炎症性疾患の薬物療法の開発を加速することができました。

Hyperconnect は、機械学習に基づく新しいテクノロジーを画像や動画処理に適用することを専門としており、モバイルプラットフォーム向けの webRTC を開発した最初の企業です。

「Hyperconnect は、動画通信アプリで AI ベースの画像分類を使用して、ユーザーがいる現在の環境を認識しています。Horovod を使用してオンプレミスのワークステーションから複数の Amazon EC2 P3 インスタンスに移行することで、1 週間以上かかっていた ML モデルのトレーニング時間を 1 日未満に短縮しました。機械学習フレームワークとして PyTorch を使用することにより、モデルをすばやく開発し、オープンソースコミュニティで利用可能なライブラリを活用することができました」

Hyperconnect 社 AI ラボディレクター、Sungjoo Ha 氏

導入事例全文を読む »

NerdWallet は個人金融スタートアップであり、顧客が借金を完済し、最高の金融商品やサービスを選択して、家の購入や退職後の貯蓄などの主要な人生の目標に容易に取り組めるようにするツールとアドバイスを提供します。同社は、データサイエンスと機械学習 (ML) を大幅に活用して、顧客とパーソナライズされた金融商品を結び付けています。

NVIDIA V100 Tensor コア GPU で Amazon SageMaker および Amazon EC2 P3 インスタンスを使用することで、NerdWallet の柔軟性とパフォーマンスも向上し、データサイエンティストが機械学習モデルをトレーニングするために必要な時間が短縮されました。「以前は、モデルの起動と反復に数か月かかっていたのが、今では数日で済みます」

NerdWallet 社シニアエンジニアリングマネージャー、Ryan Kirkman 氏

導入事例の全文を読む »

品質システムソリューションのリーダーである Aon’s PathWise は、エンタープライズリスク管理モデリング向けクラウドベースの SaaS アプリケーションスイートであり、スピード、信頼性、セキュリティ、およびオンデマンドサービスをさまざまな顧客に提供します。

「Aon’s PathWise Solutions Group は、お客様が最新のテクノロジーを活用して、ヘッジ戦略の管理とテスト、規制と経済に関する予測、予算編成など、今日の主な保険的課題を迅速に解決できるようにするリスク管理ソリューションを提供します。PathWise は 2011 年から AWS で運用されており、今では Amazon EC2 P シリーズインスタンスを使用して、世界中のお客様が絶えず進化を遂げる市場でこれらの課題を解決するために必要な計算を加速できるようにしています」

PathWise Solutions Group - 社長兼 CEO、Peter Phillips 氏

導入事例を読む »

Pinterest

Pinterest は、AWS の P3 インスタンスで混合精度トレーニングを使用してディープラーニングモデルのトレーニングを高速化し、これらのインスタンスを使用してより高速なモデル推論を行い、ユーザーに高速でユニークな発見体験を提供しています。Pinterest では、AWS で PyTorch を使用して作成された PinSage を使用しています。この AI モデルは、特定のテーマに基づいて画像をグループ化します。プラットフォーム上に 30 億の画像がある場合、180 億の異なる関連付けが画像を接続します。これらの関連付けを使用して、Pinterest がテーマ、スタイルをコンテキスト化して、よりパーソナライズされたユーザー体験を生み出します。

Salesforce

Salesforce は機械学習を使用して Einstein Vision を強化しています。これによりデベロッパーは画像認識の能力を視覚検索、ブランド検出、製品識別といったユースケースに活かすことができています。Amazon EC2 P3 インスタンスにより、デベロッパーたちは深層学習モデルをさらに速くトレーニングし、機械学習の目標を迅速に達成できます。

Schrodinger

Schrodinger はハイパフォーマンスコンピューティング (HPC) を使用して予測モデルを開発し、発見と最適化の規模を拡大することで、顧客が人の命に関わる薬をより迅速に市場に投入できるようにしています。Schrodinger は Amazon EC2 P3 インスタンスを使用することによって、P2 インスタンスを使用していたときの 4 倍のシミュレーションを 1 日の間に実行できます。 

Subtle Medical は、医療画像の効率性と患者体験を改善するための革新的な深層学習ソリューションに取り組んでいる医療テクノロジー企業です。スタンフォード、MIT、MD アンダーソンなどの有名な画像科学者、放射線科医、AI 専門家で構成されたチームを抱えています。

「病院と画像センターでは、IT 部門に負担をかけずにこのソリューションを導入して、GPU の専門知識を取得し、コストのかかるデータセンターやミニクラウドを構築して維持したいと考えています。最小限の労力と投資を投入してデプロイメントを成功させたいということですが、AWS はこれを可能にします」

Subtle Medical 創設者兼 CEO、Enhao Gong 氏

導入事例全文を読む »

Western Digital

Western Digital は HPC を使用して、材料科学、熱流、磁気、データ転送のシミュレーションを何万回も実行し、ディスクドライブやストレージソリューションのパフォーマンスと品質を向上させています。初期のテストによると、P3 インスタンスを使用することで、エンジニアリングチームは、以前にデプロイされたソリューションより少なくとも 3 倍速くシミュレーションを実行できています。 

Amazon EC2 P3 インスタンスと Amazon SageMaker

機械学習モデルをトレーニングおよび実行する最速の方法

Amazon SageMaker は、機械学習モデルを構築、トレーニング、デプロイするフルマネージドサービスです。Amazon EC2 P3 インスタンスと一緒に使用することで、数十、数百、数千の GPU に簡単にスケールし、あらゆる規模でモデルを迅速にトレーニングできます。クラスターやデータパイプラインを設定する必要はありません。Amazon SageMaker でのトレーニングやホスティングのワークフローのために、Amazon Virtual Private Cloud (Amazon VPC) のリソースに簡単にアクセスすることもできます。この機能を使用すると、VPC からのみアクセス可能な Amazon Simple Storage Service (Amazon S3) バケットを使用してトレーニングデータを保存できます。また、トレーニングプロセスから派生したモデルのアーティファクトを保存してホストすることもできます。S3 に加えて、モデルは VPC に含まれる他のすべての AWS リソースにアクセスできます。詳細

構築

Amazon SageMaker を使用すると、簡単に機械学習モデルを構築し、トレーニングのための準備ができます。また、トレーニングデータにすばやくアクセスし、アプリケーションに合ったアルゴリズムとフレームワークを選択して最適化するために必要なものがすべて提供されます。Amazon SageMaker ではホスト型の Jupyter ノートブックを利用でき、Amazon S3 に保存されているトレーニングデータを簡単に分析して可視化できます。  また、ノートブックインスタンスを使用してコードを記述することや、モデルのトレーニングジョブの作成、Amazon SageMaker ホスティングへのモデルのデプロイ、モデルのテストや検証も実行できます。

トレーニング

コンソールでワンクリックするか、API コールを使用してモデルのトレーニングを開始できます。Amazon SageMaker には、最新バージョンの TensorFlow と Apache MXNet、および NVIDIA GPU で最適なパフォーマンスを得るための CUDA9 ライブラリサポートが事前設定済みです。加えて、ハイパーパラメータ最適化の機能では、異なる組み合わせのモデルパラメータをスマートに調節して最も正確な予測に迅速に到達させることで、モデルのチューニングを自動的に実行できます。さらに大きなスケールが必要な場合、数十のインスタンスにスケールして、モデル構築を迅速に実行できます。

デプロイ

トレーニング終了後、複数のアベイラビリティーゾーンをまたいで、自動的にスケールする Amazon EC2 インスタンスにモデルをワンクリックでデプロイできます。本番稼働用環境では、Amazon SageMaker がお客様に代わってコンピューティングインフラストラクチャを管理し、ヘルスチェックを行い、セキュリティパッチを適用し、その他の日常的メンテナンスを行います。これらのすべてに組み込みの Amazon CloudWatch モニタリングとログ記録が使用されます。

 

Amazon EC2 P3 インスタンスと AWS ディープラーニング AMI

事前設定済みの開発環境でディープラーニングアプリケーションの構築を迅速に開始

さらにカスタマイズされた要件を持つデベロッパーのために、Amazon SageMaker の代わりとなるのが AWS 深層学習 AMI です。これによって機械学習の専門家や研究者に、クラウド上での深層学習をあらゆる規模で加速するためのインフラストラクチャとツールが提供されます。Amazon EC2 P3 インスタンスには TensorFlow、PyTorch、Apache MXNet、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Chainer、Gluon、Keras といった一般的なディープラーニングフレームワークがプリインストールされています。このため、Amazon EC2 P3 インスタンスをすばやく起動して、高度なカスタム AI モデルのトレーニング、新しいアルゴリズムの実験、新しいスキルや技術の学習を行うことができます。詳細 >>

Amazon EC2 P3 インスタンスとハイパフォーマンスコンピューティング

AWS で HPC のパワーを使用してコンピューティングに関する大きな問題を解決し、新しいインサイトを獲得

Amazon EC2 P3 インスタンスは、エンジニアリングシミュレーション、金融工学、地震分析、分子モデリング、ゲノミクス、レンダリングやその他の GPU コンピューティングワークロードを実行するための理想的なプラットフォームです。ハイパフォーマンスコンピューティング (HPC) により、サイエンティストやエンジニアは、複雑でコンピューティング負荷の高い問題を解決できます。HPC アプリケーションでは、通常、高いネットワークパフォーマンス、高速ストレージ、大容量メモリ、高いコンピューティング性能が必要になります。AWS を使用すると、クラウド内で HPC を実行し、大多数のオンプレミス環境で現実的とされる数よりも多く並列タスクをスケールすることで、研究のスピードを速め、結果を取得するまでの時間を短縮できます。たとえば、P3dn.24xlarge インスタンスは Elastic Fabric Adapter (EFA) をサポートしています。これにより、Message Passing Interface (MPI) を使用する HPC アプリケーションを数千の GPU に拡張できます。AWS では、特定のアプリケーション用に最適化されたソリューションを利用できるため、大規模な設備投資を回避しながらコストを削減するのに役立ちます。詳細 >>

NVIDIA RTX Virtual Workstation のサポート

NVIDIA RTX Virtual Workstation AMI は、AWS クラウドで実行される NVIDIA Volta V100 GPU による強力な P3 インスタンスを使用して、高いグラフィックスパフォーマンスを実現します。これらの AMI には、最新の NVIDIA GPU グラフィックスソフトウェアが、最新の RTX ドライバーおよび NVIDIA ISV 証明書とともにプリインストールされており、最大で 4K の解像度を持つ 4 つのデスクトップがサポートされています。NVIDIA V100 GPU と RTX vWS を組み合わせた P3 インスタンスは、最大 32 GiB の GPU メモリ、高速レイトレーシング、および AI 搭載レンダリングを備えたクラウド内の高性能ワークステーションを提供します。

新しい AMI は AWS Marketplace で入手でき、Windows Server 2016 および Windows Server 2019 がサポートされます。

Amazon EC2 P3dn.24xlarge インスタンス

分散機械学習とハイパフォーマンスコンピューティング用に最適化された、新しいより高速、より強力、より大きなインスタンスサイズ

Amazon EC2 P3dn.24xlarge インスタンスは、現在提供されている P3 インスタンスサイズの中で最も強力で、最速、最大のインスタンスです。最大 100 Gbps のネットワークスループット、8 個の NVIDIA® V100 Tensor Core GPU (それぞれに 32 GiB のメモリを搭載)、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、1.8 TB の NVMe ベースのローカル SSD ストレージが搭載されています。デベロッパーは、ネットワークの高速化、新しいプロセッサ、GPU メモリの倍増、vCPU の追加が行われたこのインスタンスを使用して、複数のインスタンス (例えば、16 個、32 個、64 個のインスタンス) にジョブをスケールアウトすることで、ML モデルのトレーニングやより多くの HPC シミュレーションの実行にかかる時間を大幅に短縮できます。機械学習モデルは、トレーニングのために大量のデータを必要とします。大量のトレーニングデータに対するアクセスをスピードアップさせるには、インスタンス間のデータの受け渡しのスループットを高めるほかに、Simple Storage Service (Amazon S3) や共有ファイルシステムソリューション (Amazon EFS など) に接続することで P3dn.24xlarge インスタンスのネットワークスループットを利用することもできます。

ボトルネックを除去し、機械学習のトレーニング時間を短縮

100 Gbps のネットワークスループットにより、デベロッパーは分散トレーニングのために多数の P3dn.24xlarge インスタンスを効率的に使用し、モデルのトレーニング時間を大幅に短縮できます。AWS カスタムのインテル Skylake プロセッサ (96vCPU を搭載) は、AVX-512 命令をサポートして 2.5 GHz で動作し、データの前処理の最適化を促進します。さらに、P3dn.24xlarge インスタンスは、専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System を使用し、実質的にホストハードウェアのすべてのコンピューティングリソースとメモリリソースをお客様のインスタンスに提供します。P3dn.24xlarge インスタンスは、NVIDIA Collective Communications Library (NCCL) を使用する ML アプリケーションが数千の GPU に拡張できるようにする Elastic Fabric Adapter もサポートしています。

GPU 使用率の最適化による TCO の削減

拡張ネットワーキングでは、最大 100 Gbps の集約ネットワーク帯域幅を備えた最新バージョンの Elastic Network Adapter を使用します。これにより、複数の P3dn.24xlarge インスタンス間でデータを共有できるだけでなく、Amazon S3 や共有ファイルシステムソリューション (Amazon EFS など) を介した高スループットのデータアクセスが可能になります。高スループットのデータアクセスは、GPU の使用率を最適化し、コンピューティングインスタンスの最大限のパフォーマンスを提供するために不可欠です。

より大規模で複雑なモデルをサポート

P3dn.24xlarge インスタンスは、32 GiB メモリの NVIDIA V100 Tensor Core GPU を搭載します。これにより、より高度で、より大規模な機械学習モデルを柔軟にトレーニングできるほか、画像分類システムやオブジェクト検出システムで使用される 4K 画像などの大容量データを一括処理することが可能となります。

Amazon EC2 P3 インスタンスの製品詳細

インスタンスサイズ GPUs – Tesla V100 GPU Peer to Peer GPU メモリ (GB) vCPU メモリ (GB) ネットワーク帯域幅 EBS 帯域幅 オンデマンド料金/時間* 1 年間のリザーブドインスタンスの実質的時間単価* 3 年間のリザーブドインスタンスの実質的時間単価*
p3.2xlarge 1 該当なし 16 8 61 最大 10 Gbps 1.5 Gbps 3.06 USD 1.99 USD 1.05 USD
p3.8xlarge 4
NVLink 64 32 244 10 Gbps 7 Gbps 12.24 USD 7.96 USD 4.19 USD
p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps 24.48 USD 15.91 USD 8.39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 Gbps 19 Gbps 31.218 USD 18.30 USD 9.64 USD

* – 提示されている料金は、米国東部 (バージニア北部) AWS リージョン内で使用される Linux/Unix に対する料金で、1 セント未満は四捨五入しています。すべての価格詳細を確認するには、Amazon EC2 料金ページを参照してください。

P3 インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、および Dedicated Host として購入できます。

秒単位の使用料金

クラウドコンピューティングの数あるメリットの 1 つは、必要に応じたリソースのプロビジョニングやプロビジョニングの解除ができる、伸縮自在な性質です。秒単位で使用料金が請求されるため、お客様の伸縮性のレベルアップ、コストの削減、機械学習の目標達成に向けたリソース配分の最適化が可能になります。

リザーブドインスタンスの料金

リザーブドインスタンスは、オンデマンドインスタンスに比べて料金が大幅に割引となります (最大 75%)。さらに、特定のアベイラビリティーゾーンにリザーブドインスタンスを割り当てると、キャパシティーが予約されるため、必要な時に安心してインスタンスを作成することができます。

スポット料金

スポットインスタンスでは、インスタンスの実行期間中の有効なスポット料金を支払います。スポットインスタンス料金は Amazon EC2 で設定され、スポットインスタンス容量に対する長期の需給傾向に基づいて緩やかに調整されます。スポットインスタンスは、オンデマンド料金と比べて最大 90% の割引価格で利用できます。

最も幅広く、グローバルな可用性

P3 インスタンスのグローバルな可用性

Amazon EC2 P3.2xlarge、P3.8xlarge、および P3.16xlarge インスタンスは 14 箇所の AWS リージョンで利用可能です。そのため、お客様はどこでもデータが保存されている場所で、機械学習モデルを柔軟にトレーニングしてデプロイできます。P3 は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、カナダ (中部)、欧州 (アイルランド)、欧州 (フランクフルト)、欧州 (ロンドン)、アジアパシフィック (東京)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (シンガポール)、中国 (北京)、中国 (寧夏)、および GovCloud (米国西部) AWS リージョンで利用できます。

P3dn.24xlarge インスタンスは、アジアパシフィック (東京)、欧州 (アイルランド)、米国東部 (バージニア北部)、米国西部 (オレゴン)、GovCloud (米国西部)、GovCloud (米国東部) AWS リージョンでご利用いただけます。

Amazon EC2 P3 インスタンスで機械学習を開始する

数分で開始できます。その前に Amazon SageMaker の詳細をご覧ください。または、一般的なディープラーニングフレームワーク (Caffe2 や MXNet など) にプリインストールされている AWS ディープラーニング AMI をご利用ください。また、GPU ドライバーや CUDA ツールキットが事前にインストールされている NVIDIA AMI を使用することもできます。

ブログ、記事、およびオンラインセミナー

配信日: 2018 年 12 月 19 日

レベル: 200

コンピュータビジョンは、デジタル画像や動画から高度な内容を理解するためにコンピュータをトレーニングする方法について扱います。コンピュータビジョンの歴史は 1960 年代まで遡りますが、最近の処理技術の進歩により、自律走行車のナビゲーションなどのアプリケーションを利用できるまでに至りました。このテックトークでは、コンピュータビジョンの機械学習モデルを構築、トレーニング、およびデプロイするために必要なさまざまな手順について説明します。異なる Amazon EC2 インスタンスを使用したコンピュータビジョンモデルのトレーニングを比較および対比し、Amazon EC2 P3 インスタンスを使用することで時間を大幅に節約できることを強調します。

配信日: 2018 年 7 月 31 日

レベル 200

組織は、高度な科学、エネルギー、高度技術、そして医療分野において幾何学的に複雑な問題に取り組んでいます。機械学習 (ML) を使用すると、画像、動画、音声認識から自律走行車システム、天気予報まで、さまざまなシナリオをすばやく探索して最適解を生成することができます。機械学習アプリケーションの高速化を望んでいるデータサイエンティストや研究者、デベロッパーたちにとって、Amazon EC2 P3 インスタンスはクラウド内で使用可能な、最も強力で費用対効果の高い、多目的 GPU コンピューティングです。

Amazon SageMaker について

詳細については、ここをクリックしてください

About Deep Learning on AWS

詳細については、ここをクリックしてください

ハイパフォーマンスコンピューティング (HPC) について

詳細については、ここをクリックしてください
始める準備はできましたか?
サインアップ
ご不明な点がおありですか?
お問い合わせ