AWS 深層学習 AMI

事前設定された環境でスケーラブルで安全な深層学習アプリケーションを迅速に構築

分散型機械学習 (ML) トレーニングを数千の高速インスタンスにスケーリングし、プロダクション環境向けにモデルをシームレスにデプロイします。

AWS カスタムシリコンや Intel Habana などのアクセラレーターで、最新のドライバー、フレームワーク、ライブラリ、およびツールを使用して開発します。

セキュリティの脆弱性に対処するために定期的にパッチが適用されたカスタマイズされた安定したマシンイメージにより、リスクを軽減します。

仕組み

AWS Deep Learning AMI (DLAMI) は、ML の実践者や研究者に、クラウドでの深層学習を加速するための厳選された安全なフレームワーク、依存関係、ツールのセットを提供します。Amazon Linux および Ubuntu 向けに構築されている Amazon マシンイメージ (AMI) には、TensorFlow、PyTorch、Apache MXNet、Chainer、Microsoft Cognitive Toolkit (CNTK)、Gluon、Horovod、Keras が事前に設定されており、これらのフレームワークやツールを迅速に導入して大規模に実行することが可能です。

この図では、AWS マネジメントコンソール、AWS コマンドラインインターフェイス (CLI)、AWS SDK、AWS API、ローカルターミナルまたはアプリケーションスクリプトを使用して DLAMI を起動する方法を示しています。

ユースケース

自動運転車の開発

サポートされている数百万の仮想テストでモデルを検証することにより、高度な ML モデルを大規模に開発し、自動運転車 (AV) テクノロジーを安全に開発します。

自然言語処理

Hugging Face Transformers などの最新のフレームワークとライブラリを使用して、AWS インスタンスのインストールと設定を加速し、実験と評価を高速化します。

ヘルスケアデータ分析

高度な分析、ML、および深層学習の各機能を使用して、傾向を特定し、健康に関するさまざまな raw データから予測を行います。

高速化されたモデルトレーニング

DLAMI には、事前設定されたドライバー、Intel Math Kernel Library (MKL)、Python パッケージ、および Anaconda Platform を通じた最新の NVIDIA GPU アクセラレーションが含まれています。

最初に行うべきこと

モデルのトレーニングを加速する方法を確認する

DLAMI が開発とモデルのトレーニングを促進する方法について説明します。

AMI の詳細

プロジェクトに合った AMI とインスタンスタイプを選択してください。

ハンズオントレーニングを受講する

10 分間のチュートリアルでビルドを開始することができます。


AWS の詳細を見る