AWS 深層学習 AMI

深層学習アプリケーションをすばやく構築するために事前に構成された環境

AWS 深層学習 AMI では、データサイエンティスト、機械学習の専門家、研究者がクラウド上での深層学習をあらゆる規模で加速するためのインフラストラクチャとツールを提供しています。Amazon EC2 インスタンスには Apache MXNet、Gluon、TensorFlow、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、PyTorch、Chainer、Keras といった一般的な深層学習フレームワークが事前インストールされています。このため、Amazon EC2 インスタンスをすばやく作成して、高度なカスタム AI モデルのトレーニング、新しいアルゴリズムの実験、新しいスキルや技術の学習を行えます。

Amazon EC2 GPU インスタンスが必要な場合でも、CPU インスタンスが必要な場合でも、深層学習 AMI に対する追加料金は発生しません。アプリケーションの保存や実行に必要な AWS リソースに対してのみ料金が発生します。

TensorFlow

クラウド上の TensorFlow プロジェクトの 88% は AWS で実行しています。

Nucleus Research は、深層学習の専門家が深層学習のために他のクラウドプロバイダーよりも AWS を選択する 5 つの理由を説明しています。

AWS 深層学習 AMI という選択

経験豊かな機械学習の専門家であっても、機械学習の使用を開始することは時間のかかる面倒なものです。AWS では、開発者のさまざまなニーズをサポートするために AMI を用意しています。使用開始プロセスについての詳細は、AMI 選択ガイドやその他の深層学習リソースもご覧ください。

Conda AMI

深層学習フレームワークの事前インストールされた pip パッケージを別の仮想環境で必要とする開発者は、UbuntuAmazon LinuxWindows 2016 のバージョンで Conda ベースの AMI を利用できます。

Conda AMI の利点 の詳細と手順ガイドをご覧になり、使用を開始してください。

Base AMI

プライベート深層学習エンジンリポジトリを最初から設定する開発者や、深層学習エンジンのカスタム構築を行う開発者は、UbuntuAmazon Linux のバージョンで Base AMI を利用できます。

Base AMI の利点 の詳細と手順ガイドをご覧になり、使用を開始してください。

深層学習フレームワークのサポート

AWS 深層学習 AMI ではすべての一般的な深層学習フレームワークをサポートしているため、大規模なモデルを定義してトレーニングできます。Amazon Linux および Ubuntu 向けに構築されている AMI には、Apache MXNet と GluonTensorFlow、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、PyTorch、Chainer、Keras が事前に構成されているため、これらのどのフレームワークも大規模にすばやくデプロイして実行できます。

600x400_TensorFlow_Logo
600x400_mxnet_Logo
gluon-logo
chainer_600x
600x400_Caffe_Logo
600x400_Theano_Logo
pytorch-logo-flat
600x400_keras_Logo
600x400_Microsoft_Cognitive-Toolkit_Logo
600x400_Caffe2_Logo

モデルのトレーニングを加速

開発やモデルのトレーニングを促進するために、AWS Deep Learning AMI では、一般的な Python パッケージと Anaconda Platform のインストールに加えて、事前に構成された CUDA ドライバー、cuDNN ドライバー、Intel Math Kernel Library (MKL) を使用した、最新の NVIDIA GPU によるアクセラレーションを利用できます。 

GPU インスタンス

Nvidia

P3 インスタンスでは、旧世代の Amazon EC2 GPU コンピューティングインスタンスよりも最大 14 倍高いパフォーマンスを発揮します。NVIDIA Tesla V100 GPU を最大 8 個搭載した P3 インスタンスの浮動小数点パフォーマンスは、混合精度で最大 1 PFLOPS、単精度で最大 125 TFLOPS、倍精度で最大 62 TFLOPS です。

強力なコンピューティング

Intel

C5 インスタンスは 3.0 GHz Intel Xeon スケーラブルプロセッサを搭載しており、Intel Turbo Boost Technology によりシングルコアで最大 3.5 GHz まで高速化できます。C5 インスタンスは vCPU に対するメモリの割合が高く、価格性能比は C4 インスタンスに比べて 25% 向上しているため、要求の厳しい推論アプリケーションに最適です。

Python パッケージ

python-logo

AWS 深層学習 AMI には、Python 2.7 および Python 3.5 カーネルを搭載した Jupyter ノートブックと共に、Python 向け AWS SDK などの一般的な Python パッケージがインストールされています。

Anaconda Platform

Anaconda_ForTrademark_HorizontalLarge_white

AWS Deep Learning AMI には、パッケージの管理とデプロイを簡単にするために、Anaconda2 と Anaconda3 Data Science プラットフォームがインストールされており、大規模データ処理、予測分析、科学計算に対応しています。

AWS で深層学習の使用を開始する

icon1

AWS アカウントにサインアップする

すぐに AWS のサービスを利用できるようになります。
icon2

AWS 深層学習 AMI を入手する

プロジェクトに合った AMI とインスタンスタイプを選択してください。

icon3

AWS で構築を開始する

これらの 簡単なチュートリアルを使って、構築を開始してください。

Amazon SageMaker を機械学習で使用する

Amazon SageMaker の詳細

Amazon SageMaker は、開発者やデータサイエンティストが機械学習モデルをあらゆる規模ですばやく簡単に構築、トレーニング、デプロイできるようにするフルマネージドサービスです。Amazon SageMaker を使用すると、開発者による機械学習を通常減速させるような障害すべてを排除できます。

構築を始めましょう。
AWS 深層学習 AMI の使用を開始する
ご不明な点がおありですか?
お問い合わせ