投稿日: Mar 20, 2019
AWS 深層学習 AMI は、次世代の Amazon Linuxである Amazon Linux 2 のほか、Amazon Linux や Ubuntu で提供されるようになりました。加えて、AWS 深層学習 AMI は MXNet 1.4.0、Chainer 5.3.0、PyTorch 1.0.1、TensorFlow 1.13.1 にも同梱されるようになりました。これはソースから直接カスタムビルドして、Amazon EC2 インスタンス全体での高パフォーマンスなトレーニングに向けて調整できます。
CPU インスタンスの場合、TensorFlow 1.13 はソースから直接カスタムビルドされ、EC2 C5 を動作させる Intel Xeon Platinum プロセッサのパフォーマンスを加速します。深層学習 AMI を使用した、合成 ImageNet データによる ResNet-50 モデルのトレーニングは、ストック TensorFlow 1.13 バイナリと比較して、スループットが 9.4 倍高速になります。GPU インスタンスには、NVIDIA CUDA 10 および cuDNN 7.4 で設定された TensorFlow 1.13 の最適化されたビルドが付属しており、Volta V100 GPU で動作する EC2 P3 インスタンスでの混合精度トレーニングを活用できます。複数の GPU に TensorFlow のトレーニングをスケールしたい開発者の方には、Horovod 分散型トレーニングフレームワークを同梱した AWS 深層学習 AMI もあります。このフレームワークは、Amazon EC2 P3 インスタンスから成る分散型トレーニングクラスタートポロジーを効率的に利用できるよう完全に最適化されています。深層学習 AMI で TensorFlow 1.13 や Horovod を使用して ResNet-50 モデルのトレーニングをすると、8 ノードのストック TensorFlow 1.13 と比較して、スループットが 27% 高速になります。
AWS 深層学習 AMI は、Apache MXNet 1.4 の最新リリースにも同梱されるようになり、パフォーマンスと使いやすさの向上に役立っています。MXNet 1.4 には、推論のための Java バインディング、Julia バインディング、実験的な制御フロー演算子、JVM メモリ管理など、数多くの強化機能が搭載されています。このリリースではまた、グラフの最適化機能と量子化機能が改善され、Intel MKL-DNN への MXNet のサポートが強化されています。これにより、精度を大きく損なうことなくメモリの使用量を低減し、推論時間を短縮できます。
AWS 深層学習 AMI をすぐに使用開始するには入門ガイドを使用してください。初心者向けから高度なレベルまでのチュートリアルについては、開発者ガイドを参照してください。Conda 環境を有効化すると、深層学習 AMI は、ユーザーの選んだ EC2 インスタンス用に最適化された深層学習フレームワークの高パフォーマンスビルドを自動的にデプロイします。AWS 深層学習 AMI でサポートされるフレームワークとバージョンの一覧については、リリースノートをご覧ください。また、AWS のディスカッションフォーラムに登録すると、リリースのお知らせを受け取ったり質問を投稿したりできます。