Amazon Web Services ブログ

Amazon SageMaker MXNet 1.2 コンテナの発表

Amazon SageMaker の構築済み MXNet コンテナで、最新リリースの Apache MXNet 1.2 の使用を開始しました。  Amazon SageMaker は、開発者やデータサイエンティストが、機械学習モデルをあらゆる規模で、迅速かつ簡単に構築、トレーニング、デプロイできるようにする完全マネージド型プラットフォームです。  また、構築済み MXNet コンテナにより、深層学習スクリプトを自然に記述するのが容易になるととも、Amazon SageMaker における分散型のマネージドトレーニングやリアルタイムの製品ホスティングの活用も可能にします。

MXNet 1.2 には使いやすさ、より優れたパフォーマンス、強化された相互運用性などといった特徴があります。 また、この製品により、新しいインテル MKL-DNN との統合が追加され、コンボリューション、デコンボリューション、コンピューティングに最適化された C5 インスタンスのプールなどのニューラルネットワーク演算が高速化されます。拡張 FP16 のサポートにより、NVIDIA Volta V100 GPU 搭載の Amazon EC2 P3 インスタンスでの Tensor Core の混合精度トレーニングが高速化されます。最後に、MXNet 1.2 には、Open Neural Network Exchange の新しい形式 (ONNX) のモジュールが付属しているため、ONNX モデルを MXNet のシンボリックインターフェイスにインポートできます。

ONNX は PyTorch、Caffe2、Microsoft Cognitive Toolkit (CNTK)、Chainer、MXNet などの深層学習フレームワーク間の相互運用性を有効化します。  また、ONNX モデルズーを利用することで事前トレーニングを施した高品質のさまざまなモデルがダウンロードしやすくなり、画像分類、対象物検出、セマンティックセグメンテーション、超解像技術、顔表情認識、その他などのタスクの予測を生成できるようになります。  前回の AWS 機械学習のブログ記事では、これらのモデルのインポートやそれを使った作業がいかに簡単かを披露しました。  Amazon SageMaker ホスティングとこれを組み合わせることで、お客様のサービスに機械学習予測を統合しやすくなります。  Amazon SageMaker MXNet コンテナを使って ONNX モデルをデプロイする方法について学ぶには、このサンプルノートブックを参照してください。

Amazon SageMaker MXNet 1.2 コンテナは、次の AWS リージョンで利用可能です。米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、欧州 (アイルランド) 、欧州 (フランクフルト) 、アジアパシフィック (東京)、アジアパシフィック (ソウル) 、アジアパシフィック (シドニー)。詳細については、Amazon SageMaker の文書および sagemaker-mxnet-container のリポジトリをご覧ください。


今回のブログ投稿者について

David Arpin は AWS の AI Platforms Selection Leader で、データサイエンスチームと製品管理を統率してきた経歴があります。