AWS での Apache MXNet

すばやくトレーニングしてどこででも実行できる、機械学習アプリケーションを構築

Apache MXNet は、高速でスケーラブルなトレーニングおよび推測フレームワークで、機械学習用の使いやすく簡潔な API が付属します。

MXNet には Gluon インターフェイスが含まれ、開発者はこれによって、自身のスキルレベルにかかわらず、クラウド、エッジデバイス、モバイルアプリケーションでの深層学習を開始できます。数行の Gluon コードで、オブジェクト検出、音声認識、レコメンデーション、パーソナライズといった用途の直線回帰、畳み込みネットワーク、リカレント LSTM を構築できます。

AWS では、完全マネージド型の MXNet エクスペリエンスで、規模に合わせて機械学習を構築、トレーニング、デプロイできるプラットフォームである Amazon SageMaker で今すぐ開始できます。別の方法として、AWS Deep Learning AMI を用い、TensorFlow と、TensorFlow、Caffe、Caffe2、Chainer、PyTorch、Keras、Microsoft Cognitive Toolkit などのよく使われるフレームワークでカスタム環境とワークフローを構築できます。

Apache MXNet プロジェクトに貢献する

GitHub プロジェクトページで、サンプルコード、ノートブック、チュートリアルのコンテンツを入手します。

social-media-github

MXNet を使用した深層学習の利点

Gluon による使いやすさ

MXNet の Gluon ライブラリは、トレーニングのスピードを犠牲にすることなく深層学習モデルのプロトタイプの作成、トレーニング、デプロイを簡単に行うことが可能な、ハイレベルなインターフェイスを提供します。Gluon では、定義済みレイヤー、損失関数、オプティマイザ用のハイレベルな抽象化が提供されています。また、構造は柔軟なため直感的に作業でき、デバッグも容易です。

さらに優れたパフォーマンス

深層学習ワークロードは複数の GPU に線形に近いスケーラビリティで分散させることができます。つまり、非常に巨大なプロジェクトを短い時間で処理できます。さらに、スケーリングはクラスター内の GPU 数に応じて自動的に実行されます。また、開発者はサーバーレスかつバッチベースの推測を実行することで、時間を節約して生産性を向上させることができます。

IoT およびエッジ向け

クラウド内での複数 GPU トレーニングおよび複雑なモデルのデプロイに加えて、MXNet では Raspberry Pi、スマートフォン、ラップトップなどマシンパワーの低いエッジデバイスで実行でき、リモートでデータのリアルタイム処理が可能な、軽量なニューラルネットワークモデル表現も生成されます。

柔軟性と選択肢

MXNet では、C++、JavaScript、Python、R、Matlab、Julia、Scala、Go といったプログラミング言語が幅広くサポートされているため、自分の既に知っている言語で開始することができます。ただし、バックエンドではすべてのコードが C++ にコンパイルされるため、モデル構築に使用された言語にかかわりなく最大限のパフォーマンスを発揮できます。

MXNet 導入事例

MXNet プロジェクトには、Amazon、Apple、Samsung、Microsoft の開発者を含め、400 を超えるコントリビューターが存在します。MXNet コミュニティの深層学習プロジェクトの詳細については、以下をご覧ください。

Amazon SageMaker を機械学習で使用する

Amazon SageMaker の詳細

Amazon SageMaker は、開発者やデータサイエンティストが機械学習モデルをあらゆる規模ですばやく簡単に構築、トレーニング、デプロイできるようにするフルマネージドサービスです。Amazon SageMaker を使用すると、開発者による機械学習を通常減速させるような障害すべてを排除できます。

ご不明な点がおありですか?
お問い合わせ