投稿日: Dec 3, 2019
AWS 深層学習 AMI が、TensorFlow 1.15、Tensorflow 2.0、PyTorch 1.3.1、MXNet 1.6.0-rc0 をサポートした、Ubuntu 18.04、Ubuntu 16.04、Amazon Linux 2、Amazon Linux で利用できるようになりました。このバージョンでは、AWS Inferentia チップを使用して推論を実行するための SDK である AWS Neuron もサポートされるようになりました。AWS 深層学習 AMI は AWS Inferentia チップ用のコンパイラ、ランタイム、およびプロファイリングツールで構成されています。これを使って、EC2 Inf1 インスタンスに基づき、 開発者が高パフォーマンスで低レイテンシーの推論ワークロードを Inferentia 上で実行できるようにします。Neuron は、TensorFlow、Pytorch、MXNet などの一般的な機械学習フレームワークにも統合済みです。このため、EC2 Inf1 インスタンスの最適なパフォーマンスが実現します。Amazon EC2 Inf1 インスタンスを使用しているお客様は、最高のパフォーマンスの機械学習推論と最低コストのメリットを受けられます。また本番環境で大規模な機械学習モデルを実行する際のレイテンシーやスループットの最適化との関で次善のトレードオフを行う必要がなくなります。
AWS Deep Learning AMI ではその他のインターフェイス (Keras、Chainer、Gluon など) もサポートされており、インストールと設定はすべて完了済みの状態であるため、Amazon EC2 インスタンスのコンピューティングパワーと柔軟性を活用しながら深層学習モデルの開発をわずか数分で開始できます。Conda 環境を有効化すると、深層学習 AMI は、ユーザーの選んだ EC2 インスタンス用に最適化された深層学習フレームワークの高パフォーマンスビルドを自動的にデプロイします。AWS 深層学習 AMI でサポートされるフレームワークとバージョンの一覧については、リリースノートをご覧ください。
AWS 深層学習 AMI をすぐに使用開始するには入門ガイドを使用してください。初心者向けから高度なレベルまでのチュートリアルについては、開発者ガイドを参照してください。また、AWS のディスカッションフォーラムに登録すると、リリースのお知らせを受け取ったり質問を投稿したりできます。