投稿日: Nov 29, 2017

AWS Greengrass Machine Learning (ML) Inference を使用すると、クラウドで構築されトレーニングされたモデルを使用して、AWS Greengrass デバイス上でローカルに ML 推論を実行することが容易になります。  これまでは、ML モデルの構築やトレーニング、および ML 推論の実行はほとんどクラウド専用でした。  ML モデルのトレーニングには大量のコンピューターリソースが必要なため、クラウドに向いているのも当然です。  AWS Greengrass ML Inference を使用すると、クラウドに接続していないときでも AWS Greengrass デバイスでデータを生成しながら、すばやく適切な判断を行うことができます。

この機能により、ML モデルへのアクセス、モデルのデバイスへのデプロイ、ML フレームワークの構築とデプロイ、推論アプリの作成、および GPU や FPGA などのデバイスアクセラレーターの利用など、ML のデプロイの各段階が簡素化されます。  たとえば、Amazon SageMaker で構築されトレーニングされたディープラーニングモデルに AWS Greengrass コンソールから直接アクセスして、AWS Greengrass グループの一部としてデバイスにダウンロードできます。  AWS Greengrass ML Inference には、AWS Greengrass デバイスにインストールできる事前構築済みの Apache MXNet フレームワークが含まれているため、ゼロから作成する必要がありません。  NVIDIA Jetson、Intel Apollo Lake、および Raspberry Pi デバイス用の事前構築済み Apache MXNet パッケージをクラウドから直接ダウンロードすることも、AWS Greengrass グループのソフトウェアの一部として含めることもできます。

AWS Greengrass ML Inference には、推論アプリをすばやく作成できる事前構築済み AWS Lambda テンプレートも含まれています。  提供される Lambda 設計図には、モデルのロード、Apache MXNet のインポート、予測に基づいたアクションの実行などの一般的なタスクが示されています。

多くのアプリケーションで、ML モデルのパフォーマンスは、デバイスで使用可能なハードウェアリソースをすべて利用した場合、より良いものになります。そのために AWS Greengrass ML Inference が役に立ちます。アプリケーションがデバイスのハードウェアリソースにアクセスできるようにするには、それらを AWS Greengrass コンソールで AWS Greengrass グループのローカルリソースとして宣言します。

これらの機能を使用するには、プレビューにサインアップしてください。