張貼日期: Nov 29, 2017

AWS Greengrass Machine Learning (ML) Inference 可讓您使用雲端中建置及訓練的模型,在 AWS Greengrass 裝置輕鬆進行本機的機器學習推論。到目前為止,建置及訓練機器學習模型,以及進行機器學習推論,幾乎都只在雲端中完成。訓練機器學習模型需要大量的運算資源,因此當然非常適合在雲端上進行。運用 AWS Greengrass ML Inference,您的 AWS Greengrass 裝置可以在產生資料時快速做出明智的決定,就算中斷連接時也能做到。

這項功能簡化了部署機器學習的每個步驟,包括存取機器學習模型、將模型部署至裝置、建置及部署機器學習架構、建立推論應用程式,以及運用 GPU 與 FPGA 等裝置加速器。舉例來說,您可以透過 AWS Greengrass 主控台,直接存取在 Amazon SageMaker 中建置及訓練的深度學習模型,接著將模型下載至您的裝置,成為 AWS Greengrass 群組的一部分。AWS Greengrass ML Inference 包含了預先建置的 Apache MXNet 架構,可安裝於 AWS Greengrass 裝置,這樣您就不用從頭開始建置此架構。預先建置的 Apache MXNet 套件,適用於 NVIDIA Jetson、Intel Apollo Lake 與 Raspberry Pi 裝置,可以直接從雲端下載,或包含在您 AWS Greengrass 群組的軟體中。

AWS Greengrass ML Inference 也包含預先建置的 AWS Lambda 範本,您可使用這些範本快速建置推論應用程式。隨附的 Lambda 藍圖能顯示常見工作 (例如載入模型)、匯入 Apache MXNet,並根據預測來採取行動。

在許多應用中,如果能夠充分利用裝置上所有可用硬體資源,機器學習模型將會展現更好的效能,而 AWS Greengrass ML Inference 有助於實現這個成果。要允許應用程式使用裝置上的硬體資源,可以至 AWS Greengrass 主控台,將這些資源宣告為您 AWS Greengrass 群組中的本機資源。

若要使用這些功能,請註冊取得預覽