发布于: Nov 29, 2017

AWS Greengrass Machine Learning (ML) Inference 使用户可以使用在云中构建和训练的模型轻松地对 AWS Greengrass 设备在本地执行 ML 推理。直到现在,构建和训练 ML 模型以及运行 ML 推理仍然几乎全部在云中完成。训练 ML 模型需要大量计算资源,因此与云是天然良配。利用 AWS Greengrass ML Inference,您的 AWS Greengrass 设备可以在数据生成后立即做出明智的决策,甚至在它们断开连接时也是如此。

该功能简化了部署 ML 的每个步骤,包括访问 ML 模型、将模型部署到设备、构建和部署 ML 框架、创建推理应用程序以及利用设备加速器 (如 GPU 和 FPGA)。例如,您可以直接从 AWS Greengrass 控制台访问在 Amazon SageMaker 中创建和训练的深度学习模型,然后将它作为 AWS Greengrass 组的一部分下载到您的设备。AWS Greengrass ML Inference 包含一个要安装在 AWS Greengrass 设备上的预构建 Apache MXNet 框架,因此您不必从头创建它。适用于 NVIDIA Jetson、Intel Apollo Lake 和 Raspberry Pi 设备的预构建 Apache MXNet 包可以直接从云中下载,也可以作为软件的一部分包含在 AWS Greengrass 组中。

AWS Greengrass ML Inference 还包含用于快速创建推理应用程序的预构建 AWS Lambda 模板。提供的 Lambda 蓝图向您展示了常见任务,如加载模型、导入 Apache MXNet 和基于预测采取措施。

在很多应用程序中,当您充分利用设备上可用的所有硬件资源时,您的 ML 模型的性能表现将会更好,而 AWS Greengrass ML Inference 对此会有帮助。要让您的应用程序访问设备上的硬件资源,您可以在 AWS Greengrass 控制台将它们声明为 AWS Greengrass 组中的本地资源。

要使用这些功能,请注册预览版