Publicado en: Nov 29, 2017

AWS Greengrass Machine Learning (ML) Inference facilita las inferencias de ML localmente en los dispositivos de AWS Greengrass con modelos que están creados y entrenados en la nube. Hasta ahora, las operaciones de creación y entrenamiento de modelos de ML, así como la ejecución de inferencias de ML, se llevaban a cabo casi exclusivamente en la nube. El entrenamiento de modelos de ML requiere grandes cantidades de recursos informáticos, por lo que resulta adecuado para la nube. Con AWS Greengrass ML Inference, los dispositivos de AWS Greengrass pueden tomar decisiones inteligentes rápidamente a medida que se generen los datos, incluso cuando están desconectados.

Esta capacidad simplifica todos los pasos de la implementación de ML, incluido el acceso a los modelos de ML, la implementación de modelos en los dispositivos, la creación e implementación de marcos de ML, la creación de aplicaciones de inferencias y el uso en aceleradores de dispositivos, como las GPU y FPGA. Por ejemplo, puede obtener acceso a un modelo de aprendizaje profundo creado y entrenado en Amazon SageMaker directamente desde la consola de AWS Greengrass y, a continuación, descargarlo en un dispositivo que forma parte de un grupo de AWS Greengrass. AWS Greengrass ML Inference incluye un marco de trabajo Apache MXNet preconfigurado para instalarlo en los dispositivos de AWS Greengrass para que no tenga que crearlo desde cero. El paquete de Apache MXNet preconfigurado para dispositivos NVIDIA Jetson, Intel Apollo Lake y Raspberry Pi se puede descargar directamente desde la nube o se puede incluir como parte del software del grupo de AWS Greengrass

AWS Greengrass ML Inference también incluye plantillas preconfiguradas de AWS Lambda que se pueden utilizar para crear rápidamente una aplicación de inferencias. El proyecto de Lambda proporcionado muestra tareas comunes, como carga de modelos, importación de Apache MXNet y realización de acciones a partir de las predicciones.

En muchas aplicaciones, el modelo de ML tendrá un mejor desempeño si se utilizan plenamente todos los recursos de hardware disponibles en el dispositivo, y AWS Greengrass ML Inference ayuda a conseguirlo. Para que una aplicación obtenga acceso a los recursos de hardware del dispositivo, debe declararlos como recurso local en el grupo de AWS Greengrass en la consola de AWS Greengrass.

Para usar estas características, inscríbase en la vista previa.