Publicado en: Apr 4, 2018

En re:Invent 2017, presentamos una versión preliminar de la inferencia de ML de AWS Greengrass, una nueva característica que permite ejecutar inferencias de aprendizaje automático en dispositivos de borde con IoT, incluso sin conectividad con la nube. Hoy nos complace anunciar que la inferencia de ML de AWS Greengrass se encuentra disponible de manera general. Desde que lanzamos la versión preliminar en re:Invent, hemos añadido algunas mejoras en la característica para optimizar su experiencia al usar la inferencia de ML de AWS Greengrass. Hemos simplificado la implementación y ejecución de modelos de aprendizaje automático en dispositivos con IoT. Además de Apache MXNet, la inferencia de ML de AWS Greengrass ahora incluye un paquete de TensorFlow preintegrado para que no tenga que crear ni configurar el marco de ML para su dispositivo desde cero. Estos paquetes de ML son compatibles con dispositivos con Intel Atom, NVIDIA Jetson TX2 y Rasperry Pi. Si desea obtener más información sobre la inferencia de ML de Greengrass, haga clic aquí.

La inferencia de ML de AWS Greengrass se encuentra disponible en las regiones EE.UU. Este (Norte de Virginia) y EE.UU. Oeste (Oregón).

  • Conozca de qué manera Yanmar usa ML de Greengrass para la agricultura de precisión aquí.
  • Comience a usar AWS Greengrass aquí.