Publicado en: Apr 4, 2018

En re:Invent 2017, presentamos una vista previa de AWS Greengrass ML Inference, una nueva característica de AWS Greengrass que le permitirá ejecutar una inferencia de aprendizaje automático en dispositivos IoT de borde, incluso sin conectividad en la nube. Hoy nos complace anunciar la disponibilidad general de AWS Greengrass ML Inference. Desde el lanzamiento que hicimos en re:Invent, hemos agregado mejoras a esta característica para que disfrute de una mejor experiencia al usar AWS Greengrass ML Inference. Hemos simplificado la implementación y ejecución de modelos de aprendizaje automático en sus dispositivos IoT. Además de Apache MXNet, AWS Greengrass ML Inference ahora incluye un paquete de TensorFlow preintegrado para que no tenga que integrar ni configurar el marco ML de su dispositivo desde cero. Estos paquetes ML son compatibles con los dispositivos de Intel Atom, NVIDIA Jetson TX2 y Rasperry Pi. Para obtener más información sobre Greengrass ML Inference, consulte aquí.

AWS Greengrass ML Inference está disponible en las regiones de EE.UU. Este (Norte de Virginia) y EE.UU. Oeste (Oregón).

  • Infórmese aquí sobre cómo Yanmar usa Greengrass ML para lograr una agricultura de precisión.
  • Aquí encontrará una introducción a AWS Greengrass.