Publié le: Apr 4, 2018

Chez re: Invent 2017, nous avons présenté un aperçu de l'AWS Greengrass ML Inference, une nouvelle fonctionnalité d'AWS Greengrass qui vous permet d'exécuter une inférence d'apprentissage machine sur des périphériques IoT, même sans connectivité cloud. Aujourd'hui, nous sommes ravis d'annoncer la disponibilité générale d'AWS Greengrass ML Inference. Depuis que nous avons lancé notre aperçu sur re: Invent, nous avons ajouté des améliorations de fonctionnalités pour améliorer votre expérience lors de l'utilisation de AWS Greengrass ML Inference. Nous vous avons facilité le déploiement et l'exécution de modèles d'apprentissage automatique sur vos appareils IoT. En plus d'Apache MXNet, AWS Greengrass ML Inference inclut désormais un package TensorFlow préconstruit, de sorte que vous n'avez pas besoin de créer ou de configurer la structure ML pour votre périphérique à partir de zéro. Ces packages ML prennent en charge les périphériques Intel Atom, NVIDIA Jetson TX2 et Rasperry Pi. Pour plus d'informations sur Greengrass ML Inference, s'il vous plaît visitez cette page.

AWS Greengrass ML Inference est disponible dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon).

  • Lisez comment Yanmar utilise Greengrass ML pour l'agriculture de précision ici.
  • Démarrez avec AWS Greengrass ici.