Veröffentlicht am: Apr 4, 2018

Auf der re:Invent 2017 haben wir AWS Greengrass ML Inference vorgestellt, eine neue Funktion von AWS Greengrass, die es Ihnen ermöglicht, maschinelle Lerninterferenzen auf IoT-Edge-Geräten auch ohne Cloud-Konnektivität auszuführen. Heute freuen wir uns, die allgemeine Verfügbarkeit von AWS Greengrass ML Inference bekanntgeben zu dürfen. Seit der Einführung unserer Vorversion auf der re:Invent haben wir Funktionserweiterungen hinzugefügt, um Ihre Erfahrung bei der Verwendung von AWS Greengrass ML Inference zu verbessern. Wir haben es Ihnen einfacher gemacht, Machine Learning-Modelle auf Ihren IoT-Geräten bereitzustellen und auszuführen. Zusätzlich zu Apache MXNet enthält AWS Greengrass ML Inference jetzt ein vorgefertigtes TensorFlow-Paket, sodass Sie das ML-Framework für Ihr Gerät nicht von Grund auf neu erstellen oder konfigurieren müssen. Diese ML-Pakete unterstützen die Geräte von Intel Atom, NVIDIA Jetson TX2 und Rasperry Pi. Weitere Informationen zu Greengrass ML Inference finden Sie hier.

AWS Greengrass ML Inference ist in den Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar.

  • Lesen Sie hier, wie Yanmar Greengrass ML für die Präzisionslandwirtschaft verwendet.
  • Erfahren Sie mehr zu den ersten Schritten mit AWS Greengrass hier.