Veröffentlicht am: Nov 29, 2017

AWS Greengrass Machine Learning (ML) Inference erleichtert die lokale Ausführung von ML-Inferenzen auf AWS Greengrass-Geräten mit Modellen, die in der Cloud generiert und optimiert werden.  Bisher erfolgte das Erstellen und Trainieren von ML-Modellen sowie das Ausführen von ML-Inferenzen nahezu ausschließlich in der Cloud.  Das Schulen von ML-Modellen erfordert umfangreiche Datenverarbeitungsressourcen, sodass dieser Prozess naturgemäß am besten in der Cloud durchgeführt wird.  Mit AWS Greengrass ML Inference können Ihre AWS Greengrass-Geräte während der Generierung von Daten schnell intelligente Entscheidung treffen, selbst wenn keine Verbindung besteht.

Die Funktionalität vereinfacht die einzelnen Schritte bei der Bereitstellung von ML. Dazu zählen der Zugriff auf ML-Modelle, das Bereitstellen von Modellen für Geräte, das Erstellen und zur Verfügung stellen von ML-Frameworks, das Generieren von Inferenz-Apps und das Einsetzen von Accelerators wie GPUs und FPGAs.  So können Sie beispielsweise direkt über die AWS Greengrass-Konsole auf ein Deep Learning-Modell zugreifen, das in Amazon SageMaker generiert und geschult wurde, und dieses anschließend als Teil einer AWS Greengrass-Gruppe auf Ihr Gerät herunterladen.  AWS Greengrass ML Inference enthält ein vorkonfiguriertes Apache MXNet-Framework zur Installation auf AWS Greengrass-Geräten, sodass dieser Arbeitsschritt für Sie entfällt.  Das vorkonfigurierte Apache MXNet-Paket für NVIDIA Jetson-, Intel Apollo Lake- und Raspberry Pi-Geräte kann direkt aus der Cloud heruntergeladen oder als Teil der Software in Ihre AWS Greengrass-Gruppe eingeschlossen werden.

AWS Greengrass ML Inference enthält zudem vorkonfigurierte AWS Lambda-Vorlagen, mit denen Sie schnell eine Inferenz-App erstellen können.  Die bereitgestellte Lambda-Vorlage zeigt Ihnen allgemeine Aufgaben wie das Laden von Modellen, das Importieren von Apache MXNet und das Durchführen von Aktionen basierend auf Voraussagen auf.

Die Verwendung Ihres ML-Modells kann in vielen Anwendungen optimiert werden, wenn Sie alle auf dem Gerät verfügbaren Hardwareressourcen nutzen. AWS Greengrass ML Inference unterstützt Sie dabei. Damit Ihre Anwendung auf die Hardwareressourcen Ihres Geräts zugreifen kann, müssen Sie diese über die AWS Greengrass-Konsole als lokale Ressourcen in Ihrer AWS Greengrass-Gruppe deklarieren.

Registrieren Sie sich für die Vorversion, wenn Sie diese Funktionen nutzen möchten.