Veröffentlicht am: Nov 28, 2018
AWS IoT Greengrass unterstützt ab sofort Amazon SageMaker Neo. Mit Neo können Machine Learning-Modelle einmal trainiert und überall in der Cloud sowie an Edge-Standorten ausgeführt werden. Neo optimiert automatisch TensorFlow-, MXNet-, PyTorch-, ONNX- und XGBoost-Modelle für den Einsatz auf ARM-, Intel- und Nvidia-Prozessoren. Optimierte Modelle laufen bis zu doppelt so schnell und verbrauchen weniger als ein Zehntel des Speicherbedarfs. Neo wird in Kürze auch als Open-Source-Code unter der Apache Softwarelizenz erhältlich sein, so dass Hardware-Anbieter es für ihre Prozessoren und Geräte anpassen können. Wenn Sie Neo mit AWS IoT Greengrass verwenden, können Sie diese Modelle in Amazon SageMaker nachträglich trainieren und die optimierten Modelle schnell aktualisieren, um die Intelligenz auf diesen Edge-Geräten zu verbessern. Sie können eine breite Palette von Geräten verwenden, die auf den Plattformen Nvidia Jetson TX2, Arm v7 (Raspberry Pi) oder Intel Atom basieren.
Darüber hinaus bietet AWS IoT Greengrass auch neue Konnektoren für die Bildklassifizierung, die mit dem Bildklassifizierungsalgorithmus von Amazon SageMaker trainiert werden. Diese Konnektoren enthalten den erforderlichen AWS Lambda-Code und ML-Abhängigkeiten, die für die Bildklassifizierungsinferenz auf einem Gerät wie einer Kamera erforderlich sind. Für jede der unterstützten Hardwareplattformen ist ein Konnektor verfügbar: Nvidia Jetson TX2, Arm v7 (Raspberry Pi) und Intel Atom.
Um mit diesen Verbesserungen an AWS IoT Greengrass ML Inference zu beginnen, besuchen Sie die Serviceseite.