Publié le: Nov 28, 2018

AWS IoT Greengrass prend désormais en charge Amazon SageMaker Neo. Neo permet aux modèles de machine learning de s’entraîner une seule fois et de fonctionner n’importe où dans le cloud et à la périphérie. Neo optimise automatiquement les modèles TensorFlow, MXNet, PyTorch, ONNX et XGBoost pour le déploiement sur les processeurs ARM, Intel et Nvidia. Les modèles optimisés fonctionnent deux fois plus vite et utilisent moins d'un dixième de l'encombrement de la mémoire. Neo sera bientôt disponible sous forme de code source libre sous la licence logicielle Apache, ce qui permettra aux fournisseurs de matériel de le personnaliser pour leurs processeurs et leurs périphériques. À l'aide de Neo avec AWS IoT Greengrass, vous pouvez reformer ces modèles dans Amazon SageMaker et mettre à jour rapidement les modèles optimisés pour améliorer l'intelligence de ces périphériques. Vous pouvez utiliser une large gamme de périphériques basés sur les plates-formes Nvidia Jetson TX2, Arm v7 (Raspberry Pi) ou Intel Atom.  

En outre, AWS IoT Greengrass fournit également de nouveaux connecteurs pour la classification d’image formés à l’aide de l’algorithme de classification d’image d’Amazon SageMaker. Ces connecteurs regroupent tous les dépendances de code AWS Lambda et ML requises pour l'inférence Image Classification sur un périphérique tel qu'une caméra. Un connecteur est disponible pour chacune des plates-formes matérielles prises en charge : Nvidia Jetson TX2, Arm v7 (Raspberry Pi) et Intel Atom.

Pour vous familiariser avec ces améliorations apportées à AWS IoT Greengrass ML Inference, visitez la page service.