Publié le: Nov 29, 2017

AWS Greengrass Machine Learning (ML) Inference facilite l'exécution locale de l'inférence ML sur les appareils AWS Greengrass à l'aide de modèles créés et formés dans le cloud.  Jusqu'à maintenant, la création et la formation de modèles ML, ainsi que l'exécution de l'inférence ML, avaient lieu presque exclusivement dans le cloud.  La formation de modèles ML nécessite des ressources de calcul massives, de sorte qu'elle convient naturellement au cloud.  AWS Greengrass ML Inference permet à vos appareils AWS Greengrass de prendre rapidement des décisions intelligentes, puisque les données continuent d'être générées, même en cas de déconnexion.

Cette fonction simplifie chaque étape du déploiement de ML, notamment l'accès aux modèles ML, le déploiement des modèles sur des appareils, le développement et le déploiement d'infrastructures ML, la création d'applications d'inférence et l'utilisation sur des accélérateurs d'appareils tels que les GPU et les FPGA.  Par exemple, vous pouvez accéder à un modèle d'apprentissage profond développé et formé dans Amazon SageMaker directement depuis la console AWS Greengrass, puis le télécharger sur votre appareil dans un groupe AWS Greengrass.  AWS Greengrass ML Inference comprend une infrastructure Apache MXNet préconstruite, à installer sur les appareils AWS Greengrass pour éviter d'avoir à la créer de toutes pièces.  Le package Apache MXNet préconstruit pour les appareils NVIDIA Jetson, Intel Apollo Lake et Raspberry Pi peut être directement téléchargé depuis le cloud ou intégré au logiciel dans votre groupe AWS Greengrass.

AWS Greengrass ML Inference comprend également des modèles préconstruits AWS Lambda que vous pouvez utiliser pour créer rapidement une application d'inférence.  Le plan Lambda fourni indique les tâches les plus couramment utilisées, telles que les modèles de chargement, l'importation d'Apache MXNet ou la mise en œuvre d'actions d'après des prédictions.

Dans nombre d'applications, votre modèle ML fonctionne mieux si vous exploitez pleinement toutes les ressources matérielles disponibles sur l'appareil. Or, AWS Greengrass ML Inference s'avère très utile à cet égard. Pour laisser votre application accéder aux ressources matérielles de votre appareil, vous déclarez celles-ci en tant que ressource locale dans votre groupe AWS Greengrass sur la console AWS Greengrass.

Pour utiliser ces fonctions, inscrivez-vous à la version préliminaire.