AWS Greengrass ML Inference

Exécutez des modèles d'apprentissage machine sur des appareils AWS Greengrass

AWS Greengrass est un logiciel qui vous permet d'exécuter en toute sécurité des capacités locales de calcul, de messagerie, de mise en cache des données et de synchronisation pour les appareils connectés. Avec AWS Greengrass, les appareils connectés peuvent exécuter des fonctions AWS Lambda, assurer la synchronisation des données des appareils et communiquer en toute sécurité avec d'autres appareils, même en l'absence de connexion Internet. Désormais, grâce à la capacité d'inférence d'apprentissage machine Greengras, vous pouvez facilement exécuter l'inférence d'apprentissage machine localement sur des appareils connectés.

L'apprentissage machine utilise de puissants algorithmes pour découvrir des schémas dans les données et créer des modèles mathématiques complexes à partir de ces schémas. Une fois le modèle créé, vous exécutez des inférences en appliquant de nouvelles données au modèle formé afin de réaliser des prédictions pour votre application. La création et la formation de modèles d'apprentissage machine nécessitent des ressources de calcul massives, de sorte qu'elles conviennent naturellement au cloud. Cependant, l'inférence nécessite une puissance de calcul nettement inférieure et est généralement effectuée en temps réel, lorsque de nouvelles données sont disponibles. Par conséquent, il est important d'obtenir des résultats d'inférence avec une très faible latence pour s'assurer que les applications peuvent réagir rapidement aux événements locaux.  

AWS Greengrass ML Inference réunit tous ces avantages. Cette fonction vous permet d'utiliser des modèles d'apprentissage machine créés et formés dans le cloud et de déployer et d'exécuter l'inférence d'apprentissage machine localement sur des appareils connectés. Par exemple, vous pouvez créer un modèle prédictif dans le cloud concernant les têtes de diamant d'un équipement de forage, puis l'exécuter sous terre, là où aucune connectivité cloud n'est disponible pour prédire l'usure et l'utilisation du diamant.

Avantages

Exécution facile de l'inférence d'apprentissage machine sur des appareils connectés

L'exécution locale de l'inférence sur des appareils connectés permet de réduire la latence et le coût de l'envoi des données de l'appareil dans le cloud pour réaliser des prédictions. Plutôt que d'envoyer toutes les données dans le cloud pour l'inférence d'apprentissage machine, cette dernière est exécutée directement au niveau des appareils, et les données sont uniquement envoyées dans le cloud quand un traitement supplémentaire est nécessaire. Par exemple, vous pouvez utiliser AWS Greengrass ML Inference pour exécuter des modèles de détection vocale sur des systèmes audio intelligents afin que ceux-ci puissent répondre à des commandes comme baisser ou monter le volume et allumer ou éteindre un appareil. De plus, pour répondre, ils n'ont pas besoin d'envoyer d'importants volumes de données vocales dans le cloud. Le système audio peut envoyer des données dans le cloud uniquement lorsqu'une action supplémentaire est nécessaire comme ordonner la lecture d'une nouvelle chanson.

Flexibilité

Vous pouvez choisir un modèle d'apprentissage machine pour chacun de vos appareils connectés, créé et formé à l'aide du service Amazon SageMaker ou stocké dans Amazon EC2. AWS Greengrass ML Inference est compatible avec Apache MXNet, TensorFlow, Caffe2 et CNTK. Pour les appareils NVIDIA Jetson, Intel Apollo Lake et Raspberry Pi, AWS Greengrass ML Inference inclut un package Apache MXNet préintégré pour vous éviter d'avoir à créer ou à configurer le framework d'apprentissage machine pour votre appareil à partir de zéro. Nous proposerons également un package préintégré pour TensorFlow prochainement.

Transfert de modèles vers des appareils connectés en quelques clics

AWS Greengrass ML Inference vous permet de transférer facilement votre modèle d'apprentissage machine du cloud vers vos appareils en quelques clics dans la console Greengrass. Dans la console Greengrass, vous pouvez sélectionner le modèle d'apprentissage machine de votre choix ainsi que le code AWS Lambda. Le modèle est ensuite déployé et exécuté sur les appareils connectés.

Accélération des performances en matière d'inférence avec les GPU

AWS Greengrass ML Inference vous donne accès à des accélérateurs de matériel, tels que des GPU, sur vos appareils, en incluant l'appareil accélérateur en tant que ressource locale Greengrass dans la console Greengrass.

Fonctionnement

AWS Greengrass ML Inference – Fonctionnement

Cas d'utilisation

Traitement vidéo

AWS Greengrass ML Inference peut être déployé sur des appareils connectés tels que des caméras de sécurité, des caméras de surveillance du trafic, des caméras corporelles et des équipements d'imagerie médicale pour aider ces derniers à réaliser des prédictions localement. Avec AWS Greengrass ML Inference, vous pouvez déployer et exécuter des modèles d'apprentissage machine pour différentes applications (reconnaissance des visages, détection d'objets, densité d'image, etc.) directement sur l'appareil. Par exemple, une caméra de surveillance du trafic pourrait compter les cyclistes, les automobilistes et les piétons à une intersection et détecter quand les feux de signalisation doivent être ajustés pour optimiser la circulation et garantir la sécurité des personnes.

Vente au détail et hôtellerie

Les détaillants, les croisiéristes et les parcs d'attractions investissent dans des applications IoT afin d'assurer un meilleur service client. Par exemple, il est possible d'exécuter des modèles de reconnaissance des visages sur les caméras d'un magasin pour identifier les clients VIP et leur offrir un traitement de première classe, en leur permettant d'éviter les files d'attente à la caisse, en les accueillant par leur nom à l'entrée et en leur accordant des remises spéciales. Les caméras repèrent les clients et avertissent le personnel du service client sans envoyer d'importantes quantités de données vidéo dans le cloud, ce qui pose souvent problème dans les grands magasins où la connectivité au cloud est médiocre.

Sécurité

Les appareils connectés sont des cibles de choix pour les pirates informatiques. Pour lutter contre cette menace, vous pouvez créer un modèle comportemental qui prédit de quelle manière un appareil doit agir. Vous pouvez ensuite utiliser AWS Greengrass ML Inference pour exécuter et déployer le modèle directement sur l'appareil afin de détecter tout comportement anormal qui pourrait indiquer une attaque. En cas de détection d'un comportement anormal, l'appareil peut envoyer les données nécessaires à AWS en vue d'un traitement et d'une action ultérieurs comme l'application d'un correctif de sécurité.

Démarrer avec AWS

icon1

Créer un compte AWS

Obtenez un accès instantané au Niveau gratuit d'AWS.
icon2

Découvrir avec des didacticiels de 10 minutes

Explorez et apprenez avec des didacticiels simples.
icon3

Commencer à créer avec AWS

Commencez à créer avec des guides pas à pas pour vous aider à lancer votre projet AWS.

Apprenez-en davantage sur AWS Greengrass ML Inference en vous inscrivant à la version préliminaire

S'inscrire à la version préliminaire
Prêt à vous lancer ?
S'inscrire
D'autres questions ?
Contactez-nous