À compter du 31 janvier 2024, vous ne pourrez plus accéder à AWS DeepLens par le biais de la console de gestion AWS, gérer les appareils AWS DeepLens ni accéder à tous les projets que vous avez créés. Pour exporter vos projets et en savoir plus, consultez ce guide étape par étape.
Questions fréquentes (FAQ)
Fin de vie
Q : Qu'arrivera-t-il à mes ressources AWS DeepLens après la date de fin de vie (EOL) ?
Après le 31 janvier 2024, toutes les références aux modèles, aux projets et aux informations des appareils AWS DeepLens seront supprimées du service AWS DeepLens. Vous ne pourrez plus découvrir le service AWS DeepLens ni y accéder depuis votre console AWS et les applications qui appellent l'API AWS DeepLens ne fonctionneront plus.
Q : Les ressources AWS DeepLens qui resteront dans mon compte me seront-elles facturées après la date EOL ?
Les ressources créées par AWS DeepLens, comme les compartiments Amazon S3, les fonctions AWS Lambda et AWS IoT Things, et les rôles de gestion des identités et des accès AWS (IAM) continueront d'exister sur leurs services respectifs après le 31 janvier 2024. Afin que le service AWS DeepLens ne vous soit pas facturé une fois qu'il ne sera plus pris en charge, suivez ces étapes pour supprimer ces ressources.
Q : Comment supprimer mes ressources AWS DeepLens ?
Pour supprimer les ressources utilisées par AWS DeepLens et apprendre à restaurer les paramètres d'usine de votre appareil AWS DeepLens, reportez-vous à la page Delete your AWS DeepLens device resources (Supprimer les ressources de votre appareil AWS DeepLens).
Q : Pourrai-je déployer mes projets AWS DeepLens après la date de fin de vie (EOL) ?
Vous pouvez déployer vos projets AWS DeepLens jusqu'au 31 janvier 2024. Après cette date, vous n'aurez plus accès à la console ni à l'API AWS DeepLens et toutes les applications qui appellent l'API AWS DeepLens ne fonctionneront plus.
Q: Mon appareil AWS DeepLens continuera-t-il de recevoir les mises à jour de sécurité ?
Le service AWS DeepLens ne sera plus mis à jour après le 31 janvier 2024. Bien que quelques applications déployées sur les appareils AWS DeepLens puissent fonctionner après la date EOL, AWS ne fournira aucune solution de dépannage en cas de problème et ne sera responsable d'aucune anomalie survenant du logiciel ou du matériel AWS DeepLens.
Q : Comment continuer de me familiariser avec AWS AI/ML ?
Nous vous recommandons d'essayer nos autres outils pratiques de machine learning. Avec AWS DeepRacer, utilisez un simulateur de course 3D pour créer des modèles d'apprentissage par renforcement pour une voiture de course autonome à l'échelle 1/18e. Apprenez et expérimentez à l'aide d'un environnement de développement gratuit et sans configuration grâce à Amazon SageMaker Studio Lab. Automatisez votre analyse d'images et de vidéos avec Amazon Rekognition ou utilisez AWS Panorama pour améliorer vos opérations avec la vision par ordinateurs à la périphérie.
Q : Que dois-je faire de mon appareil AWS DeepLens ?
Nous vous encourageons à recycler votre appareil AWS DeepLens en passant par le programme de recyclage d'Amazon. Amazon couvre les coûts d'expédition et de recyclage.
Généralités
Q : Qu'est-ce qu'AWS DeepLens ?
AWS DeepLens est la première caméra vidéo de deep learning au monde dédiée aux développeurs de tous niveaux. Elle leur permet de développer leurs compétences en machine learning à l'aide didacticiels pratiques de vision par ordinateur, d'exemples de codes et de modèles prédéfinis.
Q : En quoi AWS DeepLens est-elle différente des autres caméras vidéo disponibles sur le marché ?
AWS DeepLens est la première caméra vidéo au monde optimisée pour exécuter des modèles de machine learning et effectuer des inférences sur l'appareil. Au lancement, elle s'accompagne de 6 exemples de projets que vous pouvez déployer sur votre AWS DeepLens en moins de 10 minutes. Vous pouvez exécuter les exemples de projets tels quels, les connecter à d'autres services AWS, former un modèle dans Amazon Sagemaker et le déployer dans AWS DeepLens, ou étendre la fonctionnalité en déclenchant une fonction lambda lorsqu'une action est effectuée. Vous pouvez également appliquer une analyse plus avancée sur le cloud à l'aide d'Amazon Rekognition. AWS DeepLens fournit les éléments de base qui répondent à vos besoins en machine learning.
Q : Quels exemples de projets sont disponibles ?
7 exemples de projets sont disponibles :
1. Détection d'objets
2. Hot Dog ou pas Hot Dog
3. Chien et chat
4. Transfert de style artistique
5. Détection d'activité
6. Détection des visages
7. Classification des oiseaux
Q : La fonctionnalité Alexa est-elle incluse avec AWS DeepLens ?
Non, AWS DeepLens n'est pas doté d'Alexa ou d'autres fonctionnalités audio à champ éloigné. Toutefois, AWS DeepLens est doté d'un réseau de microphones 2D capable d'exécuter des modèles audio personnalisés, avec la programmation supplémentaire requise.
Informations sur le produit
Q : Quelles sont les caractéristiques techniques de l'appareil ?
- Processeur Intel Atom®
- Architecture graphique Gen9
- Ubuntu OS 16.04 LTS
- Performance de 100 GFLOPS
- WiFi deux bandes
- 8 Go de RAM
- 16 Go de stockage
- Capacités de stockage extensibles avec carte microSD
- Caméra 4 MP avec MJPEG
- Encodage H.264 à une résolution de 1080p
- 2 ports USB
- Micro HDMI
- Sortie audio
Q : Pourquoi la mention « v1.1 » figure-t-elle sur le fond de l'appareil ?
La mention « v1.1 » figure sur le fond de l'appareil AWS DeepLens (2019 Edition). Nous avons apporté d'importantes améliorations à l'expérience utilisateur, notamment en ce qui concerne l'intégration, les didacticiels et la compatibilité supplémentaire des capteurs, tels que le capteur de profondeur d'Intel Real Sense.
La première AWS DeepLens ne peut pas être mise à niveau vers la version 1.1 via des mises à jour logicielles. Certaines des modifications apportées à l’appareil, notamment l’intégration simplifiée, étaient des modifications matérielles.
Q : Quels frameworks de deep learning peut-on exécuter sur l'appareil ?
AWS DeepLens (2019 Edition) est optimisée pour Apache MXNet, TensorFlow et Caffe.
Q : Quelles sont les performances proposées par AWS DeepLens ?
Les performances sont mesurées sur les images inférées par seconde et la latence. Le taux d'inférence par seconde varie en fonction des modèles. Le taux d'inférence de référence est de 14 images/seconde sur AlexNet et de 5 images/seconde sur ResNet 50 pour des lots de 1. Les caractéristiques du réseau auquel l'appareil DeepLens est connecté détermineront les performances de latence.
Q : Quelles sont les couches d'architecture réseau MXNet prises en charge par AWS DeepLens ?
AWS DeepLens prend en charge 20 couches d'architecture réseau différentes. Les couches d'architecture réseau prises en charge sont les suivantes :
- Activation
- BatchNorm
- Concat
- Convolution
- elemwise_add
- Pooling
- Flatten
- FullyConnected
- InputLayer
- UpSampling
- Reshape
- ScaleShift
- SoftmaxActivation
- SoftmaxOutput
- transpose
- _contrib_MultiBoxPrior
- _contrib_MultiBoxDetection
- _Plus
- Deconvolution
- _mul
Démarrez
Q : Que contient la boîte, et comment démarrer ?
Dans la boîte, les développeurs trouveront un guide de démarrage, l'appareil AWS DeepLens, un adaptateur et un cordon d'alimentation correspondant à la région, un câble USB et une carte microSD de 32 Go. L'installation et la configuration du périphérique DeepLens peuvent être effectuées en quelques minutes à l'aide de la console AWS DeepLens et en configurant le périphérique via un navigateur sur votre ordinateur portable ou votre PC.
Il y a trois didacticiels de 10 minutes conçus pour vous aider à bien démarrer :
1. Créer et déployer un projet
2. Étendre un projet
3. Créer un projet AWS DeepLens avec Amazon SageMaker
Q : Pourquoi un port USB est-il marqué comme enregistrement ?
Sur AWS DeepLens (édition 2019), le port USB marqué comme enregistrement sera utilisé lors du processus d'intégration pour enregistrer votre AWS DeepLens dans votre compte AWS.
Le port USB d'enregistrement est configuré en tant que port esclave. Par conséquent, il ne peut pas être utilisé pour la configuration d'un clavier ou d'un autre port principal. Si vous avez besoin de plus de ports pour vous connecter, il est recommandé d’utiliser un concentrateur USB.
Q : Est-il possible de former mes modèles sur l'appareil ?
Non, AWS DeepLens peut exécuter des inférences ou des prédictions avec des modèles formés. Vous pouvez former vos modèles dans Amazon SageMaker, une plateforme de machine learning qui permet de former et d'héberger vos modèles. AWS DeepLens propose une fonction de déploiement simple en 1 clic pour publier des modèles formés depuis Amazon SageMaker.
Q : Quels services AWS sont intégrés à AWS DeepLens ?
DeepLens est pré-configuré pour l'intégration avec AWS Greengrass, Amazon SageMaker et les flux vidéo Amazon Kinesis. Vous pouvez intégrer AWS DeepLens à de nombreux autres services AWS, comme Amazon S3, Amazon Lambda, Amazon Dynamo, Amazon Rekognition.
Q : Est-il possible de se connecter à AWS DeepLens via un protocole SSH ?
Oui. Nous avons conçu AWS DeepLens de manière à garantir une utilisation facile, tout en étant accessible pour les développeurs expérimentés. Vous pouvez vous connecter à l'appareil via un protocole SSH à l'aide de la commande ssh aws_cam@.
Q : Quels langages de programmation l'appareil AWS DeepLens prend-il en charge ?
Vous pouvez définir et exécuter des modèles localement sur le flux de données de la caméra dans le langage Python 2.7.
Q : Est-il nécessaire d'être connecté à Internet pour pouvoir exécuter des modèles ?
Non. Vous pouvez exécuter les modèles que vous avez déployés dans AWS DeepLens sans être connecté à Internet. Toutefois, vous avez initialement besoin d'Internet pour déployer le modèle du cloud vers l'appareil. Après avoir transféré votre modèle, AWS DeepLens peut effectuer localement l'inférence sur le périphérique sans être connecté au cloud. Cependant, si votre projet contient des composants qui nécessitent des interactions avec le cloud, vous devez être connecté à Internet pour ces composants.
Q : Ai-je la possibilité d'exécuter mes propres modèles personnalisés sur AWS DeepLens ?
Oui. Vous pouvez également créer votre propre projet depuis le début en utilisant la plateforme AWS SageMaker pour préparer les données et former un modèle à l'aide d'un notebook hébergé, puis publier le modèle formé sur votre AWS DeepLens, afin de le tester et de le peaufiner. Vous pouvez aussi importer un modèle formé en externe dans AWS DeepLens en précisant l'emplacement S3 des fichiers de poids du réseau et de l'architecture du modèle.