Questions d'ordre général

Q : Qu'est-ce qu'AWS DeepLens ?

AWS DeepLens est la première caméra vidéo avec apprentissage profond au monde, pour les développeurs de tous niveaux. Elle leurs permet de développer les compétences d'apprentissage machine, grâce à des didacticiels visuels par ordinateur pratiques, des exemples de code et des modèles préconstruits.

Q : En quoi AWS DeepLens est-elle différente des autres caméras vidéo disponibles sur le marché ?

AWS DeepLens est la première caméra vidéo au monde optimisée pour exécuter des modèles d'apprentissage machine et effectuer des interférences sur le périphérique. Au lancement, elle s'accompagne de 6 exemples de projets que vous pouvez déployer sur votre AWS DeepLens en moins de 10 minutes. Vous pouvez exécuter les exemples de projets en l'état, les connecter à d'autres services AWS, former un modèle dans Amazon Sagemaker et le déployer dans AWS DeepLens ou étendre la fonctionnalité en déclenchant une fonction lambda lorsqu'une action se produit. Vous pouvez même appliquer des analyses plus avancées dans le cloud à l'aide de Amazon Kinesis Video Streams et de Amazon Rekognition video. AWS DeepLens fournit des blocs modulaires pour répondre à vos besoins vis-à-vis de l'apprentissage machine.

Q : Quels exemples de projets sont disponibles au lancement ?

6 modèles de projet sont disponibles au lancement. Nous continuerons à lancer des projets pratiques et amusants que les développeurs pourront utiliser et apprendre, en fonction des feedbacks des utilisateurs. Voici les 6 exemples de projets :

1. Détection d'objet
2. Hot dog ou pas de hot dog ?
3. Chien et chat
5. Détection d'activité
6. Détection des visages


Q : Dans quelles régions est disponible AWS DeepLens ?

Actuellement, AWS DeepLens est uniquement disponible aux États-Unis.


Q : Le service AWS DeepLens inclut-il Alexa ?

Non, AWS DeepLens n'est pas doté d'Alexa ou d'autres fonctionnalités audio à champ éloigné. Toutefois, AWS DeepLens est doté d'un réseau de microphone 2D, capable d'exécuter des modèles audio personnalisés, avec la programmation supplémentaire requise.


Q : Comment me procurer une caméra AWS DeepLens ?

Actuellement, AWS DeepLens est proposé à un groupe restreint de participants aux sessions AI/ML lors de l'événement AWS re:Invent 2017, et est disponible en pré-commande sur : Amazon.com

 

Description détaillée du produit

Q : Quelles sont les caractéristiques techniques du périphérique ?

  • Processeur Intel Atom®
  • Architecture graphique Gen9
  • Ubuntu OS 16.04 LTS
  • Performance 106 GFLOPS
  • WiFi Dual Band
  • 8 Go de RAM
  • 16 Go de mémoire
  • Capacités de stockage extensibles avec carte microSD
  • Caméra 4 MP avec MJPEG
  • encodage H.264 à une résolution de 1080p
  • 2 ports USB
  • Micro HDMI
  • Sortie audio

Q : Quels frameworks d'apprentissage profond puis-je exécuter sur le périphérique ?

AWS DeepLens est optimisé pour Apache MXNet. TensorFlow et Caffe seront bientôt pris en charge.


Q : Quelles sont les performances proposées par AWS DeepLens ?

Les performances sont mesurées sur les images inférées par seconde et la latence. Le taux d'inférence par seconde varie en fonction des modèles. Le taux d'inférence de référence est de 14 images/s sur AlexNet et de 5 images/s sur ResNet 50 pour des lots de 1. Les caractéristiques du réseau auquel la DeepLens est connectée déterminent les performances de latence.


Q : Quelles sont les couches d'architecture réseau MXNet prises en charge par AWS DeepLens ?

AWS DeepLens prend en charge 20 couches d'architecture réseau différentes. Voici les couches prises en charge :

  • Activation
  • BatchNorm
  • Concat
  • Convolution
  • elemwise_add
  • Pooling
  • Flatten
  • FullyConnected
  • InputLayer
  • UpSampling
  • Reshape
  • ScaleShift
  • SoftmaxActivation
  • SoftmaxOutput
  • transpose
  • _contrib_MultiBoxPrior
  • _contrib_MultiBoxDetection
  • _Plus
  • Deconvolution
  • _mul

Mise en route

Q : Que contient la boîte et comment bien démarrer ?

La boîte contient un guide de démarrage, le périphérique AWS DeepLens, une source d'alimentation et une carte microSD de 32 Go. L'installation et la configuration du périphérique DeepLens ne prennent que quelques minutes à l'aide de la console AWS DeepLens et en configurant le périphérique via un navigateur, sur votre ordinateur portable ou fixe.


Q : Puis-je former mes modèles sur le périphérique ?

Non, AWS DeepLens peut exécuter des inférences ou des prédictions avec des modèles formés. Vous pouvez former vos modèles dans Amazon SageMaker, une plateforme d'apprentissage machine qui permet de former et héberger vos modèles. AWS DeepLens propose une fonction de déploiement simple en 1 clic pour publier des modèles formés depuis Amazon SageMaker.


Q : Quels services AWS sont intégrés à AWS DeepLens ?

DeppLens est préconfiguré pour l'intégration avec AWS Greengrass, Amazon SageMaker et les flux vidéo Amazon Kinesis. Vous pouvez intégrer AWS DeepLens à de nombreux autres services AWS, comme Amazon S3, Amazon Lambda, Amazon Dynamo, Amazon Rekognition.


Q : Puis-je me connecter à AWS DeepLens via un protocole SSH ?

Oui. Nous avons conçu AWS DeepLens de manière à garantir une utilisation facile, tout en étant accessible pour les développeurs expérimentés. Vous pouvez vous connecter au périphérique via un protocole SSH à l'aide de la commande : ssh aws_cam

 

Q : Quels langages de programmation sont pris en charge par AWS DeepLens ?

Vous pouvez définir et exécuter des modèles localement sur le flux de données de la caméra dans le langage Python 2.7.

Q : Dois-je être connecté à Internet pour exécuter des modèles ?

Non. Vous pouvez exécuter les modèles que vous avez déployés dans AWS DeepLens sans être connecté à Internet. Toutefois, vous avez initialement besoin d'Internet pour déployer le modèle depuis le cloud, sur le périphérique. Après avoir transféré votre modèle, AWS DeepLens peut effectuer localement l'inférence sur le périphérique, sans être connecté au cloud. Cependant, si votre projet contient des composants qui nécessitent des interactions avec le cloud, vous devez être connecté à Internet pour ces composants.

Q : Puis-je exécuter mes propres modèles personnalisés sur AWS DeepLens ?

Oui. Vous pouvez également créer votre propre projet depuis le début grâce à la plateforme AWS SageManager pour préparer les données et former un modèle à l'aide d'un notebook hébergé, puis publier le modèle formé sur votre AWS DeepLens, afin de le tester et de le peaufiner. Vous pouvez aussi importer un modèle formé en externe dans AWS DeepLens en précisant l'emplacement de S3 pour les fichiers de poids du réseau et de l'architecture du modèle.