Allgemeines

F: Was ist AWS DeepLens?

AWS DeepLens ist die weltweit erste für Deep Learning aktivierte Videokamera für Entwickler auf jedem Qualifikationsniveau zur Erweiterung ihrer Kenntnisse im Bereich des maschinellen Lernens durch praktische visuelle Computer-Tutorials, Beispielcode und zuvor erstellte Modelle.

F: Was ist AWS DeepLens (2019 Edition)?

AWS DeepLens (2019 Edition) ist für Kunden in den USA, im Vereinigten Königreich, in Deutschland, Frankreich, Spanien, Italien, Japan und Kanada erhältlich. Wir haben die gesamte Nutzererfahrung verbessert: Geräte lassen sich jetzt leichter einrichten, sodass Entwickler die Funktionen des maschinellen Lernens noch schneller nutzen können. Dank der Optimierung mit SageMaker Neo können viele ML-Modelle jetzt doppelt so schnell auf dem Gerät ausgeführt werden.

Neben den Geräteverbesserungen stehen allen Konsolen-Nutzern neue Lerninhalte zur Verfügung, um den Einstieg ins maschinelle Lernen mit AWS DeepLens zu erleichtern. Dies beinhaltet Anleitungen zum Erstellen von ML-Anwendungen für interessante Anwendungsfälle wie die Überwachung der Mitarbeitersicherheit, Stimmungsanalysen und die Erfassung des Kaffeekonsums im Büro.

F: Inwieweit unterscheidet sich AWS DeepLens von anderen Videokameras auf dem Markt?

AWS DeepLens ist die erste Videokamera weltweit, die für die Ausführung von maschinellen Lernmodellen optimiert ist und Inferenzen auf dem Gerät durchführen kann. Sie wird beim Starten mit 6 Beispielprojekten geliefert, die Sie in weniger als 10 Minuten auf Ihrer AWS DeepLens einsetzen können. Sie können die Beispielprojekte im vorliegenden Zustand ausführen, mit anderen AWS-Services verbinden, ein Modell in Amazon Sagemaker schulen und auf AWS DeepLens einsetzen, oder die Funktionalität durch Auslösen einer Lambda-Funktion erweitern, wenn eine Aktion ausgeführt wird. Mit Amazon Rekognition können Sie außerdem eine erweiterte Analyse in der Cloud durchführen. AWS DeepLens bietet die Bausteine für Ihre Anforderungen an maschinelles Lernen.

F: Welche Beispielprojekte sind verfügbar?

Es stehen 7 Beispielprojekte zur Verfügung. Wir starten weitere praktische und unterhaltsame Projekte, anhand derer die Entwickler auf der Grundlage des Feedbacks der Benutzer lernen können. Es gibt die folgenden 7 Vorlagenprojekte:

1. Objekterkennung

2. Hotdog ist nicht gleich Hotdog

3. Katze und Hund

4. Übertragung künstlerischer Stile

5. Aktivitätserkennung

6. Gesichtserkennung

7. Klassifizierung von Vögeln

 

F: In welchen geografischen Regionen ist AWS DeepLens verfügbar?

AWS DeepLens (2019 Edition) ist in den USA, im Vereinigten Königreich, in Deutschland, Frankreich, Spanien, Italien, Japan und Kanada erhältlich.

 

F: Umfasst AWS DeepLens auch Alexa?

Nein, AWS DeepLens verfügt nicht über Alexa oder Fernfeld-Audiofunktionen. AWS DeepLens bietet jedoch ein 2D-Mikrofon-Array, das mit zusätzlicher Programmierung benutzerdefinierte Audiomodelle ausführen kann.

 

F: Wie kann ich eine AWS DeepLens erwerben?

AWS DeepLens (2019 Edition) kann jetzt von Entwicklern in Kanada, Europa und Japan über Amazon.ca, Amazon.de, Amazon.es, Amazon.fr, Amazon.it, Amazon.co.jp, und Amazon.co.uk vorbestellt werden.

 

F: In welchen Regionen wird die AWS DeepLens-Konsole verfügbar sein?

AWS DeepLens wird in den Regionen us- east-1 (Northern Virginia), eu-central-1 (Frankfurt) und ap-northeast-1 (Tokyo) verfügbar sein.

 

Produktdetails

F: Welche Produktspezifikationen hat das Gerät?

  • Intel Atom® Prozessor
  • Gen9-Grafik
  • Ubuntu OS 16.04 LTS
  • 100 GFLOPS-Leistung
  • Dualband-WLAN
  • 8 GB RAM
  • 16 GB Speicher
  • Erweiterbarer Speicher über microSD-Karte
  • 4-MP-Kamera mit MJPEG
  • H.264 Codierung bei einer 1080p-Auflösung
  • 2 USB-Anschlüsse
  • Micro HDMI
  • Audioausgang
Weniger zeigen

F: Warum hat mein Gerät auf der Unterseite die Kennzeichnung „v1.1“?

AWS DeepLens (2019 Edition) ist auf der Geräteunterseite mit „v1.1“ gekennzeichnet. Wir haben die Nutzererfahrung erheblich verbessert, einschließlich Onboarding, Tutorials und Unterstützung für weitere Sensoren wie die Tiefenkamera von Intel Real Sense. 

Das ursprüngliche AWS DeepLens-Modell kann nicht mithilfe von Softwareupdates auf Version 1.1 aktualisiert werden. Einige der Gerätemodifikationen, z. B. das vereinfachte Onboarding, sind Hardwareänderungen.

 

F: Welche Deep-Learning-Frameworks kann ich auf dem Gerät ausführen?

AWS DeepLens (2019 Edition) ist für Apache MXNet, TensorFlow und Caffe optimiert. 

F: Welche Art von Leistung kann ich bei AWS DeepLens erwarten?

Die Leistung wird anhand der gefolgerten Bilder pro Sekunde und der Latenz gemessen. Unterschiedliche Modelle haben abweichende Inferenzen pro Sekunde. Die Baseline-Inferenzleistung liegt bei 14 Bildern/Sekunde in AlexNet und bei 5 Bildern/Sekunde in ResNet 50 bei der Batch-Größe 1. Die Latenzleistung wird durch die Eigenschaften des Netzwerks bestimmt, mit dem die DeepLens verbunden ist.


F: Welche MXNet-Netzwerkarchitekturschichten werden von AWS DeepLens unterstützt?

AWS DeepLens bietet Unterstützung für 20 verschiedene Netzwerkarchitekturschichten. Folgende Schichten werden unterstützt:

  • Aktivierung
  • BatchNorm
  • Concat
  • Convolution
  • elemwise_add
  • Pooling
  • Flatten
  • FullyConnected
  • InputLayer
  • UpSampling
  • Reshape
  • ScaleShift
  • SoftmaxActivation
  • SoftmaxOutput
  • transpose
  • _contrib_MultiBoxPrior
  • _contrib_MultiBoxDetection
  • _Plus
  • Deconvolution
  • _mul

Erste Schritte

F: Was ist im Lieferumfang enthalten und wie fange ich an?

Im Lieferumfang finden Entwickler ein Handbuch für die ersten Schritte, das AWS DeepLens-Gerät, ein regionsspezifisches Netzgerät mit Kabel, ein USB-Kabel und eine 32-GB-microSD-Karte. Die Einrichtung und Konfiguration des DeepLens-Geräts kann über die AWS DeepLens-Konsole oder durch Konfigurieren des Geräts über einen Browser auf Ihrem Laptop oder PC innerhalb von Minuten abgeschlossen werden.

Um Ihnen die ersten Schritte zu erleichtern, gibt es drei zehnminütige Tutorials:

1. Erstellen und Bereitstellen eines Projekts
2. Erweitern eines Projekts
3. Erstellen eines AWS DeepLens-Projekts mit Amazon SageMaker

 

F: Warum ist ein USB-Anschluss mit „Registrierung“ versehen?

Der USB-Anschluss mit dem Text „Registrierung“ am AWS DeepLens-Gerät (2019 Edition) wird während des Onboarding-Vorgangs verwendet, um die AWS DeepLens in Ihrem Konto zu registrieren.

Der USB-Anschluss zur Registrierung ist als Slave-Port konfiguriert. Er kann deshalb nicht für Tastaturen oder andere Master-Port-Zwecke genutzt werden. Wenn Sie weitere USB-Anschlüsse benötigen, empfehlen wir die Verwendung eines USB-Hubs. 

 

Weniger zeigen

F: Kann ich meine Modelle auf dem Gerät trainieren?

Nein, AWS DeepLens kann Inferenzen oder Vorhersagen anhand von trainierten Modellen durchführen. Sie können Ihre Modelle in Amazon SageMaker trainieren, einer Plattform für maschinelles Lernen zum Trainieren und Hosten Ihrer Modelle. AWS DeepLens bietet eine einfache 1-Klick-Bereitstellungsfunktion, um trainierte Modelle von Amazon SageMaker zu veröffentlichen.


F: Welche AWS-Services sind in AWS DeepLens integriert?

DeepLens ist für die Integration in AWS Greengrass, Amazon SageMaker und Amazon Kinesis Video Streams vorkonfiguriert. Sie können mit AWS DeepLens in viele andere AWS-Services integrieren, zum Beispiel Amazon S3, Amazon Lambda, Amazon Dynamo und Amazon Rekognition.


F: Kann ich SSH in AWS DeepLens verwenden?

Ja, wir haben AWS DeepLens dafür entwickelt, benutzerfreundlich und dennoch zugänglich für fortgeschrittene Entwickler zu sein. Mit dem Befehl ssh aws_cam@ können Sie SSH im Gerät nutzen.

 

F: Welche Programmiersprachen werden von AWS DeepLens unterstützt?

Sie können Modelle lokal in Python 2.7 auf dem Daten-Stream der Kamera definieren und ausführen.

F: Muss ich mit dem Internet verbunden sein, um die Modelle auszuführen?

Sie können die in AWS DeepLens bereitgestellten Modelle ohne Verbindung zum Internet ausführen. Sie benötigen jedoch eine Internetverbindung, um das Modell zu Beginn aus der Cloud auf dem Gerät bereitzustellen. Nach der Übertragung Ihres Modells kann AWS DeepLens lokal auf dem Gerät Inferenzen durchführen, ohne dass eine Cloudverbindung erforderlich ist. Wenn Sie jedoch in Ihrem Projekt über Komponenten verfügen, für die eine Interaktion mit der Cloud erforderlich ist, benötigen Sie für diese Komponenten eine Internetverbindung.

F: Kann ich meine eigenen benutzerdefinierten Modelle in AWS DeepLens ausführen?

Ja. Sie können auch Ihr eigenes Projekt neu erstellen. Verwenden Sie die AWS SageMaker-Plattform zur Vorbereitung der Daten, passen Sie ein Modell mithilfe eines gehosteten Notebooks an, und veröffentlichen Sie das angepasste Modell dann auf Ihrer AWS DeepLens, um es zu testen und zu verbessern. Sie können auch ein extern angepasstes Modell in AWS DeepLens importieren, indem Sie die S3-Position für die Modellarchitektur und die Netzwerk-Gewichtungsdateien festlegen.


F: Warum hat mein Gerät auf der Unterseite die Kennzeichnung „v1.1“?

AWS DeepLens (2019 Edition) ist auf der Geräteunterseite mit „v1.1“ gekennzeichnet. Wir haben die Nutzererfahrung erheblich verbessert, einschließlich Onboarding, Tutorials und Unterstützung für weitere Sensoren wie die Tiefenkamera von Intel Real Sense. 

 

Weniger zeigen

F: Was ist AWS DeepLens (2019 Edition)?

AWS DeepLens (2019 Edition) bietet einen optimierten Onboarding-Vorgang, der Entwicklern einen schnellen Einstieg in maschinelles Lernen ermöglicht, Support für die Intel® RealSense™ Tiefenkamera, mit der Sie erweiterte maschinelle Lernmodelle mit höherer Genauigkeit erstellen können, dank der Nutzung von Tiefe als Eingabeparameter neben Sicht, sowie Support für den Intel® Movidius™ Neural Compute Stick für Benutzer, die eine noch schnellere Datenverarbeitung wollen. AWS DeepLens (2019 Edition) kann außerdem in Amazon SageMaker Neo integriert werden. Dadurch können Benutzer Modelle einmalig trainieren und mit bis zu doppelter Performance ausführen.

Neben den Geräteverbesserungen haben wir in neue Inhalte investiert, um den Einstieg in maschinelles Lernen mit AWS DeepLens zu erleichtern. Dies beinhaltet Anleitungen zum Erstellen von ML-Anwendungen für interessante Anwendungsfälle wie die Mitarbeitersicherheit, Stimmungsanalysen oder um herauszufinden, wer am meisten Kaffee trinkt.

Alle diese Verbesserungen sind jetzt für Kunden in den USA, im Vereinigten Königreich, in Deutschland, Frankreich, Spanien, Italien, Japan und Kanada verfügbar.