DEAR - Deep Emotion Audience Rekognition

Inspiration

Eine der Herausforderungen für Pubilkumsmesssystemen sind, dass diese stark von der Qualität der Antworten der Umfrageteilnehmer abhängen. Unsere Idee ist es, den Mehraufwand zu reduzieren, der zur Erkennung von Emotionen von einem Publikum benötigt wird und die Zuverlässigkeit der Messungen gleichzeitig zu verbessern.

Was passiert

Die Lösung involviert die Verwendung eines AWS DeepLens-Geräts, um Gesichter mit einer lokalen Inferenz zu erkennen und nur die Clips der Gesichter zu S3 zu senden. Ein Lambda, der den S3-Bucket überwacht führt dann Rekognition aus, um die Emotionen für jedes Gesicht zu erhalten. Die Daten werden dann in DynamoDB zum Archivieren und CloudWatch zur Echtzeitüberwachung der Metriken eingespeist.

Vorgehensweise

Es wäre nicht praktisch das gesamte Bild in Echtzeit zu Rekognition zu senden, von daher ergibt lokale Inferenz auf der DeepLens eine besser optimierte Lösung, in der ausgehende Datenübertragungsraten nicht mehr ein Problem darstellen. Dass ermöglicht die folgenden Szenarios, die ohne lokale Inferenz sonst nicht durchführbar wären:

  • Präzisere Bewertungen von Haushalten, die an TV-Einschaltquoten-Gruppen teilnehmen
  • Moderatoren können messen, wie Ihr Publikum auf verschiedene Teile Ihrer Moderation reagiert hat, ohne sich auf schriftliches Feedback verlassen zu müssen. Nutzung auf re:invent nächstes Jahr?
  • Filme und neue Shows werden oft mit Publikum gescreent, dessen Gefühle mit Wahlgeräten aufgezeichnet werden. Das kann mit Emotionserkennung augmentiert werden, um ein tieferes Verständnis der Reaktion des Publikums zu gewinnen.

Generell kann die Leistung der Kombination von lokaler Inferenz mit cloud-basierten Diensten für tiefes Lernen Messungen unglaublich einfach machen, die sonst unpraktisch wären. 

Erstellt mit

Amazon Web Services
DEEPLENS
Machine Learning
Tiefes neurales Netzwerk
Python
Lambda
Amazon-Dynamodb
Amazon-CloudWatch

Jetzt testen

Das Archiv für dieses Projekt ist privat