Veröffentlicht am: Nov 2, 2018
Amazon Rekognition ist ein auf Deep Learning basierender Bild- und Videoanalysedienst, der Objekte, Menschen, Text, Szenen und Aktivitäten sowie unsichere Inhalte erkennen kann. Heute kündigen wir ein großes Update für Objekt- und Szenenerkennung an, auch bekannt als Labelerkennung. Labelerkennung identifiziert Objekte und Szenen in Bildern. Bis jetzt konnte Amazon Rekognition die Gegenwart eines Objekts in einem Bild identifizieren, aber es konnte nicht erkennen, wo sich das Objekt im Bild befindet. Amazon Rekognition kann jetzt die Position gewöhnlicher Objekte, wie zum Beispiel Hunde, Menschen und Autos, in einem Bild mit einem Rahmen angeben, mit deutlich verbesserter Genauigkeit für alle bestehenden Objekt- und Szenenlabels in einer Vielzahl an Nutzerfällen. Zusätzlich können Kunden mit den Rahmeninformationen herausfinden, wie viele Objekte jeweils im Bild auftreten („3 Hunde“) sowie die Beziehung zwischen den Objekten („Hund auf einem Sofa“). Diese neuen Verbesserungen werden alle ohne zusätzliche Kosten bereitgestellt.
Kunden in den Branchen Nachrichten, Sport und soziale Medien werden mit schnell wachsenden Bilderbibliotheken konfrontiert. Sie suchen Wege, Bilderinhalt schnell zu suchen und zu filtern. Von Menschen bereitgestellte Metadaten funktionieren für solche Anwendungen bis zu einem bestimmten Grad, aber dieser Ansatz hat eine begrenzte Genauigkeit und Skalierbarkeit. Mit der Objekt- und Szenenerkennung von Amazon Rekognition können Kunden riesige Bilderbibliotheken automatisch erschließen und sie durchsuchbar machen.
“GuruShots verbindet und inspiriert Millionen Fotoliebhaber in der ganzen Welt, sowie erfindet zur Schaffung einer amüsanteren, aufregenderen und bereichernderen Erfahrung neu, wie Menschen mit ihren Fotos interagieren. Vorher haben unsere Endnutzer für einen besseren Einblick Bilder von Hand markiert. Wir haben nach skalierbaren Wegen gesucht, hochgeladene Bilder automatisch zur weiteren Analyse zu markieren, um ein besseres Kundenerlebnis anzubieten. Mit Amazon Rekognition markieren wir jetzt jedes vom Nutzer hochgeladenes Bild und benutzen die erstellten Metadaten zur Erkennung von Trends, Verbesserung von Suchergebnissen und Anpassung von Inhalt an Nutzervorlieben. Dieser neue, modernisierte Prozess führte zu 40 % mehr Nutzerbindung und 50 % mehr Nutzereingriff.“ – Eran Hazout, Gründer und CTO, GuruShots
Jetzt können Kunden mit Objektrahmen zählen, wie viele einzelnen Objekte in einem Bild vorkommen („drei Hunde“), und sie können auch bestimmen, welche Objekte verglichen mit anderen herausstechend oder wichtig sind, indem die Positionskoordinaten und die Rahmengröße relativ zu den Bildabmessungen genutzt werden. Diese Informationen können dazu benutzt werden, Entscheidung nach Nutzervorlieben zu treffen. Jemand, der zum Beispiel viele Fotos mit „Auto“ hat, ist wahrscheinlich ein Automobil-Liebhaber. Einige Kunden werden auch Rahmen zur Weiterbearbeitung ihrer Bilder benutzen, zum Beispiel, um bestimmte Objekte wie Waffen weichzuzeichnen. Rahmeninformationen können zur Suche nach bestimmten Bildertypen genutzt werden (Bilder mit mehreren Hunden oder herausstechenden Hunden im Vergleich zu einem Hund im Hintergrund). Um die Bildersuche noch leistungsfähiger zu machen, gibt Amazon Rekognition die „Parentlabels“ in einer hierarchischen Liste zurück, zum Beispiel, das Label „Hund“ hat die „Parents“ „Säugetiere“, „hundeartig“ und „Tier“. Diese Metadaten ermöglichen es Kunden, Labels in Bezug auf ihre „Parent-Child“-Beziehungen zur Verbesserung der Kategorisierung und Filterung zu gruppieren.
Rahmen, hierarchische Metadaten und verbesserte Genauigkeit zur Labelerkennung sind heute in allen Regionen erhältlich, wo Amazon Rekognition Image angeboten wird. Labelverbesserungen für Amazon Rekognition Video kommen in Kürze. Sie können heute starten, indem Sie die aktuelle Version von AWS SDK herunterladen über die Rekognition Console herunterladen. Weitere Informationen entnehmen Sie bitte der Dokumentation.