Veröffentlicht am: Dec 21, 2022

Die Amazon-Rekognition-Inhaltsmoderation ist eine auf Deep Learning basierende Funktion, die unangemessene, unerwünschte oder anstößige Bilder und Videos erkennt und so das Auffinden und Entfernen solcher Inhalte in großem Umfang erleichtert. Ab heute umfasst die Inhaltsmoderation von Amazon Rekognition ein verbessertes Modell für die Bildmoderation, das die Raten falsch positiver Ergebnisse für Inhalte aus E-Commerce, sozialen Medien und Online-Communitys deutlich reduziert, ohne dass die Erkennungsraten für wirklich unsichere Inhalte sinken. Niedrigere Raten falsch positiver Werte bedeuten schnellere Genehmigungen für von Benutzern hochgeladene Inhalte, was zu einer besseren Endbenutzererfahrung führt. Außerdem bedeuten niedrigere Raten falsch positiver Werte weniger gemeldete Bilder, die genauer überprüft werden müssen. Sie sorgen also auch für Kosteneinsparungen und entlasten Moderatoren.

Mit dem verbesserten Modell können E-Commerce- und Online-Marktplatzkunden wie 11STREET und DeNA Produktbilder mit weniger Fehlerkennungen überprüfen und dadurch Produktangebote schneller genehmigen. In ähnlicher Weise können Social-Media-Kunden und Online-Communitys wie MobiSocial, Dream11 und Coffee Meets Bagel Bilder und Videos, die mit Selfie-Kameras aufgenommen wurden, aus nächster Nähe und mit höherer Genauigkeit überprüfen.

Dieses Update ist jetzt in allen AWS-Regionen verfügbar, die für die Amazon-Rekognition-Inhaltsmoderation unterstützt werden. Um das neue Modell auszuprobieren, sehen Sie sich die Amazon-Rekognition-Konsole für die Bildmoderation an. Weitere Informationen finden Sie in der Dokumentation zur Amazon-Rekognition-Inhaltsmoderation.