投稿日: Aug 9, 2019
Amazon Rekognition は、安全でないコンテンツを検出して、物体、人間、テキスト、シーンの特定やコンテンツモデレーションを行うことができる、深層学習ベースの画像および動画分析サービスです。本日より、流血、傷害、兵器、自傷行為、死体といった「暴力」および「過激な描写」に関連したコンテンツを検出できるようになりました。さらに、Amazon Rekognition の「明示的なヌード」および「暗示的」コンテンツを識別する機能が改善され、誤検出率 (FP) が 68% 低下し、誤検出率 (FN) が 36% 低下しました (平均)。さらに、Amazon Rekognition では、安全でないアニメ/イラストコンテンツ、成人用玩具、シースルー服といった、新しいカテゴリのアダルトコンテンツを検出できるようにもなりました。
画像および動画のモデレーションに Amazon Rekognition を使用することにより、モデレーション担当者は AI によってフラグが立てられた少量のコンテンツをレビューするだけで良くなります。このため担当者はより重要な業務に時間を割きながら、これまでよりもはるかに少ないコストで正確なモデレーションを行うことが可能になります。さらに、Amazon Rekognition が付与する階層的なモデレーションカテゴリ (最上位および 2 番目のレベル) を使用してビジネスルールを作成し、さまざまな地域や属性のリクエストに対応することができます。安全でないカテゴリの完全なリストおよび階層分類については、こちらのページをご覧ください。
画像および動画のモデレーションに関するこの変更は Amazon Rekognition をサポートしている全 AWS リージョンで、追加料金なくご利用いただけます。Amazon Rekognition コンソールを使用して、自分のコンテンツで機能を試してみることができます。