Publicado en: Dec 21, 2022

La moderación de contenido de Amazon Rekognition es una característica basada en el aprendizaje profundo que permite detectar imágenes y videos inapropiados, no deseados u ofensivos, facilitando la búsqueda y eliminación de estos contenidos a escala. A partir de hoy, la moderación de contenido de Amazon Rekognition incluye un modelo mejorado de moderación de imágenes que reduce significativamente las tasas de falsos positivos en el contenido del comercio electrónico, las redes sociales y las comunidades en línea, sin reducir las tasas de detección de contenido realmente inseguro. Las tasas más bajas de falsos positivos se traducen en aprobaciones más rápidas del contenido subido por los usuarios, lo que se traduce en una mejor experiencia para el usuario final. La reducción en los índices de falsos positivos también disminuye el volumen de imágenes marcadas para revisiones adicionales, lo que supone una mejor experiencia para los moderadores humanos y un mayor ahorro de costos.

Con el modelo mejorado, los clientes del comercio electrónico y del mercado en línea, como 11STREET y DeNA, pueden revisar las imágenes de los productos con menos detecciones falsas y, como resultado, aprobar los listados de productos más rápidamente. Del mismo modo, los clientes de las redes sociales y las comunidades en línea, como MobiSocial, Dream11 y Coffee Meets Bagel, pueden revisar las imágenes y los videos tomados con cámaras para autofotos en ángulos cercanos con mayor precisión.

Esta actualización ya está disponible en todas las regiones de AWS compatibles con la moderación de contenido de Amazon Rekognition. Para probar el nuevo modelo, visite la consola de Amazon Rekognition para moderar las imágenes. Para obtener más información, lea la documentación sobre moderación de contenido de Amazon Rekognition.