Publié le: Nov 2, 2018

Amazon Rekognition est un service d'analyse d'image et de vidéo basé sur le deep learning, qui peut identifier des objets, des personnes, du texte, des scènes et des activités, ainsi que détecter tout contenu inapproprié. Nous annonçons aujourd'hui une mise à jour importante de la détection d'objets et de scènes, également appelée détection d'étiquettes. La détection d'étiquettes identifie les objets et les scènes se trouvant dans les images. Jusqu'à présent, Amazon Rekognition pouvait identifier la présence d'un objet dans une image, mais ne pouvait pas détecter où il se trouvait exactement. Amazon Rekognition peut désormais spécifier l'emplacement des objets courants tels que les chiens, les personnes et les voitures dans une image en renvoyant des cadres de délimitation d'objets. La précision est optimisée de manière significative pour toutes les étiquettes d'objet et de scène existantes dans divers cas d'utilisation. De plus, les clients peuvent utiliser les informations relatives aux cadres de délimitation pour déduire combien d'unités de chaque objet (« 3 chiens ») sont présentes dans l'image et la relation entre les objets (« chien sur un canapé »). Ces nouvelles améliorations ont toutes un coût supplémentaire.

Les clients des entreprises spécialisées dans l'information, le sport et les réseaux sociaux sont tous confrontés à des bibliothèques d'images à croissance rapide. Ils cherchent des moyens de rechercher et de filtrer rapidement ce contenu. Les métadonnées fournies par l'homme fonctionnent dans une certaine mesure pour de telles applications, mais cette approche a une précision et une adaptatibilité limitées. Avec la détection d'objets et de scènes d'Amazon Rekognition, les clients peuvent indexer automatiquement de vastes bibliothèques d'images afin de les rendre consultables.

« GuruShots connecte et inspire des millions de passionnés de photo du monde entier, en réinventant la façon dont les individus interagissent avec leurs photos pour rendre l'expérience plus amusante, excitante et enrichissante. Auparavant, nos utilisateurs finaux balisaient manuellement les images pour obtenir de meilleures informations. Pour offrir une meilleure expérience client, nous recherchions des moyens adaptatifs de baliser automatiquement les images chargées pour une analyse plus approfondie. À l'aide d'Amazon Rekognition, nous balisons maintenant chaque image chargée par l'utilisateur et utilisons les métadonnées générées pour détecter les tendances, améliorer les résultats de recherche et ajuster le contenu en fonction des préférences de l'utilisateur. Ce nouveau processus rationalisé a entraîné une augmentation de la rétention des utilisateurs de 40 % et de l'engagement de 50 %. » , Eran Hazout, fondateur et directeur technique, GuruShots.

Désormais, grâce aux cadres de délimitation des objets, les clients peuvent compter combien d'unités de chaque objet apparaissent dans une image (« 3 chiens »). Ils peuvent également déterminer quels objets sont importants ou visibles par rapport aux autres en utilisant les coordonnées de position et la taille de la boîte de délimitation par rapport aux dimensions de l'image. Ces informations peuvent être utilisées pour prendre des décisions sur les préférences de l'utilisateur. Par exemple, une personne qui possède énormément de photos sur lesquelles figure une « voiture » est susceptible d'être un passionné d'automobile. Certains clients utiliseront également des cadres de délimitation pour aller plus loin dans le traitement de leurs images, par exemple pour flouter certains objets, tels que des armes. Les informations relatives aux cadres de délimitation peuvent également être utilisées pour rechercher des types d'images spécifiques (images sur lesquelles figurent plusieurs chiens, ou des chiens visibles, par rapport à un chien en arrière-plan). Pour rendre la recherche de ressources encore plus performante, Amazon Rekognition renvoie désormais des étiquettes parent dans une liste hiérarchique. Par exemple, l'étiquette « Chien » a les parents « Mammifère », « Canin » et « Animal ». Ces métadonnées permettent aux clients de regrouper les étiquettes liées par des relations parent-enfant afin d'améliorer la catégorisation et le filtrage.

Des cadres de délimitation, des métadonnées hiérarchiques et une meilleure précision de la détection des étiquettes sont disponibles dans toutes les régions où Amazon Rekognition Image est proposé. Des améliorations d'étiquettes pour Amazon Rekognition Video seront bientôt disponibles. Vous pouvez démarrer dès aujourd'hui via la console Rekognition ou en téléchargeant le dernier kit SDK AWS. Pour en savoir plus, reportez-vous à la documentation.