Questions d'ordre général

Q : Qu'est-ce qu'Amazon Rekognition ?

Amazon Rekognition est un service simplifiant l'ajout de la puissante analyse virtuelle à vos applications. Rekognition Image vous permet de créer simplement des applications puissantes pour rechercher, vérifier et organiser des millions d'images. Rekognition Video vous permet d'extraire du contexte de mouvement de flux vidéo stockés ou en direct et de l'analyser.

Rekognition Image est un service de reconnaissance d'images qui détecte les objets, les scènes, les activités, les points de repère, les visages, les couleurs dominantes et la qualité des images. Rekognition Image extrait également du texte, reconnaît des célébrités et identifie le contenu inapproprié des images. Le service vous permet de rechercher et de comparer des visages.

Rekognition Video est un service de reconnaissance vidéo qui détecte les activités, comprend le mouvement des personnes dans le cadre, et reconnaît les objets, les célébrités et le contenu inapproprié dans les vidéos stockées dans Amazon S3 et les flux vidéo en direct. Rekognition Video détecte les personnes et les suit tout au long de la vidéo, même si les visages ne sont pas visibles ou lorsque la personne entre et sort de la scène analysée. Par exemple, ce service peut être utilisé avec une application qui envoie en temps réel des notifications lorsque quelqu'un livre un paquet à votre porte. Rekognition Video vous permet également d'indexer des métadonnées telles que des objets, des activités, des scènes, des points de repère, des célébrités et des visages qui facilitent la recherche de vidéos.

Q : Qu'est-ce que le deep learning ?

L'apprentissage profond est un sous-ensemble de Machine Learning et représente un aspect important de l'intelligence artificielle. Il consiste à déduire des abstractions de haut niveau à partir de données brutes en utilisant un graphe profond avec plusieurs couches de traitement composées de plusieurs transformations linéaires et non linéaires. L'apprentissage profond s'inspire des modèles de traitement des informations et de communication du cerveau. L'apprentissage profond remplace les fonctionnalités créées manuellement par des fonctionnalités issues de vastes quantités de données annotées. L'apprentissage se produit en estimant de façon itérative des centaines de milliers de paramètres dans le graphe profond, grâce à des algorithmes efficaces.

Plusieurs architectures d'apprentissage profond, comme les réseaux de neurones convolutifs profonds (CNN) et les réseaux de neurones récurrents, ont été appliquées à la vision par ordinateur, à la reconnaissance vocale, au traitement automatique de la langue naturelle et à la reconnaissance auditive, pour produire des résultats hors pair sur plusieurs tâches.

Amazon Rekognition fait partie de la gamme de services Amazon AI. Les services Amazon AI utilisent le deep learning pour comprendre des images, transformer du texte en un discours naturel et créer des textes conversationnels intuitifs et des interfaces vocales.

Q : Ai-je besoin d'être un expert en deep learning pour utiliser Amazon Rekognition ?

Non. Avec Amazon Rekognition, vous n'avez pas besoin de créer, de gérer ou de mettre à niveau des pipelines de deep learning.

Afin d'obtenir des résultats précis pour des tâches de vision par ordinateur complexes telles que la détection d'objets ou de scènes, l'analyse faciale et la reconnaissance faciale, les systèmes d'apprentissage profond doivent être correctement paramétrés et recevoir de très vastes quantités de données de vérité-terrain labellisées. L'approvisionnement, le nettoyage et l'étiquetage précis des données représentent des tâches laborieuses et coûteuses. De plus, la formation d'un réseau DNN est onéreuse en termes de calculs et requiert souvent un équipement construit sur mesure à l'aide d'unités de traitement graphique (GPU).

Amazon Rekognition est une solution entièrement gérée, fournie avec des tâches de reconnaissance des images et des vidéos pré-enregistrées. Par conséquent, vous n'avez pas besoin d'investir votre temps et vos ressources pour créer un pipeline d'apprentissage profond. Amazon Rekognition n'a de cesse d'améliorer la précision de ses modèles, en exploitant les travaux de recherche les plus récents et en recueillant de nouvelles données de formation. Cela vous permet de vous focaliser sur la conception et le développement d'applications à haute valeur ajoutée.

Q : Quels sont les cas d'utilisation les plus courants pour Amazon Rekognition ?

Les cas d'utilisation les plus courants de Rekognition Image incluent :

  • Bibliothèque d'images consultable
  • Vérification de l'utilisateur par le visage
  • Analyse des sentiments
  • Reconnaissance faciale
  • Modération d'images

Les cas d'utilisation les plus courants de Rekognition Video incluent :

  • Index de recherche pour les archives vidéo
  • Filtrage simplifié de contenu explicite et suggestif de vidéos

Q : Comment démarrer avec Amazon Rekognition ?

Si vous n'êtes pas déjà inscrit à Amazon Rekognition, vous pouvez cliquer sur le bouton Essayer Amazon Rekognition sur la page Amazon Rekognition et vous inscrire. Pour ce faire, vous devez disposer d'un compte Amazon Web Services. Si vous n'en avez pas, vous serez invité à en créer un dans le cadre de la procédure d'inscription. Une fois que vous serez inscrit, vous pourrez tester Amazon Rekognition avec vos propres images et vidéos, à l'aide de la console de gestion Amazon Rekognition ou télécharger les kits SDK d'Amazon Rekognition pour commencer à créer vos propres applications. Consultez notre guide de démarrage par étapes pour obtenir davantage d'informations.

Q : Quels sont les formats d'image et de vidéo pris en charge par Amazon Rekognition ?

Amazon Rekognition Image prend actuellement en charge les formats d'image JPEG et PNG. Vous pouvez soumettre des images en tant qu'objets S3 ou en tant que tableau d'octets. Les opérations d'Amazon Rekognition Video peuvent analyser des vidéos stockées dans les compartiments Amazon S3. La vidéo doit être encodée avec un codec H.264. Les formats de fichier pris en charge sont MPEG-4 et MOV. Un codec est un logiciel ou un matériel qui compresse des données pour un déploiement plus rapide et décompresse les données reçues dans leur format d'origine. Le codec H.264 est couramment utilisé pour l'enregistrement, la compression et la distribution de contenu vidéo. Un format de fichier vidéo peut contenir un ou plusieurs codecs. Si votre fichier vidéo MOV ou MPEG-4 ne fonctionne pas avec Rekognition Video, vérifiez que le codec vidéo utilisé est bien H.264.

Q : Quelles sont les tailles de fichiers prises en charge par Amazon Rekognition ?

Amazon Rekognition Image prend en charge les fichiers image de 15 Mo maximum lorsque ces derniers sont transformés en objets S3, et de 5 Mo maximum lorsqu'ils sont soumis en tant que tableau d'octets. Amazon Rekognition Video prend en charge des fichiers de 10 Go maximum et des vidéos de 6 heures maximum lorsque ces derniers sont transformés en un fichier S3.

Q : De quelle manière la résolution de l'image affecte-t-elle la qualité des résultats de l'API de Rekognition Image ?

Amazon Rekognition fonctionne sur une vaste gamme de résolutions d'image. Pour obtenir des résultats optimaux, nous vous recommandons d'utiliser la résolution VGA (640 x 480) ou plus. Avec une résolution inférieure à la norme QVGA (320 x 240), les visages ou les objets risquent de ne pas être complètement visibles, ou du contenu inapproprié peut apparaître, bien qu'Amazon Rekognition accepte les images de 80 pixels minimum dans les deux dimensions.

Q : Quelle est la taille minimale des objets détectés et analysés par Amazon Rekognition Image ?

En règle générale, assurez-vous que l'objet ou le visage le plus petit d'une image représente au moins 5 % de la taille (en pixels) de la dimension de l'image la moins importante. Par exemple, si vous travaillez sur une image d'une dimension 1 600 x 900, le plus petit objet ou visage doit représenter au moins 45 pixels dans l'une des dimensions.

Q : Comment puis-je obtenir des prédictions Amazon Rekognition vérifiées par des êtres humains ?

Amazon Rekognition est directement intégré à Amazon Augmented AI (Amazon A2I), vous pouvez donc facilement acheminer les prédictions de faible confiance depuis Amazon Rekognition Image vers des vérificateurs humains. À l'aide de l'API Amazon Rekognition pour la modération de contenu ou de la console Amazon A2I, vous pouvez spécifier les conditions de routage des prédictions vers les vérificateurs pour Amazon A2I, qui peuvent constituer un seuil de confiance ou un pourcentage d'échantillonnage aléatoire. Si vous spécifiez un seuil de confiance, Amazon A2I achemine uniquement les prédictions qui se situent sous le seuil aux fins de la vérification humaine. Vous pouvez ajuster ces seuils à tout moment pour trouver le juste équilibre entre précision et rentabilité. Par ailleurs, si vous spécifiez un pourcentage d'échantillonnage, Amazon A2I achemine un échantillon aléatoire des prédictions aux fins de la vérification humaine. Cela vous permet de mettre en place des audits pour contrôler régulièrement la précision de la prédiction. Amazon A2I fournit également aux vérificateurs une interface Web comprenant toutes les instructions et les outils nécessaires à leurs tâches de vérification. Pour plus d'informations concernant la mise en place d'une vérification humaine avec Amazon Rekognition, consultez la page Web Amazon A2I.

Q : De quelle manière la résolution de la vidéo affecte-t-elle la qualité des résultats de l'API de Rekognition Video ?

Le système est formé à la reconnaissance de visages supérieurs à 32 pixels (sur la dimension la plus petite), ce qui se traduit par une taille minimale pour un visage reconnaissable allant d'approximativement 1/7 de la plus petite dimension de l'écran avec une résolution QVGA à 1/30 avec une résolution HD 1080p. Par exemple, avec une résolution VGA, les utilisateurs doivent s'attendre à des performances moindres pour les visages inférieurs à 1/10 par rapport à la plus petite dimension de l'écran.

Q : Quels autres facteurs peuvent affecter la qualité des API de Rekognition Video ?

Outre la résolution de la vidéo, un flou intense, des personnes se déplaçant rapidement ou des conditions d'éclairage peuvent affecter la qualité des API.

Q : Quel est le contenu vidéo d'utilisateur favori pouvant convenir aux API de Rekognition Video ?

Cette API fonctionne mieux avec les vidéos de professionnels et de consommateurs tirées du champ de vue frontal en couleur et dans des conditions orageuses. Cette API n'est pas testée pour le noir et blanc, l'infrarouge et les conditions orageuses extrêmes. Les applications sensibles aux fausses alertes sont conseillées pour écarter les sorties présentant un score de confiance inférieur au score de confiance sélectionné (propre à l'application).

Q : Dans quelles régions AWS Amazon Rekognition est-il disponible ?

Pour obtenir la liste de toutes les régions où Amazon Rekognition est disponible, consultez le tableau des régions AWS.

Détection d'étiquettes

Q : Qu'est-ce qu'une étiquette ?

Une étiquette est un objet, une scène ou un concept figurant sur une image, sur la base de ses contenus. Par exemple, une photo d'un groupe de personnes sur une plage tropicale peut contenir les étiquettes « Personnes », « Eau », « Sable », « Palmier » et « Maillots de bain » (objets), « Plage » (scène) et « Extérieur » (concept). 

Q : Qu'est-ce qu'un score de confiance et comment fonctionne-t-il ?

Un score de confiance est un chiffre compris entre 0 et 100 qui indique la probabilité d'exactitude d'une prévision donnée. Dans l'exemple de la plage tropicale, si le processus de détection de l'objet et de la scène renvoie un score de 99 pour l'étiquette « Eau » et de 35 pour l'étiquette « Palmier », cela signifie que l'image représente plus probablement de l'eau qu'un palmier.

Les applications très sensibles aux erreurs de détection (les faux positifs) doivent supprimer les résultats associés à des scores de confiance inférieurs à un certain seuil. Le seuil optimal dépend de l'application. Dans de nombreux cas, vous bénéficierez d'une expérience utilisateur optimale en définissant des valeurs de confiance minimales supérieures à la valeur par défaut.

Q : Qu'est-ce que la détection d'objets et de scènes ?

La détection d'objets et de scènes désigne le processus d'analyse d'une image ou d'une vidéo visant à lui assigner des étiquettes, en fonction de son contenu visuel. Amazon Rekognition Image procède à ces opérations avec l'API DetectLabels. Cette API vous permet d'identifier automatiquement des milliers d'objets, de scènes et de concepts et renvoie un score de confiance pour chaque étiquette. DetectLabels utilise un seuil de confiance par défaut de 50. La détection d'objets et de scènes est idéale pour les clients qui souhaitent effectuer des recherches dans de vastes bibliothèques d'images et les organiser, comme les applications consommateur ou de style de vie qui dépendent de contenus générés par les utilisateurs, et les entreprises d'ingénierie publicitaire qui souhaitent améliorer leurs algorithmes de ciblage.

Q : Amazon Rekognition peut-il détecter des emplacements d'objets et renvoyer des cadres de délimitation ?

Oui, Amazon Rekognition peut détecter l'emplacement de nombreux objets courants tels que « Personne », « Voiture », « Arme » ou « Chien » dans les images et les vidéos. Vous obtenez les coordonnées du rectangle de délimitation pour chaque instance de l'objet trouvé, ainsi qu'un score de confiance. Pour plus de détails sur la structure de réponse de l'API pour les cadres de délimitation d'objets, veuillez vous reporter à la documentation.

Q : Amazon Rekognition fournit-il des informations sur la relation entre les étiquettes détectées ?

Oui, pour chaque étiquette trouvée, Amazon Rekognition renvoie son parent, son alias et sa catégorie s'ils existent. Les parents sont renvoyés dans le champ « parents » par ordre hiérarchique. La première étiquette de parent est le parent immédiat, tandis que les étiquettes suivantes sont les parents des parents. Par exemple, lorsque l'étiquette ‘Voiture’ est identifiée, Amazon Rekognition renvoie deux étiquettes parent ‘Véhicule’ (parent) et ‘Transport’ (parent du parent). Les alias sont des étiquettes ayant la même signification que les étiquettes primaires et renvoyées dans le champ « alias ». Par exemple, puisque « téléphone cellulaire » est un alias de « téléphone portable », Amazon Rekognition renvoie « téléphone cellulaire » dans le champ « alias » d'une étiquette « téléphone portable ». Les catégories regroupent les étiquettes en fonction de thèmes communs et sont renvoyées dans le champ « catégories ». Par exemple, puisque « Chien » est une étiquette de la catégorie « Animaux et animaux de compagnie », Amazon Rekognition renvoie « Animaux et animaux de compagnie » dans le champ « catégories » d'une étiquette « Chien ». Pour plus de détails sur la liste complète des étiquettes prises en charge et leur taxonomie, veuillez consulter la documentation Détection d’étiquettes Amazon Rekognition.

Q : Quels sont les types d'étiquettes pris en charge par Amazon Rekognition ?  

Rekognition prend en charge des milliers d'étiquettes associées à des catégories courantes, y compris, mais sans s'y limiter :

  • Personnes et événements : « Mariage », « Mariée », « Bébé », « Gâteau d'anniversaire », « Guitariste », etc.
  • Aliments et boissons : « Pomme », « Sandwich », « Vin », « Gâteau », « Pizza », etc.
  • Nature et extérieurs : « Plage », « Montagnes », « Lac », « Coucher de soleil », « Arc-en-ciel », etc.
  • Animaux et animaux de compagnie : « Chien », « Chat », « Cheval », « Tigre », « Tortue », etc.
  • Maison et jardin : « Lit », « Table », « Cour intérieure », « Chandelier », « Chambre à coucher », etc.
  • Sports et loisirs : « Golf », « Basketball », « Hockey », « Tennis », « Randonnée », etc.
  • Plantes et fleurs : « Rose », « Tulipe », « Palmier », « Forêt », « Bambou », etc.
  • Art et divertissement : « Sculpture », « Peinture », « Guitare », « Ballet », « Mosaïque », etc.
  • Transports et véhicules : « Avion », « Voiture », « Vélo », « Moto », « Camion », etc.
  • Électronique : « Ordinateur », « Téléphone portable », « Caméra », « TV », « Casque », etc.
  • Points de repère : « Pont de Brooklyn », « Colisée », « Tour Eiffel », « Machu Picchu », « Taj Mahal », etc.

Q : Qu'est-ce qui diffère dans la détection d'objets et de scènes pour l'analyse vidéo ?

Rekognition Video vous permet d'identifier automatiquement des milliers d'objets (véhicules ou animaux) et d'activités (fêtes ou danse) et vous fournit des horodatages ainsi qu'un score de confiance pour chaque étiquette. Le service repose également sur le mouvement et le contexte temporel de la vidéo pour identifier précisément des activités complexes, comme le fait de « souffler sur une bougie » ou « d'éteindre un incendie ».

Q : Je n'arrive pas à trouver l'étiquette dont j'ai besoin. Comment demander une nouvelle étiquette ?

Veuillez nous envoyer vos demandes d'étiquettes via la console Amazon Rekognition en tapant le nom de l’étiquette dans le champ de saisie de la section « Rechercher toutes les étiquettes » et en cliquant sur « Demander à Rekognition de détecter » l’étiquette demandée. Amazon Rekognition élargit en continu son catalogue d'étiquettes en fonction des commentaires des clients.

Q : Qu'est-ce que les propriétés de l'image ?

Les propriétés de l’image sont une fonctionnalité d'Amazon Rekognition Image permettant de détecter les couleurs dominantes et la qualité de l’image. Les propriétés de l’image détectent les couleurs dominantes de l’image entière, de l’avant-plan de l’image, de l’arrière-plan de l’image et des objets avec des boîtes de délimitation localisées. Les propriétés de l'image mesurent également la qualité de l’image grâce à des scores de luminosité, de netteté et de contraste. Les propriétés d’image peuvent être appelées par l’API DetectLabels en utilisant IMAGE_PROPERTIES comme paramètre d’entrée, avec ou sans le paramètre d’entrée GENERAL_LABEL pour la détection des étiquettes. Consultez la documentation Amazon Rekognition Label Detection pour en savoir plus.

Q : Comment les couleurs dominantes sont-elles déterminées ?

Image Properties renvoie les couleurs dominantes dans quatre formats : RGB, hexcode, couleur CSS et couleurs simplifiées. Amazon Rekognition identifie d'abord les couleurs dominantes par pourcentage de pixels, puis fait correspondre ces couleurs à la palette de 140 couleurs CSS, au code RGB, au code hexadécimal et à 12 couleurs simplifiées (c'est-à-dire « vert », « rose », « noir », « rouge », « jaune », « cyan », « brun », « orange », « blanc », « violet », « bleu », « gris »). Par défaut, Image Properties renvoie dix (10) couleurs dominantes, sauf si les clients spécifient le nombre de couleurs à renvoyer. Le nombre maximum de couleurs dominantes que l’API peut renvoyer est de 12.

Q : Comment interpréter les scores de luminosité, de netteté et de contraste ?

Les propriétés de l’image fournissent une valeur comprise entre 0 et 100 pour chaque note de luminosité, de netteté et de contraste. Par exemple, une image sous-exposée renverra un score de luminosité faible, tandis qu’une image très éclairée renverra un score de luminosité élevé.

Q : Comment vérifier si Amazon Rekognition a mis à jour ses modèles ?

Amazon Rekognition renvoie un paramètre LabelModelVersion qui vous permet de savoir si le modèle a été mis à jour. Les modèles de détection d'objets et de scènes sont mis à jour fréquemment en fonction des commentaires des clients.

Amazon Rekognition Custom Labels

Q : Puis-je utiliser Custom Labels pour analyser des visages ou détecter des textes personnalisés ?

Non. Custom Labels est conçu pour rechercher des objets et des scènes dans les images. Custom Labels ne permet pas d'analyser des visages ou de détecter des textes personnalisés. Pour ces tâches, vous devez utiliser d'autres API de Rekognition. Veuillez vous reporter à la documentation relative à l'analyse des visages et à la détection de textes.

Q : Puis-je utiliser Custom Labels pour détecter du contenu d'image non sécurisé ?

Oui. Custom Labels est conçu pour rechercher des objets et des scènes dans les images. Custom Labels, lorsqu'il est entraîné pour détecter le contenu d'images dangereuses spécifique à votre cas d'utilisation, peut détecter le contenu d'images dangereuses spécifique à votre cas d'utilisation. Veuillez également vous reporter à la documentation relative à l'API Moderation permettant de détecter le contenu générique non sécurisé des images.

Q : Combien d'images sont-elles nécessaires à l'entraînement d'un modèle personnalisé ?

Le nombre d'images requises pour former un modèle personnalisé dépend de la variabilité des étiquettes personnalisées que vous souhaitez que le modèle prévoit, ainsi que de la qualité des données de formation. Par exemple, un logo distinct apposé sur une image peut être détecté grâce à 1 ou 2 images de formation, tandis qu'un logo plus subtil, qui doit être détecté selon diverses variations (échelle, point de vue, déformations), peut nécessiter des dizaines à des centaines d'exemples de formation avec des annotations de haute qualité. Si vous disposez déjà d'un grand nombre d'images étiquetées, nous vous recommandons de former un modèle avec toutes les images dont vous disposez. Veuillez vous reporter à la documentation afin de connaître les limites relatives à la taille maximale des ensembles de données de formation.

Bien que des centaines d'images puissent parfois être nécessaires pour former un modèle personnalisé avec une grande précision, Custom Labels vous permet de d'abord former un modèle avec des dizaines d'images par étiquette, d'examiner les résultats de vos tests pour comprendre les problèmes, puis d'ajouter en conséquence de nouvelles images de formation et de reformer le modèle pour l'améliorer de manière itérative.

Q : Combien de ressources de calcul d'interférence dois-je fournir pour mon modèle personnalisé ?

Le nombre de ressources de calcul d'interférence parallèles nécessaires dépend du nombre d'images que vous devez traiter à un moment donné. Le débit d'une ressource unique dépend de facteurs tels que la taille des images, la complexité de ces images (la quantité d'objets détectés visibles) ainsi que la complexité de votre modèle personnalisé. Nous vous recommandons de surveiller la fréquence à laquelle vous devez approvisionner votre modèle personnalisé et le nombre d'images qui doivent être traitées en une seule fois, et ce, afin de planifier l'approvisionnement de votre modèle personnalisé le plus efficacement possible.
Si vous prévoyez de traiter des images de manière périodique (par exemple, une fois par jour ou par semaine, ou à des heures planifiées de la journée), vous devez démarrer l'approvisionnement de votre modèle personnalisé à une heure planifiée, traiter toutes vos images, puis mettre fin à l'approvisionnement. Si vous ne mettez pas fin à l'approvisionnement, vous serez facturé, même si aucune image n'est traitée.

Q : Ma formation a échoué. Serai-je facturé ?

Non. Vous ne serez pas facturé pour les ressources de calcul si votre formation échoue.

Modération de contenu

Q : Qu'est-ce que la modération de contenu ?

L'API Content Moderation d'Amazon Rekognition exploite le deep learning afin de détecter le contenu explicite et suggestif destiné aux adultes, le contenu violant, les armes, le contenu perturbant visuellement, les drogues, l'alcool, le tabac, les symboles de haine, les jeux de hasard et les gestes obscènes au sein des images et vidéos. En plus de signaler une image ou vidéo suivant la présence de contenu inapproprié ou offensant, Amazon Rekognition renvoie également une liste hiérarchique d'étiquettes avec des indices de confiance. Ces étiquettes désignent des sous-catégories spécifiques du type contenu détecté, offrant ainsi aux développeurs un contrôle plus précis pour filtrer et gérer de grands volumes de données de contenu généré par les utilisateurs (CGU). Cette API peut être utilisée dans les flux de travail de modération pour les applications telles que les sites de rencontre et les réseaux sociaux, les plateformes de partage d'images, les blogs et les forums, les applications pour enfants, les sites d'e-commerce, ainsi que les services de publicité en ligne et de divertissement.

Q : Quels types de contenu inapproprié, offensant et indésirable Amazon Rekognition détecte-t-il ?

Vous pouvez consulter une liste complète des catégories de contenu détectées par Amazon Rekognition ici.

Amazon Rekognition renvoie une hiérarchie d'étiquettes, ainsi qu'un indice de confiance pour chaque étiquette détectée. Par exemple, en cas d'image inappropriée, Rekognition renverra « Nudité explicite » avec un indice de confiance comme étiquette de haut niveau. Les développeurs peuvent utiliser ces métadonnées pour signaler le contenu à un niveau élevé, par exemple, lorsque tous les types de contenu explicite destiné aux adultes doivent être signalés. Dans la même réponse, Rekognition renvoie aussi un second niveau de granularité en fournissant davantage de contexte, comme « Nudité masculine », avec son propre indice de confiance. Les développeurs peuvent utiliser ces informations afin de créer une logique de filtrage plus complexe, adaptée à différentes zones géographiques et données démographiques.

Notez que l'API Content Moderation n'est pas infaillible et ne prétend en aucun cas être un filtre exhaustif de contenu inapproprié et offensant. De plus, cette API ne détecte pas si le contenu de l'image est illégal (comme la pédopornographie) ou s'il s'agit de contenu contre nature destiné aux adultes.

Si vous avez besoin que d'autres types de contenus inappropriés soient détectés dans les images, contactez-nous en utilisant le processus de commentaires expliqué plus loin dans cette section.

Q : Comment savoir quelle version du modèle j'utilise ?

Amazon Rekognition améliore en permanence ses modèles. Afin de suivre la version du modèle, vous pouvez utiliser le champ « ModerationModelVersion » dans la réponse de l'API.

Q : Comment m'assurer qu'Amazon Rekognition respecte les objectifs de précision de mon cas d'utilisation de modération d'images ou de vidéos ?

Les modèles de modération de contenu d'Amazon Rekognition sont configurés et testés intensément, mais nous vous recommandons d'évaluer leur exactitude sur vos propres ensembles de données pour déterminer leurs performances.

Vous pouvez utiliser le paramètre « MinConfidence » dans vos requêtes d'API afin d'atteindre un équilibre entre détection de contenu (rappel) et fiabilité de détection (précision). Si vous réduisez « MinConfidence », vous allez probablement détecter plus de contenu inapproprié, mais vous allez également récupérer du contenu qui n'est pas réellement inapproprié. Si vous augmentez « MinConfidence », tout le contenu détecté sera vraiment inapproprié, mais il est possible que certains contenus inappropriés ne soient pas détectés.

Q : Comment puis-je faire des commentaires pour améliorer les API Content Moderation de Rekognition ?

Envoyez-nous vos demandes via le service clientèle AWS. Amazon Rekognition détecte de plus en plus de types de contenus inappropriés grâce aux commentaires des clients. Veuillez noter que le contenu illégal (comme la pédopornographie) ne sera pas accepté par ce processus.

Analyse faciale

Q : Qu'est-ce que l'analyse faciale ?

L'analyse faciale est le processus de détection d'un visage dans une image et d'extraction de ses attributs faciaux essentiels. Amazon Rekognition Image renvoie la boîte de liaison pour chaque visage détecté dans une image avec des attributs comme le sexe, la présence de lunettes de soleil et les traits caractéristiques du visage. Rekognition Video renverra les visages détectés dans une vidéo avec un horodatage et, pour chaque visage détecté, la position et un cadre de délimitation, ainsi que les traits caractéristiques du visage.

Q : Quels sont les attributs faciaux pris en charge par Amazon Rekognition ?

Amazon Rekognition renvoie les attributs faciaux suivants pour chaque visage détecté, en plus d'un cadre de délimitation et d'un score de confiance pour chaque attribut :

  • Sexe
  • Sourire
  • Emotions
  • Lunettes de vue
  • Lunettes de soleil
  • Yeux ouverts
  • Bouche ouverte
  • Moustache
  • Barbe
  • Position
  • Qualité
  • Traits caractéristiques du visage

Q : Qu'est-ce que la position du visage ?

La position du visage désigne la rotation d'un visage détecté selon des axes de roulis, de tangage et de lacet. Chacun de ces paramètres est renvoyé en tant qu'angle, compris entre -180 et +180 degrés. La position du visage peut servir à déterminer l'orientation du cadre de délimitation du visage de forme polygone (plutôt que rectangulaire), à évaluer les déformations, à établir un suivi précis des visages, etc.

Q : Qu'est-ce que la qualité du visage ?

La qualité du visage désigne la qualité de l'image du visage détecté, établie à l'aide de deux paramètres : la netteté et la luminosité. Ces deux paramètres sont renvoyés sous la forme de valeurs comprises entre 0 et 1. Vous pouvez appliquer un seuil à ces paramètres pour trier les visages nets et bien éclairés. Cela peut être utile pour les applications qui nécessitent d'images de visage de haute qualité, par exemple en vue de la comparaison faciale ou de la reconnaissance faciale.

Q: Que sont les traits caractéristiques du visage ?

Les traits caractéristiques du visage désignent un ensemble de points saillants, en général localisés sur les coins, les bords et les points intermédiaires des principaux composants faciaux, tels que les yeux, le nez et la bouche. L'API DetectFaces d'Amazon Rekognition renvoie un ensemble de traits caractéristiques de visage et peut être utilisée pour rogner des visages, fusionner deux visages, appliquer des masques personnalisés pour créer des filtres personnalisés, etc.

Q : Combien de visages est-il possible de détecter dans une image ?

Vous pouvez détecter jusqu'à 100 visages dans une image à l'aide d'Amazon Rekognition.

Q : Qu'est-ce qui diffère dans l'analyse faciale pour l'analyse vidéo ?

Avec Rekognition Video, vous pouvez localiser des visages sur une vidéo et analyser les attributs faciaux, tels qu'un sourire, des yeux ouverts ou une émotion. Rekognition Video renverra les visages détectés avec des horodatages et, pour chaque visage détecté, la position et une boîte de liaison ainsi que des traits caractéristiques comme l'œil gauche ou droit et la commissure gauche ou droite des lèvres. Cette position et les informations de temps peuvent être utilisées pour suivre plus simplement le sentiment d'un utilisateur dans le temps et fournir une fonctionnalité supplémentaire comme des cadres de visage automatiques, des surbrillances ou des rognages. La recherche par utilisateur n'est pas prise en charge pour l'analyse vidéo.

Q : Outre la résolution vidéo, qu'est-ce qui peut affecter la qualité des API de Rekognition Video ?

En plus de la résolution vidéo, de la qualité et des visages représentatifs, une partie du répertoire de visages à rechercher peut influer. L'utilisation de plusieurs instances faciales par personne avec des variations comme une barbe, des lunettes, des positions (face ou profil) améliorera considérablement les performances. D'une manière générale, les personnes se déplaçant rapidement risquent de rencontrer un faible rappel. De plus, les vidéos floues peuvent également rencontrer une faible qualité.

Comparaison faciale

Q : Qu'est-ce que la comparaison faciale ?

La comparaison faciale désigne le processus de comparaison d'un visage avec un ou plusieurs autres visages afin d'en mesurer la similitude. À l'aide de l'API CompareFaces, Amazon Rekognition Image vous permet de déterminer la probabilité que deux images représentent le visage d'une même personne. L'API compare un visage dans l'image d'entrée source avec chaque visage détecté dans l'image d'entrée cible et renvoie un score de similitude pour chaque comparaison. Chaque visage détecté s'accompagne d'un cadre de délimitation et d'un score de confiance. Vous pouvez utiliser la comparaison faciale pour vérifier l'identité d'une personne par rapport à une photo enregistrée dans un fichier de personnel, et ce, quasiment en temps réel.

Q : Est-il possible d'utiliser une image source avec plusieurs visages ?

Oui. Si l'image source contient plusieurs visages, CompareFaces détecte le visage le plus grand et le compare avec chaque visage détecté dans l'image cible.

Q : Combien de visages est-il possible de comparer ?

Vous pouvez comparer un visage de l'image source avec 15 visages maximum détectés dans l'image cible.

Q : Qu'est-ce que la recherche faciale ?

La recherche faciale consiste à utiliser un visage de saisie pour rechercher des correspondances similaires dans une collection de visages enregistrés. Avec la recherche faciale, vous pouvez aisément créer des applications telles qu'une authentification multi‑facteurs pour les paiements bancaires, pour l'entrée automatique des employés dans des bâtiments, etc.

Q : Qu'est-ce qu'un répertoire d'images de visages et comment en créer un ?  

Une collection de visages est votre index consultable de vecteurs de visages, qui sont une représentation mathématique des visages. Rekognition ne stocke pas d'images de visages dans votre collection. A l'aide de l'API CreateCollection, vous pouvez facilement créer un répertoire dans une région AWS prise en charge et récupérer un Amazon Resource Name (ARN). Chaque répertoire d'images de visages est doté d'un CollectionId unique qui lui est associé.

Q : Comment ajouter des visages à une collection à des fins de recherche ?

Pour ajouter un visage à un répertoire d'images de visages existant, utilisez l'API IndexFaces. Cette API accepte une image sous la forme d'un objet S3 ou d'un tableau d'octets et ajoute une représentation vectorielle des visages détectés au répertoire d'images de visages. IndexFaces renvoie également un FaceId unique et un cadre de délimitation du visage pour chaque visage ajouté.

Plusieurs vecteurs faciaux d'une même personne peuvent être agrégés pour créer et stocker des vecteurs utilisateur à l'aide des API CreateUser et AssociateFaces. Les vecteurs utilisateur sont des représentations plus robustes que les vecteurs à face unique car ils contiennent plusieurs vecteurs de visage avec différents degrés d'éclairage, de netteté, de poses, de différences d'apparence, etc. La recherche faciale avec des vecteurs utilisateur peut améliorer la précision de manière significative par rapport à la recherche faciale avec des vecteurs à visage unique. Les vecteurs utilisateur sont stockés dans la même collection que les vecteurs faciaux associés.

Q : Comment supprimer des visages d'une collection ?

Pour supprimer un visage d'un répertoire d'images de visages existant, utilisez l'API DeleteFaces. Cette API agit sur le répertoire d'images de visages qui lui est fourni (à l'aide d'un CollectionId) et supprime les entrées correspondant à la liste des FaceId. Si le FaceID est associé à un vecteur utilisateur, vous devez d'abord utiliser l'appel d'API DisassociateFaces pour le supprimer du vecteur utilisateur. Vous pouvez également supprimer le vecteur utilisateur de la collection à l'aide de l'API DeleteUser.

Pour en savoir plus sur l'ajout et la suppression de visages, reportez-vous à notre exemple Gestion des répertoires.

Q : Comment rechercher un visage dans un répertoire d'images de visages ?

Une fois que vous avez créé des utilisateurs et des FaceID associés, vous pouvez effectuer une recherche à l'aide d'une image (SearchUsersByImage), d'un ID utilisateur (SearchUsers) ou d'un FaceID (SearchUsers). Ces API recueillent un visage d'entrée et renvoient un ensemble de visages correspondants, organisés selon des scores de similitude, classés par ordre croissant. Pour en savoir plus, reportez-vous à notre exemple Recherche d'utilisateurs.

Q : Comment rechercher un visage dans un répertoire de visages ?

Une fois que vous aurez créé un répertoire d'images de visages indexé, vous pourrez y rechercher des visages, en utilisant une image (SearchFaceByImage) ou un FaceId (SearchFaces). Ces API recueillent un visage d'entrée et renvoient un ensemble de visages correspondants, organisés selon des scores de similitude, classés par ordre croissant. Pour en savoir plus, reportez-vous à notre exemple Recherche faciale.

Q : En quoi la recherche faciale diffère-t-elle de l'analyse vidéo ?

Rekognition Video vous permet d'effectuer des recherches faciales en temps réel dans des répertoires de dizaines de millions de visages. Tout d'abord, créez un répertoire de visages dans lequel vous stockerez des visages, qui sont les représentations vectorielles de caractéristiques faciales. Rekognition recherche ensuite dans le répertoire de visages des visages visuellement semblables à ceux de votre vidéo. Rekognition renverra des scores de confiance pour chaque visage de votre vidéo afin que vous puissiez afficher les correspondances plausibles sur votre application. La recherche par utilisateur n'est pas prise en charge pour l'analyse vidéo.

Q : Outre la résolution vidéo, qu'est-ce qui peut affecter la qualité des API vidéo ?

En plus de la résolution vidéo, de la qualité et des visages représentatifs, une partie du répertoire de visages à rechercher peut influer. L'utilisation de plusieurs instances faciales par personne avec des variations comme une barbe, des lunettes, des positions (face ou profil) améliorera considérablement les performances. D'une manière générale, les personnes se déplaçant rapidement risquent de rencontrer un faible rappel. De plus, les vidéos floues peuvent également rencontrer une faible qualité.

Reconnaissance de célébrités

Q : Qu'est-ce que la reconnaissance de célébrités ?

La reconnaissance de célébrité Amazon Rekognition est une API conviviale basée sur le deep learning permettant de détecter et de reconnaître des personnes célèbres ou éminentes dans leur domaine. L'API RecognizeCelebrities a été créée pour être utilisée à haut niveau. Elle reconnaît des célébrités d'un grand nombre de domaines, tels que la politique, le Spot, l'économie, le divertissement et les médias. Notre fonction de reconnaissance de célébrités est idéale pour les clients ayant besoin d'indexer leurs bibliothèques d'images numériques et d'y effectuer des recherches afin de trouver des célébrités dans les domaines qui les intéressent.

Q : Qui est susceptible d'être identifié par l'API de reconnaissance de célébrités ?

Amazon Rekognition ne peut reconnaître que les célébrités que les modèles de deep learning ont appris à reconnaître. Notez que l'API RecognizeCelebrities n'est pas une autorité en matière de célébrités et n'est pas destinée à en être une liste exhaustive. Le but de cette fonction est d'inclure un maximum de célébrités en fonction des besoins et des commentaires de nos clients. Nous ajoutons de nouveaux noms en permanence, mais le fait que la reconnaissance de clébrité ne reconnaît pas certaines personnes considérées comme notables par d'autres groupes ou par nos clients ne reflète en rien notre opinion sur leur statut de célébrité. Si vous souhaitez que la reconnaissance de célébrités identifie d'autres célébrités, envoyez-nous un commentaire.

Q : Est-ce qu'une célébrité identifiée par l'API d'Amazon Rekognition peut demander à être retirée de la fonctionnalité ?

Oui. Si une célébrité souhaite être retirée de cette fonction, elle peut envoyer un e-mail au service clientèle AWS. Nous nous occuperons de la retirer.

Q : Quelles sont les sources prises en charge fournissant des informations supplémentaires sur les célébrités ?

L'API prend en charge une liste de sources optionnelles afin de fournir des informations supplémentaires sur les célébrités lors de la réponse de l'API. Pour le moment, nous fournissons le lien hypertexte d'IMDB lorsqu'il est disponible. Nous ajouterons peut-être d'autres sources plus tard.

Q : Qu'est-ce qui diffère dans la reconnaissance de célébrités pour l'analyse vidéo ?

Avec Rekognition Video, il est possible de détecter et reconnaître le moment et l'endroit où les personnalités connues apparaissent dans une vidéo. La sortie avec codage temporel comprend le nom et l'identifiant unique de la célébrité, les coordonnées de la boîte de liaison, le score de confiance et les URL renvoyant au contenu lié à la célébrité, par exemple, le lien vers sa page IMDB. La célébrité est également détectée, même si parfois le visage est caché dans la vidéo. Cette fonction vous permet d'indexer des bibliothèques vidéo numériques et d'y effectuer des recherches pour des cas d'utilisation liés à vos besoins multimédia et marketing propres.

Q : Outre la résolution vidéo, qu'est-ce qui peut affecter la qualité des API de Rekognition Video ?

Les célébrotés se déplaçant rapidement et les vidéos floues peuvent affecter la qualité des API de Rekognition Video. Par ailleurs, le port de maquillage important et de tenues de camouflage par les acteurs/actrices peut avoir une incidence sur la qualité.

Détection de texte

Q : À quoi sert la fonctionnalité Détection de texte ? 

La fonctionnalité Détection de texte, incluse à Amazon Rekognition, permet de détecter et d'identifier du texte sur une image ou une vidéo, comme des noms de rue, des légendes, des noms de produit ou des plaques d'immatriculation. Elle est spécialement conçue pour les images et vidéos réelles, et non celles tirées de documents. L'API DetectText d'Amazon Rekognition extrait le texte, puis le représente dans un encadré avec chaque chaîne de caractère détectée, accompagné d'un score de fiabilité. Dans les applications permettant d'accéder aux réseaux sociaux ou de partager des images, vous pouvez activer la recherche visuelle et, ainsi, identifier les images comportant ce même texte. Dans les applications de sécurité, vous pouvez identifier des véhicules à l'aide des numéros d'immatriculation provenant d'images prises par des radars. De manière similaire, avec les vidéos, les API StartTextDetection et GetTextDetection vous permettent de détecter du texte et d'obtenir un score de fiabilité, ainsi qu'un horodatage, lors de chaque détection. Dans les applications proposées par les médias ou destinées au divertissement, vous pouvez créer des métadonnées pour rechercher du contenu pertinent, comme des actualités, des résultats sportifs, des publicités et des légendes. En outre, vous pouvez examiner le texte détecté afin de vous assurer qu'il est conforme et légitime (en recherchant, par exemple, les adresses e-mail ou numéros de téléphone employé(e)s par des spammeurs).

Q : Quel type de texte la fonctionnalité Détection de texte d'Amazon Rekognition prend-elle en charge ?

La fonctionnalité Détection de texte est conçue pour fonctionner avec des images et vidéos réelles, et non celles tirées de documents. Elle prend en charge le texte de la plupart des scripts latins, ainsi que les nombres intégrés à une grande variété de mises en pages, polices et autres styles. À cela s'ajoute le texte superposé à des objets d'arrière-plan dans diverses orientations, comme des bannières et des affiches. Jusqu'à 50 séquences de caractères sont reconnues par image, et celles-ci sont répertoriées sous la forme de mots et de lignes. Enfin, le texte ayant fait l'objet d'une rotation entre -90 et 90 degrés au maximum, par rapport à l'axe horizontal, est compatible.

Q : Puis-je limiter la détection de texte à certaines zones d'une image ?

Oui. Vous pouvez utiliser les options de filtrage pour configurer jusqu'à 10 régions d'intérêt dans la requête d'API. Seul le texte inclus à celles-ci sera ensuite retourné par Amazon Rekognition. 

Q : Puis-je ajuster la détection de texte en fonction du score de fiabilité ou de l'encadré ?

Oui. Dans la requête d'API, vous pouvez utiliser les options de filtrage pour configurer des seuils minimaux applicables aux scores de fiabilité et aux dimensions des encadrés.

Q : Comment puis-je envoyer des commentaires à Rekognition afin d'améliorer la reconnaissance textuelle ?

Envoyez-nous vos demandes via le service clientèle AWS. Amazon Rekognition élargit continuellement les types de contenus textuels reconnus en fonction des commentaires des clients.

Détection des EPI

Q : Quel équipement de protection individuelle (EPI) Amazon Rekognition peut-il détecter ?

Amazon Rekognition « DetectProtectiveEquipment » peut détecter les types courants de couvre-visage, de couvre-mains et de couvre-chefs. Pour en savoir plus, veuillez vous référer à la documentation des fonctionnalités. Vous pouvez également utiliser Amazon Rekognition Custom Labels pour détecter les EPI tels que les gilets de haute visibilité, les lunettes de sécurité et autres EPI propres à votre entreprise. Pour savoir comment vous pouvez utiliser Amazon Rekognition Custom Labels pour la détection des EPI personnalisés, visitez ce référentiel github.

Q : Amazon Rekognition peut-il détecter des emplacements d'équipements de protection et renvoyer des cadres de délimitation ?

Oui, l'API "DetectProtectiveEquipment" d'Amazon Rekognition peut détecter l'emplacement d'équipements de protection tels que les couvre-visages, les couvre-mains et les couvre-chefs sur les personnes dans les images. Vous obtenez les coordonnées du rectangle de délimitation pour chaque équipement de protection détecté, ainsi qu'un score de confiance. Pour plus de détails sur la réponse de l'API, veuillez vous référer à la documentation.

Q : Le service peut-il détecter si le masque est porté correctement ?

La sortie de l'API « DetectProtectiveEquipment » d'Amazon Rekognition fournit la valeur « CoversBodyPart » (vrai/faux) et la valeur de confiance pour la valeur booléenne pour chaque élément d'équipement de protection détecté. Cela permet de savoir si l'équipement de protection se trouve sur la partie du corps correspondante de la personne. La prédiction de la présence de l'équipement de protection sur la partie du corps correspondante permet de filtrer les cas où l'EPI est dans l'image mais pas réellement sur la personne. Toutefois, elle n'indique ni n'implique que la personne est suffisamment protégée par l'équipement de protection ou que l'équipement de protection lui-même est correctement porté.

Q : La détection des EPI d'Amazon Rekognition permet-elle d'identifier les personnes détectées ?

Non, la détection des EPI d'Amazon Rekognition n'effectue pas de reconnaissance faciale ou de comparaison faciale et ne peut pas identifier les personnes détectées.

Q : Où puis-je trouver plus d'informations sur les limites et la latence de l'API ?

Veuillez vous référer à la documentation sur la détection des EPI d'Amazon Rekognition pour obtenir les derniers détails sur les limites et la latence de l'API.  

Q : Comment envoyer des images depuis les caméras de mon lieu de travail vers Amazon Rekognition ?

Vous disposez de plusieurs options pour prélever les images à partir des caméras de votre lieu de travail. Pour en savoir plus, veuillez consulter le blog de détection des EPI d'Amazon Rekognition.

Q : Quel est le prix de la détection des EPI ?

Le prix de la détection des EPI d'Amazon Rekognition par image est similaire à celui des autres API d'Amazon Rekognition Image. Pour en savoir plus, consultez la page de tarification Amazon Rekogntion.  

Amazon Rekognition Streaming Video Events

Q : Qu'est-ce qu'Amazon Rekognition Streaming Video Events ?
Amazon Rekognition Streaming Video Events utilise le machine learning pour détecter des objets dans les flux vidéo de caméras connectées pour produire des alertes exploitables en temps réel. Amazon Rekognition Streaming Video Events fonctionne avec vos flux vidéo Kinesis existants et nouveaux pour traiter les flux vidéo (jusqu'à 120 secondes par événement de mouvement) et vous informer dès qu'un objet d'intérêt est détecté. Vous pouvez utiliser ces notifications pour :

  • Envoyer des alertes intelligentes à vos utilisateurs finaux, par exemple « un colis a été détecté au niveau de la porte d'entrée. »
  • Fournir des fonctionnalités d'automatisation domestique comme « allumer la lumière du garage quand une personne est détectée. »
  • Les intégrer à des assistants intelligents tels que les appareils Echo pour fournir des annonces Alexa lorsqu'un objet est détecté.
  • Fournir des fonctionnalités de recherche intelligente, par exemple rechercher tous les extraits vidéo dans lesquels un colis a été détecté.

Q : Comment fonctionne Amazon Rekognition Streaming Video Events ?
Vous pouvez utiliser vos flux vidéo Kinesis actuels ou de nouveaux flux pour commencer à utiliser Amazon Rekognition Streaming Video Events. Lorsque vous configurez vos paramètres de traitement de flux pour Amazon Rekognition, vous pouvez choisir les étiquettes (personne, animal de compagnie, colis) que vous voulez détecter, la durée de la vidéo (jusqu'à 120 secondes par événement de mouvement) que Rekognition doit traiter pour chaque événement, et/ou la région d'intérêt dans le cadre à traiter avec Rekognition. Les API Rekognition Streaming Video Event ne traitent la vidéo que lorsque vous envoyez une notification à Rekognition pour lui demander de commencer à traiter le flux vidéo.

Lorsqu'un mouvement est détecté dans une caméra connectée, vous envoyez une notification à Rekognition pour qu'il commence à traiter le flux vidéo. Rekognition traite le flux vidéo Kinesis correspondant après la détection de mouvement, afin de rechercher les objets que vous aurez spécifiés. Dès qu'un objet d'intérêt est détecté, Amazon Rekognition vous envoie une notification. Cette notification inclut l'objet détecté, la zone de délimitation, l'image agrandie de l'objet et l'horodatage.

Q : Quelles sont les étiquettes prises en charge par Amazon Rekognition Streaming Video Events ?
Amazon Rekognition Streaming Video Events peut reconnaître les personnes, les animaux domestiques et les colis.

Q : Quels types d'animaux domestiques et de colis peuvent être détectés par les API Amazon Rekognition Streaming Video ?
Les API Amazon Rekognition Streaming Video Event prennent en charge la détection des chiens et des chats. L'API peut détecter les colis en carton de taille moyenne à grande avec un haut degré de précision. L'API détecte également les colis plus petits, les enveloppes à billes et les dossiers, mais il peut lui arriver de manquer certains de ces objets.

Q : Serai-je facturé séparément pour chacune des étiquettes détectées ? Puis-je choisir les étiquettes auxquelles je souhaite souscrire ?
Non, vous ne serez pas facturé séparément pour chacune des étiquettes. Vous serez facturé en fonction de la durée du flux vidéo traité par Rekognition. Vous pouvez souscrire à des étiquettes spécifiques (animaux de compagnie, colis) ou souscrire aux trois étiquettes (personnes, animaux de compagnie, colis) lorsque vous configurez vos paramètres de traitement.

Q : Dois-je diffuser continuellement la vidéo vers Amazon Rekognition ?
Non, vous n'avez pas besoin de diffuser continuellement la vidéo vers Amazon Rekognition.

Q : Dois-je créer de nouveaux flux Kinesis Video Streams (KVS) pour utiliser les Streaming Video Events ?
Amazon Rekognition Streaming Video Events fonctionne avec les flux vidéo Kinesis existants et nouveaux. Intégrez simplement les flux KVS concernés avec l'API Amazon Rekognition Streaming Video Events pour commencer l'analyse vidéo des flux KVS.

Q : Quand est-ce qu'Amazon Rekognition m'envoie une notification ?
Amazon Rekognition commence à traiter le flux vidéo après la détection du mouvement. Vous pouvez configurer la durée pour le traitement de ce flux vidéo (jusqu'à 120 secondes par événement). Dès qu'Amazon Rekognition détecte l'objet d'intérêt dans le flux vidéo, Rekognition vous envoie une notification. Cette notification inclut le type d'objet détecté, la zone de délimitation, l'image agrandie de l'objet détecté et l'horodatage.

Q : Quelle résolution et quelle fréquence d'images par seconde (fps) sont prises en charge pour la détection des étiquettes ?
Afin de maintenir à un niveau bas les coûts et la latence, Amazon Rekognition Streaming Video Events prend en charge les flux vidéo d'une résolution de 1 080 p ou moins. Rekognition traite les flux vidéos à 5 fps.

Q : Quels codecs et formats de fichiers sont pris en charge pour les flux vidéo ?
Amazon Rekognition Video prend en charge les fichiers H.264 au format MPEG-4 (.mp4) ou MOV.

Q : Quelle est la durée maximale de la vidéo traitée par événement ?
Vous pouvez traiter jusqu'à 120 secondes de vidéo par événement.

Q : Puis-je sélectionner une certaine partie du cadre à traiter dans mon flux vidéo ?
Oui, dans le cadre de la configuration de votre StreamProcessor, vous pouvez choisir la région que vous voulez traiter dans votre cadre. Amazon Rekognition ne traitera que cette région spécifique du cadre.

Q : Combien de flux vidéo simultanés puis-je traiter avec Amazon Rekognition ?
Amazon Rekognition Streaming Video Events peut prendre en charge jusqu'à 600 sessions simultanées par client AWS. Contactez votre gestionnaire de compte si vous souhaitez rehausser cette limite.

Analyse de vidéos archivées Amazon Rekognition

Q : Quels types d'entités la Vidéo Amazon Rekognition peut-elle détecter ?
La Vidéo Amazon Rekognition peut détecter des objets, des scènes, des points de repère, des visages, des célébrités, du texte et du contenu inapproprié dans les vidéos. Vous pouvez également rechercher les visages apparaissant dans une vidéo en utilisant votre propre référentiel ou ensemble d'images de visages.

Q : Quels types de formats de fichiers et de codecs sont pris en charge par Amazon Rekognition Video ?
Amazon Rekognition Video prend en charge les fichiers H.264 au format MPEG-4 (.mp4) ou MOV. Si vos fichiers vidéo utilisent un codec différent, vous pouvez les transcoder en H.264 en utilisant AWS Elemental MediaConvert.

Q : Comment fonctionnent les API asynchrones d'Amazon Rekognition Video ?
Amazon Rekognition Video peut traiter une vidéo stockée dans un compartiment Amazon S3. Vous pouvez utiliser un ensemble d'opérations asynchrones : vous lancez l'analyse vidéo en appelant une opération Start telle que StartLabelDetection pour détecter des objets et des scènes. L'état de finalisation de la demande est publié dans une rubrique Amazon Simple Notification Service (SNS). Pour récupérer l'état de finalisation de la rubrique Amazon SNS, vous pouvez utiliser une file d'attente Amazon Simple Queue Service (SQS) ou une fonction AWS Lambda. Une fois l'état de finalisation obtenu, vous appelez une opération de récupération comme GetLabelDetection pour obtenir les résultats de la demande. Pour obtenir la liste des API Amazon Rekognition Video disponibles, consultez cette page.

Q : Comment trouver la chronologie de chaque détection dans une vidéo ?
La Vidéo Amazon Rekognition renvoie des résultats d'étiquetage par horodatage ou par segments vidéo. Vous pouvez choisir la façon dont vous voulez organiser ces résultats en utilisant le paramètre d'entrée AggregateBy dans l'API GetLabelDetection. 

  • Lorsque les résultats des étiquettes sont organisés par horodatage, chaque étiquette sera retournée chaque fois que la Vidéo Amazon Rekognition détecte cette étiquette dans la chronologie de la vidéo. Par exemple, si « Chien » est détecté à 2000 ms et 4000 ms, la Vidéo Amazon Rekognition renverra deux entrées d'étiquette pour « Chien », une avec 2000 ms et une autre avec 4000 ms. 
  • Lorsque les résultats des étiquettes sont organisés par segments vidéo, la Vidéo Amazon Rekognition renvoie le segment vidéo pour lequel une étiquette est détectée sur plusieurs images consécutives. Un segment vidéo est défini par un horodatage de début, un horodatage de fin et une durée. Par exemple, si « Chien » est détecté dans 2 images consécutives à 2000 ms et 4000 ms, la Vidéo Amazon Rekognition renverra une entrée d'étiquette pour « Chien » avec un horodatage de début de 2000 ms, un horodatage de fin de 4000 ms et une durée de 2000 ms. 

Pour en savoir plus sur les horodateurs et les segments et voir un exemple de réponse API, consultez la page Détection des étiquettes dans une vidéo.

Q : Combien de tâches d'analyse vidéo simultanées puis-je effectuer avec la Vidéo Amazon Rekognition ?
Vous pouvez traiter jusqu'à 20 tâches simultanément avec Amazon Rekognition Video. Pour plus d'informations sur les limites, consultez notre page sur les limites.

Q : Quelle résolution vidéo dois-je utiliser ?
Amazon Rekognition Video gère automatiquement un large éventail de résolutions et de qualités vidéo. Nous recommandons d'utiliser une résolution de 720 p (1 280 × 720 pixels) à 1080 p (1 920 x 1 080 pixels), ou leur équivalent dans d'autres rapports d'aspect pour obtenir des résultats optimaux. Une très faible résolution (telle que QVGA ou 240 p) et des vidéos de très faible qualité peuvent nuire à la qualité des résultats.

Q : Qu'est-ce que le tracé du chemin de personnes
Avec Rekognition Video, vous pouvez trouver le chemin de chaque personne à travers la chronologie vidéo. Rekognition Video détecte des personnes même lorsque la caméra est en mouvement et renvoie pour chaque personne un cadre de délimitation et le visage, ainsi que les attributs faciaux et les horodatages. Pour les applications du secteur de la distribution, cela permet de générer des informations client, telles que la façon dont les clients se déplacent dans les allées d'un centre commercial ou le temps qu'ils passent à attendre en caisse.

Analyse de contenus multimédias avec Amazon Rekognition Video

Q : Quels types de segments d'analyse de contenus multimédias Amazon Rekognition Video peut-il détecter ?

Amazon Rekognition Video peut détecter les types de segments ou d'entités suivants pour l'analyse des contenus médias :

  • Images noires : les vidéos contiennent souvent des images noires vides de courte durée, sans son pour délimiter les emplacements d'insertion des publicités ou la fin d'un segment de programme comme une scène ou le générique de début. Avec Amazon Rekognition Video, vous pouvez détecter de telles séquences d'images noires pour automatiser l'insertion de publicités, conditionner le contenu pour la vidéo à la demande et délimiter divers segments ou scènes de programme. Les images noires avec audio (tels que les fondus ou les voix off) sont considérés comme du contenu et ne sont pas restitués.
  • Crédits : Amazon Rekognition Video vous permet d'identifier automatiquement les images au moment précis de l'affichage des crédits de début et des crédits de fin d'un film ou d'une émission télévisée. Ces informations vous permettent de générer des « marqueurs de binge » ou des invites interactives telles que « Épisode suivant » ou « Sauter l'introduction » dans les applications de vidéo à la demande. Amazon Rekognition Video est qualifié pour gérer une grande variété de styles de crédits de début et crédits de fin, allant du simple crédit déroulant à des crédits plus complexes accompagnant un contenu, des crédits sur des scènes ou stylés dans un contenu animé.
  • Plans : un plan est une série d'images consécutives liées entre elles, prises de manière contiguë par une seule caméra et représentant une action continue dans le temps et l'espace. Amazon Rekognition Video vous permet de détecter le début, la fin et la durée de chaque plan, ainsi que de dénombrer tous les plans d'un contenu. Les métadonnées des plans peuvent être utilisées pour des applications telles que la création de vidéos promotionnelles à partir de plans sélectionnés, la génération d'un ensemble de vignettes de prévisualisation qui évite les transitions entre les plans, et l'insertion de publicités dans des spots qui ne perturbent pas l'expérience du spectateur, comme au milieu d'un plan lorsque quelqu'un parle.
  • Barres de couleur : Amazon Rekognition Video vous permet de détecter les sections de vidéo qui affichent des barres de couleurs SMPTE ou EBU, à savoir un ensemble de couleurs affichées selon des motifs spécifiques pour s'assurer que la couleur est correctement calibrée sur les moniteurs de diffusion, les programmes et les caméras. Pour plus d'informations sur les barres de couleur SMPTE, consultez la Barre de couleur SMPTE. Ces métadonnées permettent de préparer le contenu pour les applications VOD en supprimant les segments de barres de couleur du contenu, ou de détecter des problèmes tels que la perte de signaux de diffusion dans un enregistrement, lorsque des barres de couleur sont affichées en continu comme signal par défaut au lieu du contenu.
  • Ardoises : les ardoises sont des sections, généralement au début d'une vidéo, qui contiennent des métadonnées textuelles sur l'épisode, le studio, le format vidéo, les canaux audio, entre autres. Amazon Rekognition peut identifier le début et la fin de ces ardoises, facilitant ainsi l'utilisation des métadonnées textuelles par les opérateurs ou la suppression pure et simple de l'ardoise lors de la préparation du contenu pour le visionnage final.
  • Logos de studio  : les logos de studio sont des séquences qui montrent les logos ou les emblèmes du studio de production impliqué dans la réalisation de l'émission. Amazon Rekognition peut identifier ces séquences, facilitant ainsi leur examen par les opérateurs pour identifier les studios.
  • Contenu : le contenu est la partie de l'émission télévisée ou du film qui contient le programme ou les éléments connexes. Les images noires, les crédits, les barres de couleur, les ardoises et les logos de studio ne font pas partie du contenu. Amazon Rekognition Video vous permet de détecter le début et la fin de chaque segment de contenu dans la vidéo, permettant ainsi de multiples utilisations telles que la recherche du temps d'exécution du programme ou la recherche de certains segments à des fins spécifiques. Un bref rappel de l'épisode précédent au début de la vidéo est un exemple de contenu. De même, un contenu supplémentaire peut apparaître après les crédits. Enfin, un contenu « sans texte » peut apparaître après la vidéo. Ce contenu est constitué de l'ensemble des programmes contenant du texte superposé, mais supprimé pour permettre l'internationalisation dans une autre langue. Une fois qu'Amazon Rekognition Video a détecté tous les segments de contenu, vous pouvez appliquer des connaissances spécifiques au domaine, telles que « mes vidéos commencent toujours par un récapitulatif », afin de catégoriser davantage chaque segment ou de les envoyer pour examen par un humain.

Amazon Rekognition Video indique le début, la fin, la durée et les codes temporels de chaque entité détectée, et propose des options d'horodatage (millisecondes), de code de format SMPTE et de numéro d'image pour chaque élément.

Q : Comment commencer l'analyse de contenus multimédias en utilisant Amazon Rekognition Video ?

Les fonctions d'analyse de contenus multimédias sont disponibles via l'API de détection de segment d'Amazon Rekognition Video. Il s'agit d'une API asynchrone composée de deux opérations : StartSegmentDetection pour lancer l'analyse, et GetSegmentDetection pour en obtenir les résultats. Pour démarrer, consultez la documentation.

Si vous souhaitez visualiser les résultats de l'analyse de contenus multimédias, voire essayer d'autres services Amazon IA comme Amazon Transcribe avec vos propres vidéos, veuillez utiliser l'application Media Insights – cadre sans serveur et application de démonstration pour générer facilement des idées et développer des applications pour vos ressources vidéo, audio, texte et image, en utilisant les services AWS Machine Learning et Media. Vous pouvez facilement créer votre propre application de démonstration à l'aide du modèle AWS CloudFormation fourni, pour tester vos propres vidéos et visualiser les résultats d'analyse.

Q : Qu'est qu'un code temporel précis d'images ?

Les codes temporels précis d'images fournissent le numéro exact de l'image pour un segment pertinent de la vidéo ou de l'entité. Les sociétés de médias traitent généralement les codes temporels en utilisant le format de la norme SMPTE (Society of Motion Picture and Television Engineers) heures:minutes:secondes:numéro d'image, par exemple, 00:24:53:22.

Q : La trame de détection des segments d'Amazon Rekognition Video est-elle précise ?

Oui. API de détection de segments vidéo d'Amazon Rekognition Video fournit des codes temporels SMPTE précis à l'image près, ainsi que des horodatages en millisecondes pour le début et la fin de chaque détection.

Q : Quels types de formats de fréquence d'images peuvent être gérés par la détection de segments vidéo d'Amazon Rekognition Video ?

La détection de segments vidéo d'Amazon Rekognition Video gère automatiquement les standards relatifs aux nombres entiers, aux fractions et aux temps réels pour des fréquences d'images comprises entre 15 et 60 fps. Par exemple, les fréquences d'images courantes telles que 23,976 fps, 25 fps, 29,97 fps et 30 fps sont prises en charge par la détection de segments. Les informations sur la fréquence d'images sont utilisées pour fournir des codes temporels précis dans chaque cas.

Q : Quelles options de filtrage puis-je appliquer ?

Vous pouvez indiquer la valeur minimale de confiance pour chaque type de segment au moment de la demande d'API. Par exemple, vous pouvez filtrer tout segment dont le score de confiance est inférieur à 70 %. Pour détecter les images noires, vous pouvez également contrôler la luminosité maximale du pixel que vous considérez comme un pixel noir, par exemple, une valeur de 40 pour une gamme de couleurs de 0 à 255. Il est également possible de contrôler le pourcentage de pixels d'une image qui doit répondre à ce critère de luminosité des pixels noirs pour que l'image soit classée comme une image noire, par exemple 99 %. Ces filtres vous autorisent à tenir compte de la qualité et des formats vidéo variés lors de la détection des images noires. Par exemple, les vidéos récupérées dans des archives à bandes peuvent être bruyantes et avoir un niveau de noir différent de celui d'une vidéo numérique moderne. Pour plus de détails, veuillez consulter cette page.

Facturation

Q : Comment Amazon Rekognition comptabilise-t-il le nombre d'images traitées ?

Concernant les API qui acceptent les images en tant qu'entrées, Amazon Rekognition comptabilise le nombre réel d'images analysées en tant que nombre d'images traitées. DetectLabels, DetectModerationLabels, DetectFaces, IndexFaces, RecognizeCelebrities, et SearchFaceByImage, et Image Properties entrent dans cette catégorie. Concernant l'API CompareFaces, avec laquelle deux images sont recueillies en tant qu'entrées, seule l'image source est comptée comme étant une image traitée.

Concernant les appels API qui ne requièrent pas d'image comme paramètre d''entrée, Amazon Rekognition compte chaque appel de l''API comme une image traitée. SearchFaces fait partie de cette catégorie.

Les autres API d'Amazon Rekognition, comme ListFaces, DeleteFaces, CreateCollection, DeleteCollection et ListCollections, ne sont pas comptabilisées dans les images traitées.

Q : Comment Amazon Rekognition comptabilise-t-il le nombre de minutes de vidéos traitées ?

Pour les vidéos archivées, Amazon Rekognition comptabilise les minutes de vidéo traitées avec succès par l'API et les mesure pour la facturation. Pour les vidéos en flux direct, vous êtes facturé par segments de cinq secondes de vidéo traités avec succès.

Q : Quelles API Amazon Rekognition sont payantes ?

Image Amazon Rekognition facture les API suivantes : DetectLabels, DetectModerationLabels, DetectText, DetectFaces, IndexFaces, RecognizeCelebrities, SearchFaceByImage, CompareFaces, SearchFaces et Image Properties. Les frais facturés avec Vidéo Amazon Rekognition, quant à eux, sont basés sur la durée en minutes des vidéos ayant été traitées avec succès par les API StartLabelDetection, StartFaceDetection, StartFaceDetection, StartTextDetection, StartContentModeration, StartPersonTracking, StartCelebrityRecognition, StartFaceSearch et StartStreamProcessor.

Q : Combien coûte Amazon Rekognition ?

Consultez la page de tarification d'Amazon Rekognition pour connaître les tarifs à jour.

Q : Serai-je facturé pour les vecteurs de caractéristiques que j'ai stockés dans mes répertoires d'images de visages ?

Oui. Amazon Rekognition facture 0,01 USD par lot de 1 000 vecteurs faciaux par mois. Pour en savoir plus, consultez la page sur la tarification.

Q : Amazon Rekognition fait-il partie de l'offre gratuite AWS ?

Oui. Dans le cadre du niveau d'offre gratuite d'AWS, vous pouvez commencer à utiliser Amazon Rekognition gratuitement. Au moment de leur inscription, les clients d'Amazon Rekognition peuvent analyser jusqu'à 5 000 images gratuitement chaque mois pendant les 12 premiers mois. Ce niveau gratuit vous permet d’utiliser toutes les API d’Amazon Rekognition, à l’exception des propriétés d'image, et de stocker gratuitement jusqu’à 1 000 visages. En outre, les clients Amazon Rekognition Video peuvent analyser 1 000 minutes de vidéo par mois gratuitement, pendant la première année.

Q : Vos prix incluent-ils les taxes ?

Pour obtenir des informations relatives à la fiscalité, consultez Aide sur les taxes Amazon Web Services.

Intégration à AWS

Q : Amazon Rekognition Video fonctionne-t-il avec les images stockées dans Amazon S3 ?

Oui. Vous pouvez commencer à analyser les images stockées dans Amazon S3 en pointant simplement l'API d'Amazon Rekognition vers votre compartiment S3. Vous n'avez pas besoin de transférer vos données. Pour en savoir plus sur l'utilisation des objets S3 avec les appels d'API d'Amazon Rekognition, reportez-vous à notre exercice de détection des étiquettes.

Q : Puis-je utiliser Amazon Rekognition avec des images stockées dans un compartiment Amazon S3 d'une autre région ?

Non. Assurez-vous que le compartiment Amazon S3 que vous souhaitez utiliser se trouve dans la même région que le point de terminaison de votre API Amazon Rekognition.

Q : Comment traiter plusieurs fichiers image dans un lot avec Amazon Rekognition ?

Vous pouvez traiter vos images Amazon S3 par lot en suivant les étapes indiquées dans notre exemple de traitement par lot Amazon Rekognition sur GitHub.

Q : Comment utiliser AWS Lambda avec Amazon Rekognition ?

Amazon Rekognition fournit un accès en toute transparence à AWS Lambda et vous permet d'intégrer une analyse d'images basée sur des déclencheurs à vos magasins de données, comme Amazon S3 et Amazon DynamoDB. Pour utiliser Amazon Rekognition avec AWS Lambda, veuillez suivre les étapes indiquées ici et sélectionner l'un des plans Amazon Rekognition disponibles.

Q : Est-ce qu'Amazon Rekognition fonctionne sur AWS CloudTrail ?

Oui. Amazon Rekognition prend en charge la journalisation des actions suivantes en tant qu'événements dans les fichiers journaux CloudTrail : CreateCollection, DeleteCollection, CreateStreamProcessor, DeleteStreamProcessor, DescribeStreamProcessor, ListStreamProcessors et ListCollections. Pour en savoir plus sur les appels d'API Amazon Rekognition intégrés à AWS CloudTrail, consultez la section Journalisation des appels d'API Amazon Rekognition avec AWS CloudTrail.

Confidentialité des données

Q : Les entrées image et vidéo traitées par Amazon Rekognition sont-elles stockées par AWS, et comment sont-elles utilisées ?

Amazon Rekognition peut stocker et utiliser des entrées image et vidéo traitées par le service uniquement pour fournir et entretenir le service et, sauf si vous refusez comme indiqué ci-dessous, pour améliorer et développer la qualité d'Amazon Rekognition et d'autres technologies de machine learning/d'intelligence artificielle d'Amazon. L'utilisation de votre contenu est important pour l'amélioration continue de votre expérience client sur Amazon Rekognition, y compris le développement et l'entretien des technologies associées. Nous n'utilisons pas les informations personnellement identifiables qui peuvent être présentes dans votre contenu pour proposer à vos utilisateurs finaux ou à vous-même des produits, des services ou du marketing ciblés. Votre confiance, ainsi que la confidentialité et la sécurité de votre contenu, sont notre priorité absolue. Nous implémentons des contrôles techniques et physiques appropriés et sophistiqués, notamment le chiffrement au repos et en transit, afin d'éviter l'accès non autorisé à votre contenu ou sa divulgation. Nous nous assurons également que notre utilisation respecte nos engagements à votre égard. Pour en savoir plus, consultez la page https://aws.amazon.com/fr/compliance/data-privacy-faq/. Vous pouvez utiliser une stratégie d'exclusion d'AWS Organizations pour refuser l'utilisation de vos entrées image et vidéo pour améliorer ou développer la qualité d'Amazon Rekognition et d'autres technologies de machine learning/intelligence artificielle d'Amazon. Pour en savoir plus sur comment vous exclure, consultez Gestion de la stratégie d'exclusion des services d'IA (Intelligence artificielle).

Q : Puis-je supprimer des entrées image et vidéo stockées par Amazon Rekognition ?

Oui. Vous pouvez demander la suppression des entrées image et vidéo associées à votre compte en contactant AWS Support. La suppression d'entrées image et vidéo peut dégrader votre expérience Amazon Rekognition.

Q : Qui a accès à mon contenu traité et stocké par Amazon Rekognition ?

Seul le personnel autorisé aura accès à votre contenu traité par Amazon Rekognition. Votre confiance, ainsi que la confidentialité et la sécurité de votre contenu, sont notre priorité absolue. Nous mettons en œuvre des contrôles techniques et physiques appropriés et sophistiqués, notamment le chiffrement au repos et en transit, afin d'éviter l'accès non autorisé à votre contenu ou sa divulgation. Nous nous assurons également que notre utilisation respecte nos engagements à votre égard. Pour en savoir plus, consultez la page https://aws.amazon.com/fr/compliance/data-privacy-faq/.

Q : Suis-je toujours propriétaire de mon contenu traité et stocké par Amazon Rekognition ?

Vous restez propriétaire de votre contenu et nous n'utiliserons ce dernier qu'avec votre consentement.

Q : Le contenu traité par Amazon Rekognition est-il déplacé hors de la région AWS dans laquelle j'utilise Amazon Rekognition ?

Tout contenu traité par Amazon Rekognition est chiffré et stocké au repos dans la région AWS dans laquelle vous utilisez Amazon Rekognition. À moins que vous ne refusiez, comme indiqué ci-dessous, certaines parties du contenu traité par Amazon Rekognition peuvent être stockées dans une autre région AWS uniquement en lien avec l'effort d'amélioration et de développement continus de votre expérience client Amazon Rekognition et d'autres technologies de machine-learning/intelligence artificielle d'Amazon. Vous pouvez demander la suppression des entrées image et vidéo associées à votre compte en contactant AWS Support. Votre confiance, ainsi que la confidentialité et la sécurité de votre contenu, sont notre priorité absolue. Nous mettons en œuvre des contrôles techniques et physiques appropriés et sophistiqués, notamment le chiffrement au repos et en transit, afin d'éviter l'accès non autorisé à votre contenu ou sa divulgation. Nous nous assurons également que notre utilisation respecte nos engagements à votre égard. Pour en savoir plus, consultez la page https://aws.amazon.com/fr/compliance/data-privacy-faq/. Votre contenu ne sera pas stocké dans une autre région AWS si vous refusez l'utilisation de votre contenu dans le but d'améliorer et de développer la qualité d'Amazon Rekognition et d'autres technologies de machine learning/intelligence artificielle d'Amazon. Pour en savoir plus sur comment vous exclure, consultez Gestion de la stratégie d'exclusion des services d'IA (Intelligence artificielle).

Q : Puis-je utiliser Amazon Rekognition sur des sites Web ou dans le cadre de programmes ou d'autres applications qui visent les enfants de moins de 13 ans (et qui sont donc concernés par le Children's Online Privacy Protection Act [COPPA]) ?

Oui. Si vous respectez les conditions de service d'Amazon Rekognition, notamment votre obligation de fournir tout avis requis et d'obtenir l'accord parental vérifiable nécessaire selon le COPPA, vous pouvez utiliser Amazon Rekognition dans le cadre de sites Web, de programmes et d'autres applications visant, entièrement ou partiellement, les enfants de moins de 13 ans.

Q : Comment puis-je déterminer si mon site Web, mon programme ou mon application sont concernés par le COPPA ?

For information about the requirements of COPPA and guidance for determining whether your website, program, or other application is subject to COPPA, please refer directly to the resources provided and maintained by the Federal Trade Commission des États-Unis. Ce site contient également des informations permettant de déterminer si un service vise, entièrement ou partiellement, les enfants de moins de 13 ans.

Q : Le service Amazon Rekognition est-il éligible HIPAA ?

Amazon Rekognition est un service éligible à la norme HIPAA couvert par AWS Business Associate Addendum (AWS BAA). Si vous avez un AWS BAA en vigueur, Amazon Rekognition utilisera, divulguera et entretiendra vos données de santé protégées (PHI) uniquement selon les modalités de votre AWS BAA.

Contrôle d'accès

Q : Comment contrôler l'accès des utilisateurs à Amazon Rekognition ?

Amazon Rekognition est intégré à AWS Identity and Access Management (IAM). Les stratégies AWS IAM peuvent être utilisées afin de s'assurer que seuls les utilisateurs autorisés ont accès aux API d'Amazon Rekognition. Pour en savoir plus, consultez la page Authentification et contrôle d'accès à Amazon Rekognition.

Signalement d'abus

Q : Comment puis-je signaler un abus potentiel d'Amazon Rekognition ?

Si vous suspectez qu'Amazon Rekognition fait l'objet d'une utilisation abusive ou illégale, ou qui porte atteinte à vos droits ou à ceux d'autres personnes, veuillez le signaler afin qu'AWS puisse se pencher sur le problème.

En savoir plus sur la tarification d'Amazon Rekognition

Visiter la page de tarification
Prêt à concevoir ?
Démarrez avec AWS Rekognition
D'autres questions ?
Contactez-nous