Questions d'ordre général

Q : Qu'est-ce qu'Amazon Kinesis Video Streams ?

Amazon Kinesis Video Streams facilite la diffusion sécurisée de vidéo depuis des appareils connectés vers AWS pour les analyses, l'apprentissage-machine et d'autres méthodes de traitement. Kinesis Video Streams alloue automatiquement et dimensionne de façon élastique toute l'infrastructure nécessaire pour ingérer des données de vidéo en streaming de plusieurs millions d'appareils. En outre, il stocke de façon durable, chiffre et indexe les données vidéo dans vos flux et vous permet d'accéder à vos données via des API simples à utiliser. Avec Kinesis Video Streams, vous pouvez créer rapidement des applications de vision par ordinateur et d'apprentissage-machine par le biais d'une intégration à Amazon Rekognition Video et à des bibliothèques pour les frameworks d'apprentissage-machine, comme Apache MxNet, TensorFlow et OpenCV.

Q : Que sont les données à horodatage ?

Les données à horodatage, ce sont toutes les données dans lesquelles les enregistrements sont en séries chronologiques, et chaque enregistrement est relié à la fois aux enregistrements précédents et aux suivants. Les vidéos sont un exemple de données à horodatage dans lesquelles chaque image est liée à la précédente et à la suivante par le biais de transformations spatiales. Parmi d'autres exemples, on peut citer les signaux audio, ainsi que les signaux de RADAR et de LIDAR. Le service Amazon Kinesis Video Streams est spécialement conçu pour l'ingestion et le stockage économiques et efficaces de tout type de données à horodatage pour les cas d'utilisation d'analyse et d'apprentissage machine.

Q : Quels sont les cas d'utilisation courants de Kinesis Video Streams ?

Kinesis Video Streams est idéal pour créer des applications ML équipées de la vision par ordinateur, qui deviennent monnaie courante dans une large gamme de cas d'utilisation, notamment les suivants :

Maison connectée

Avec Kinesis Video Streams, vous pouvez diffuser facilement des signaux vidéo et audio depuis des appareils domestiques équipés d'une caméra, comme des babyphones, des webcams et des systèmes de surveillance domestiques, vers AWS. Ces flux peuvent alors être exploités pour créer une variété d'applications de maison connectée, allant de la simple lecture de vidéo à l'éclairage intelligent, en passant par les climatiseurs et les solutions de sécurité.

Ville intelligente

De nombreuses villes ont installé un grand nombre de caméras actives 24 heures sur 24 sur des feux de signalisation et dans des parkings, des centres commerciaux et pratiquement tous les lieux publics. Vous pouvez utiliser Kinesis Video Streams pour ingérer, stocker et analyser de façon sécurisée et abordable ce très grand volume de données vidéo pour résoudre les problèmes de circulation routière, lutter contre la criminalité, envoyer des services de secours, etc.

Automatisation industrielle

Kinesis Video Streams peut être utilisé pour collecter une variété de données à horodatage, comme des signaux radar et lidar, des profils de température et des données de profondeur d'équipements industriels. Vous pouvez alors analyser les données à l'aide de votre framework d'apprentissage-machine préféré, comme Apache MxNet, TensorFlow ou OpenCV, pour des cas d'utilisation liés à l'automatisation industrielle tels que la maintenance prévisionnelle. Par exemple, il est possible de prédire la durée de vie d'un joint ou une soupape et de programmer à l'avance le remplacement de la pièce, afin de réduire les interruptions d'activité et les défauts sur la chaîne de production.

Q : Quelles opérations le service Amazon Kinesis Video Streams effectue-t-il à ma place ?

Amazon Kinesis Video Streams est un service d'importation et de stockage vidéo entièrement géré. Ce service vous permet d'ingérer, de traiter et de stocker des vidéos de façon sécurisée, à n'importe quelle échelle, pour les applications qui alimentent des robots, les villes intelligentes, l'automatisation industrielle, la surveillance de la sécurité, l'apprentissage machine et bien plus encore. Kinesis Video Streams ingère également d'autres types de données à horodatage comme les signaux audio, ainsi que les signaux de RADAR et de LIDAR. Kinesis Video Streams vous fournit des kits SDK que vous pouvez installer sur vos appareils pour faciliter la diffusion sécurisée de vidéos en streaming vers AWS. Kinesis Video Streams alloue automatiquement et dimensionne de façon extensible toute l'infrastructure nécessaire pour ingérer des flux vidéo provenant de plusieurs millions d'appareils. Le service stocke, chiffre et indexe de manière durable les flux vidéo et fournit des API simples à utiliser afin que les applications puissent accéder à des fragments vidéo indexés, et les récupérer, en fonction de balises et d'horodatages. Kinesis Video Streams fournit une bibliothèque permettant d'intégrer des infrastructures ML, telles qu'Apache MxNet, Tensorflow et OpenCV, à des flux vidéo afin de créer des applications d'apprentissage automatique. Kinesis Video Streams est intégré à Amazon Rekognition Video, ce qui vous permet de créer des applications de vision par ordinateur qui détectent des objets, des événements et des personnes.

Concepts clés

Q : Qu'est-ce qu'un flux vidéo ?

Un flux vidéo est une ressource qui vous permet de capturer des vidéos en direct et autres données à horodatage, éventuellement de les stocker, et de mettre ces données à disposition pour une consommation aussi bien en temps réel que sur la base d'un lot, ou ponctuellement. Lorsque vous choisissez de stocker des données dans le flux vidéo, Kinesis Video Streams les chiffre et génère un index temporel des données stockées. S'il est normalement configuré, un flux vidéo Kinesis ne possède qu'un seul producteur qui y publie des données. Le flux vidéo Kinesis peut être consommé par différentes applications qui traitent les contenus du flux vidéo.

Q : Qu'est-ce qu'un fragment ?

Un fragment est une séquence autonome d'images. Les images appartenant à un fragment ne doivent dépendre d'aucune autre image provenant d'autres fragments. À la réception des fragments, Kinesis Video Streams attribue à chacun d'entre eux un numéro de fragment unique, par ordre croissant. Il stocke également les horodatages côté producteur et côté serveur pour chaque fragment, en tant que métadonnées spécifiques à Kinesis Video Streams.

Q : Qu'est-ce qu'un producteur ?

Un producteur est un terme générique utilisé pour désigner un appareil ou une source qui envoie des données dans un flux vidéo Kinesis. Peut être producteur tout appareil capable de générer de la vidéo, comme une caméra de surveillance, portée sur le corps, de smartphone ou de tableau de bord. Un producteur peut également envoyer d'autres données à horodatage, telles que des supports audio, des images ou des données radar. Un producteur peut générer un ou plusieurs flux vidéo. Par exemple, une caméra vidéo peut envoyer des données vidéo dans un flux vidéo Kinesis et des données dans un autre.

Q : Qu'est-ce qu'un consommateur ?

Les consommateurs sont vos applications personnalisées qui consomment et traitent les données des flux vidéo Kinesis en temps réel, ou après que les données aient été stockées durablement et indexées dans le temps lorsqu'un traitement à faible latence n'est pas nécessaire. Vous pouvez créer ces applications de consommateurs pour qu'elles s'exécutent dans des instances Amazon EC2. Vous pouvez également utiliser d'autres services Amazon AI, comme Amazon Rekognition, ou des tiers fournisseurs d'analyses vidéo pour traiter vos flux vidéo.

Q : Qu'est-ce qu'un lot ?

Lors de la réception des données d'un producteur, Kinesis Video Streams stocke les données média reçues par lots. Chaque lot est constitué du fragment média en question, d'une copie des métadonnées média envoyées par le producteur, et des métadonnées propres à Kinesis Video Streams telles que le numéro de fragment et les horodatages côté serveur et côté producteur. Lorsqu'un consommateur demande des données par l'intermédiaire de l'opération API GetMedia, Kinesis Video Streams renvoie un flux de lots qui commence par le numéro de fragment que vous avez précisé lors de votre demande.

Q : Qu'en est-il de la latence dans Amazon Kinesis Video Streams ?

Quatre contributeurs sont essentiels à la latence dans un flux de données média complet.

  • Le temps passé dans le pipeline média du matériel de l'appareil : ce pipeline peut comprendre le capteur photographique, et autant d'encodeurs matériels que nécessaire. En théorie, cela peut être aussi court que la durée d'une trame unique. C'est rarement le cas en pratique. Pour encoder des médias avec efficacité (compression), tous les encodeurs accumulent plusieurs trames pour construire un fragment. Ce processus et tout algorithme de compensation de mouvement correspondant peut ajouter une à plusieurs seconde(s) de latence sur l'appareil avant que les données ne soient empaquetées à des fins de transmission.
  • Latence encourue par la transmission des données sur Internet : la qualité du débit et la latence du réseau peuvent varier de manière significative en fonction de l'endroit où se trouve l'appareil producteur.
  • Latence ajoutée par Kinesis Video Streams quand il reçoit des données de l'appareil producteur : les données entrantes sont immédiatement mises à disposition de toutes les applications de consommateurs sur l'opération API GetMedia. Si vous choisissez de conserver vos données, Kinesis Video Streams s'assure qu'elles soient chiffrées en utilisant AWS Key Management Service (AWS KMS), et génère un index temporel des fragments individuels du flux vidéo. Lorsque vous accédez à ces données conservées en utilisant l'API GetMediaforFragmentList, Kinesis Video Streams récupère les fragments à partir du stockage durable, décrypte les données et les met à disposition des applications de consommateurs.
  • Temps de latence lors de la retransmission des données au consommateur : des appareils consommateurs sur Internet ou dans d'autres régions AWS peuvent demander à accéder aux données média. La qualité du débit et la latence du réseau peuvent varier de manière significative en fonction de l'endroit où se trouve l'appareil producteur.

Pour finir, la console de gestion de Kinesis Video Streams récupère le type de média pris en charge au format H.264, l'empaquette pour qu'il convienne à différents navigateurs, et vous permet de lire les flux à des fins de développement ou de test.

Publication de données dans les flux

Q : Comment ajouter des données à mon flux vidéo Kinesis ?

Vous pouvez ajouter des données média à un flux vidéo Kinesis par l'intermédiaire de l'opération PutMedia, ou utiliser les kits SDK du producteur Kinesis Video Streams dans Java, C++ ou Android. Si vous décidez d'utiliser directement l'opération PutMedia, vous devrez empaqueter le flux média selon la spécification des données Kinesis Video Streams, gérer la création du flux, la rotation des ordres de paiement, et toute autre action nécessaire au streaming fiable des données média dans le cloud AWS. Nous vous recommandons d'utiliser les kits SDK du producteur pour faciliter ces tâches et démarrer plus rapidement.

Q : Qu'est-ce que l'opération PutMedia Kinesis Video Streams ?

Kinesis Video Streams propose une API PutMedia pour écrire des données média dans un flux vidéo Kinesis. Dans une demande PutMedia, le producteur envoie un flux de fragments média. À la réception des fragments, Kinesis Video Streams attribue à chacun d'entre eux un numéro de fragment unique, par ordre croissant. Il stocke également les horodatages côté producteur et côté serveur pour chaque fragment, en tant que métadonnées spécifiques à Kinesis Video Streams.

Q : En quoi consiste le kit SDK du producteur Kinesis Video Streams ?

Les kits SDK du producteur Amazon Kinesis Video Streams sont constitués d'un ensemble de bibliothèques extrêmement faciles à utiliser et à configurer, que vous pouvez installer et personnaliser en fonction de vos propres producteurs. Le kit SDK vous permet de créer facilement une application pour appareil qui se connecte en toute sécurité à un flux vidéo et ajoute efficacement des vidéos et d'autres données média à Kinesis Video Streams. Il s'occupe de toutes les tâches sous-jacentes nécessaires à l'empaquetage des trames et des fragments générés par le pipeline média de l'appareil. Le kit SDK gère également la création de flux, la rotation des ordres de paiement pour un streaming sécurisé et ininterrompu, les confirmations de traitement renvoyées par Kinesis Video Streams, ainsi que d'autres tâches.

Q : Sur quelles plates-formes de programmation le kit SDK du producteur Kinesis Video Streams est-il disponible ?

Le processeur du kit SDK du producteur Kinesis Video Streams est programmé en C, il est donc efficace et s'adapte à différentes plates-formes matérielles. La plupart des développeurs préfèrent utiliser les versions C++ ou Java du kit SDK du producteur Kinesis Video Streams. Il existe également une version Android du kit SDK du producteur pour les développeurs d'applications mobiles qui souhaitent diffuser des données vidéo depuis des appareils Android.

Q : Que dois-je savoir avant de démarrer avec le kit SDK du producteur Kinesis Video Streams ?

Le kit SDK du producteur Kinesis Video Streams fait le gros du travail en empaquetant les trames et les fragments, établit une connexion sécurisée et diffuse de la vidéo à AWS de manière fiable. Il y a cependant plusieurs variétés différentes d'appareils matériels et de pipelines média qui s'y exécutent. Pour faciliter le processus d'intégration avec le pipeline média, nous vous recommandons d'avoir quelques connaissances en ce qui concerne : 1) les limites des trames, 2) le type de trames utilisé pour les limites (iframe ou non), et 3) l'horodatage du codage des trames.

Lecture des données des flux

Q : Qu'est-ce que l'API GetMedia ?

Vous pouvez utiliser l'API GetMedia pour extraire du contenu média d'un flux vidéo Kinesis. Dans la demande, vous devez préciser le nom ou l'Amazon Resource Name (ARN) du flux et le lot de départ. Kinesis Video Streams vous fournit alors un flux de lots par ordre de numéro de fragment. Lorsque vous introduisez des données média (fragments) dans un flux, Kinesis Video Streams stocke chaque fragment entrant avec les métadonnées correspondantes dans un « lot ». L'API GetMedia vous fournit un flux de ces lots, en commençant par le lot spécifié dans votre demande.

Q : Qu'est-ce que l'API GetMediaForFragmentList ?

Vous pouvez utiliser l'API GetMediaForFragmentList pour extraire les données média pour une liste de fragments (définis par leur numéro de fragment) es données archivées dans un flux vidéo Kinesis. Habituellement, un appel de cette opération API est précédé d'un appel de l'API ListFragments.

Q : Qu'est-ce que l'API ListFragments ?

Vous pouvez utiliser l'API ListFragments pour renvoyer une liste de fragments d'un flux vidéo et d'un emplacement de départ précis (en utilisant le numéro de fragment ou les horodatages) dans les données conservées.

Q : Combien de temps puis-je stocker mes données dans Kinesis Video Streams ?

Vous pouvez stocker des données dans leur flux aussi longtemps que vous le souhaitez. Kinesis Video Streams vous permet de configurer la période de rétention des données pour qu'elle réponde à vos besoins en matière d'archivage et de stockage.

Q : Qu'est-ce que la bibliothèque d'analyseurs Kinesis Video Streams ?

Pour les développeurs, la bibliothèque d'analyseurs Kinesis Video Streams facilite la consommation et le traitement de la sortie de l'opération GetMedia de Kinesis Video Streams. Les développeurs d'applications ajoutent cette bibliothèque à leurs analyses vidéo et applications de traitement qui fonctionnent sur des flux vidéo. Les applications en tant que telles s'exécutent sur des instances EC2, même si elles peuvent aussi s'exécuter ailleurs. La librairie possède des fonctions qui facilitent l'obtention d'un objet au niveau de la trame et des métadonnées qui lui sont associées, et l'extraction et la collecte de métadonnées propres à Kinesis Video Streams et rattachées aux fragments et aux fragments consécutifs. Vous pouvez ensuite créer des applications personnalisées qui exploitent plus facilement les données vidéo brutes pour vos cas d'utilisation.

Q : Comment procéder si j'ai une application de traitement personnalisée qui a besoin d'utiliser les trames et les fragments contenus par le flux vidéo Kinesis ?

En général, si vous voulez consommer des flux vidéo puis les manipuler pour qu'ils s'adaptent à vos besoins d'application personnalisés, il faut réfléchir à deux étapes. Premièrement, rassemblez les octets dans une trame du flux formaté distribué par l'API GetMedia. Vous pouvez utiliser la bibliothèque d'analyseurs de flux pour obtenir les objets de la trame. Regroupez ensuite les métadonnées nécessaires au décodage d'une trame, telles que la hauteur et la largeur des pixels et l'ID et les données privées du codec. Ces métadonnées sont intégrées aux éléments de suivi. La bibliothèque d'analyseurs facilite l'extraction de ces informations en proposant des cours d'entraide pour collecter les informations de suivi d'un fragment.

À la suite de cela, les étapes dépendent grandement de l'application. Si vous souhaitez décoder les trames, formatez-les pour un moteur de lecture, transcodez-les pour en distribuer le contenu ou incorporez-les à un format d'application d'apprentissage approfondi personnalisée. La bibliothèque d'analyseurs de flux Kinesis Video Streams est un service libre, que vous pouvez donc étendre à tous vos cas d'utilisation spécifiques.

Lecture de vidéos à partir des flux

Q : Comment puis-je lire la vidéo capturée dans ma propre application ?

Vous pouvez utiliser la capacité HTTP Live Streams (HLS) d'Amazon Kinesis Video Streams pour lire la vidéo ingérée au format HLS. HLS est un protocole de streaming média HTTP standard de l'industrie. Lorsque vous capturez des vidéos à partir d'appareils utilisant Amazon Kinesis Video Streams, vous pouvez utiliser les API HLS pour lire des vidéos en direct ou enregistrées. Cette capacité est entièrement gérée, de sorte que vous n'avez pas besoin de construire une infrastructure cloud pour prendre en charge la lecture vidéo.

Q : Comment puis-je commencer à utiliser les API HLS de Kinesis Video Streams ?

Pour visualiser un flux vidéo Kinesis en utilisant HLS, vous devez d'abord créer une session de streaming en utilisant GetHLSStreamingSessionURL. Cette action renvoie une URL (contenant un jeton de session) pour accéder à la session HLS, que vous pouvez ensuite utiliser dans un lecteur multimédia ou une application autonome pour afficher le flux. Vous pouvez utiliser un lecteur tiers (tel que Video.js ou Google Shaka Player) pour afficher le flux vidéo, en fournissant l'URL de la session de streaming HLS, soit par programme, soit manuellement. Vous pouvez également lire la vidéo en entrant l'URL de la session de streaming HLS dans la barre de localisation des navigateurs Apple Safari ou Microsoft Edge. De plus, vous pouvez utiliser les lecteurs vidéo pour Android (Exoplayer) et iOS (AVMediaPlayer) pour les applications mobiles.


Q : Quelles sont les exigences de base pour utiliser les API HLS de Kinesis Video Streams ?

Un flux vidéo Amazon Kinesis a les exigences suivantes pour fournir des données par HLS :

  • Le type de média doit être vidéo/H.264.
  • Les fragments doivent contenir des données privées codecs dans l'AVC (Advanced Video Coding) pour le format H.264 (spécification MPEG-4 ISO/IEC 14496-15). Pour plus d'informations sur l'adaptation des données de flux à un format donné, voir Indicateurs d'adaptation NAL.
  • La rétention des données doit être supérieure à 0.

Les sessions HLS de Kinesis Video Streams contiennent des fragments sous la forme MPEG-4 fragmentée (également appelée fMP4 ou CMAF), plutôt que sous la forme MPEG-2 (également appelée TS chunks) que la spécification HLS supporte également. Pour plus d'informations sur les types de fragments HLS, voir la spécification HLS.

Q : Quels sont les modes de lecture disponibles pour le streaming HLS dans Kinesis Video Streams ?

Il existe deux modes de lecture différents : en direct et à la demande.

LIVE : pour les sessions en direct, la playlist des médias HLS est continuellement mise à jour avec les derniers fragments au fur et à mesure qu'ils deviennent disponibles. Lorsque ce type de session est lu dans un lecteur multimédia, l'interface utilisateur affiche généralement une notification « en direct », sans contrôle du programme de nettoyage pour choisir la position dans la fenêtre de lecture à afficher.

À LA DEMANDE : pour les médias à la demande, la playlist HLS contient tous les fragments de la session, jusqu'au nombre spécifié dans MaxMediaPlaylistFragmentResults. La playlist ne peut être récupérée qu'une seule fois pour chaque session.

Q : Quel est le délai de lecture de la vidéo à l'aide de l'API ?

La latence pour la lecture en direct est généralement comprise entre 3 et 5 secondes, mais cela peut varier. Nous vous recommandons fortement d'effectuer vos propres tests et démonstrations de faisabilité pour déterminer les latences cibles. Divers facteurs influent sur les latences, notamment le cas d'utilisation, la façon dont le producteur génère les fragments vidéo, la taille du fragment vidéo, la syntonisation du lecteur et les conditions du réseau, qu'il s'agisse de la diffusion en continu sur les SSFE ou hors des SSFE pour la lecture.

Q : Quelles sont les limites pertinentes à l'utilisation de cette capacité ?

Les restrictions suivantes s'appliquent aux sessions HLS dans Amazon Kinesis Video Streams :

  • L'URL d'une session de streaming ne doit pas être partagée entre les lecteurs. Le service peut limiter une session si plusieurs lecteurs multimédias la partagent. Pour les limites de connexion, voir Limites deKinesis Video Streams.
  • Un flux vidéo Kinesis peut avoir un maximum de cinq sessions de streaming HLS actives. Si une nouvelle session est créée alors que le nombre maximal de sessions est déjà actif, la session la plus ancienne (la plus anciennement créée) est fermée. Le nombre de connexions GetMedia actives sur un flux vidéo Kinesis ne compte pas dans cette limite, et le nombre de sessions HLS actives ne compte pas dans la limite de connexion GetMedia active.

Q : Quelle est la différence entre Kinesis Video Streams et AWS Elemental MediaLive ?

AWS Elemental MediaLive est un service d’encodage vidéo en direct de niveau professionnel. Le service vous permet de créer des flux vidéo de haute qualité en vue d'une diffusion sur les télévisions et les appareils multi-écran connectés à Internet, comme les télévisions connectées, les tablettes, les smartphones et les décodeurs TV. Le service fonctionne indépendamment ou en tant que partie intégrante d'AWS Media Services. &nbsp ;

Amazon Kinesis Video Streams facilite la diffusion sécurisée de vidéo en streaming vers AWS depuis des appareils connectés pour l'apprentissage automatique en temps réel et en traitement par lot, la lecture vidéo et l’analyse et d'autres méthodes de traitement. Il permet aux clients de construire des applications basées sur la vision automatique qui alimentent les maisons intelligentes, les villes intelligentes, l'automatisation industrielle, la surveillance de la sécurité, et plus encore.

Q : Suis-je facturé pour utiliser cette capacité ?

Kinesis Video Streams propose un système de tarification à l'utilisation très simple. Aucun investissement initial n'est nécessaire et vous payez uniquement pour les ressources que vous utilisez. La tarification de Kinesis Video Streams se base sur le volume des données ingérées (en Go), le volume des données consommées (en Go), y compris via les API HLS et les données stockées (en Go/mois) dans tous les flux vidéo de votre compte. Pour plus d'informations, consultez la page Tarification.

Console

Q : Qu'est-ce que la console de gestion de Kinesis Video Streams ?

La console de gestion de Kinesis Video Streams vous permet de créer, de mettre à jour, de gérer et de contrôler vos flux vidéo. Elle peut également lire vos flux média en direct ou à la demande, tant que le contenu des flux se trouve dans le type de média pris en charge. En utilisant les panneaux de contrôle, vous pouvez visualiser le flux en direct, avancer ou reculer de 10 secondes et utiliser le sélecteur de date et d'heure pour revenir à un moment passé une fois que vous avez fixé la période de rétention correspondante pour ce flux vidéo. Les capacités de lecture vidéo de la console de gestion de Kinesis Video Streams sont offertes en tant qu'outil de diagnostic rapide du développement et des scénarios de test à l'intention des développeurs qui créent des solutions à l'aide de Kinesis Video Streams.

Q : Quel type de média la console prend-t-elle en charge ?

Le seul type de média vidéo pris en charge pour la lecture avec la console de gestion de Kinesis Video Streams est le format populaire H.264. Ce format média est largement pris en charge par les appareils, les encodeurs matériels et logiciels et les moteurs de lecture. Bien que vous puissiez absorber tous types de données vidéo et audio, ou d'autres données à horodatage personnalisées pour vos propres applications de consommateurs et cas d'utilisation, la console de gestion ne lira pas ces autres types de données.

Q : Quel est le délai de lecture d'une vidéo sur la console de gestion de Kinesis Video Streams ?

Quand un producteur transmet des données vidéo au flux vidéo, la lecture en direct dans la console de gestion de Kinesis Video Streams peut accuser un retard de 2 à 10 secondes. La majeure partie de la latence est ajoutée par l'appareil producteur qui accumule les trames sous forme de fragments avant de transmettre les données par Internet. Une fois que les données pénètrent dans le point de terminaison de Kinesis Video Streams et que vous en demandez la lecture, la console extrait les fragments des types de média au format H.264 du stockage durable et empaquette les fragments dans un format média adapté à la lecture sur différents navigateurs Internet. Le contenu média empaqueté est ensuite transféré par Internet jusqu'à l'emplacement depuis lequel vous avec demandé la lecture.

Chiffrement

Q : Qu'est-ce que le chiffrement côté serveur pour Kinesis Video Streams ?

Le chiffrement côté serveur est une fonction de Kinesis Video Streams qui chiffre automatiquement les données avant qu'elles ne soient au repos en utilisant une clé principale client (CMK) AWS KMS que vous spécifiez. Les données sont chiffrées avant d'être écrites dans la couche de stockage de Kinesis Video Streams, et déchiffrées après avoir été extraites du stockage. De ce fait, vos données sont toujours chiffrées au repos dans le service Kinesis Video Streams.

Q : Comment démarrer avec le chiffrement côté serveur ?

Le chiffrement côté serveur est toujours activé sur les flux vidéo Kinesis. Si l'utilisateur ne fournit aucune clé spécifique lors de la création du flux, alors c'est la clé par défaut (fournie par Kinesis Video Streams) qui est utilisée.

Une clé principale AWS KMS fournie par l'utilisateur doit être attribuée à un flux Kinesis Video Streams lors de sa création. Il n'est pas possible d'utiliser l'API UpdateStream pour attribuer ultérieurement une clé différente à un flux.

Il existe deux manières d'attribuer une clé principale AWS KMS fournie par l'utilisateur à un flux vidéo Kinesis. Lorsque vous créez un flux vidéo Kinesis depuis la console, vous pouvez définir la clé principale AWS KMS dans la section Chiffrement de la page Créer un nouveau flux vidéo Kinesis. Sinon, vous pouvez créer un flux Kinesis Video Streams en utilisant l'API CreateStream et en spécifiant l'ID de la clé dans le paramètre KmsKeyId.

Q : Combien coûte l'utilisation du chiffrement côté serveur ?

Lorsque vous appliquez le chiffrement côté serveur, vous êtes assujetti à l'utilisation et aux principaux coûts de l'API AWS KMS. À la différence des clés principales personnalisées AWS KMS, la clé principale client (CMK) AWS/Kinesis Video (par défaut) est offerte gratuitement. Cependant, vous payez toujours les coûts d'utilisation de l'API que Kinesis Video Streams engage pour votre compte. Coûts d'utilisation des API pour chaque clé CMK, y compris les personnalisées. Le service Kinesis Video Streams appelle AWS KMS environ toutes les 45 minutes lorsqu'il fait tourner la clé de données. Sur un mois de 30 jours, le coût total des appels d'API d'AWS KMS initiés par un flux Kinesis Video Streams ne devrait pas dépasser quelques dollars. Ces coûts sont fonction du nombre d'informations d'identification des consommateurs que vous utilisez sur vos producteurs et consommateurs de données, car chaque information d'identification nécessite un appel d'API unique à AWS KMS.

Tarification et facturation

Q : Amazon Kinesis Video Streams est-il disponible dans le cadre de l'offre gratuite d'AWS ?

Non. Amazon Kinesis Video Streams n'est actuellement pas disponible dans le cadre de l'offre gratuite d'AWS.

Q : Combien coûte Kinesis Video Streams ?

Kinesis Video Streams propose un système de tarification à l'utilisation très simple. Aucun investissement initial n'est nécessaire et nous n'appliquons pas de frais minimum : vous payez uniquement pour les ressources que vous utilisez. La tarification de Kinesis Video Streams se base sur le volume des données ingérées (en Go), le volume des données consommées (en Go) et les données stockées (en Go/mois) dans tous les flux vidéo de votre compte.

En outre, Kinesis Video Streams facture uniquement les données média d'une taille minimum de 4 Go par lot qu'il reçoit avec succès. En comparaison, un échantillon audio de 64 kbit/s possède une taille de 8 Ko ; la taille minimum du lot est donc réglée à un niveau suffisamment bas pour s'adapter aux plus petits des flux audio ou vidéo.

Q : Quelle facturation Kinesis Video Streams applique-t-il aux données stockées dans les flux ?

Kinesis Video Streams vous facturera pour la quantité totale de données stockées durablement dans n'importe quel flux. La quantité totale de données stockées par flux vidéo peut être contrôlée à l'aide de périodes de rétention.

En savoir plus sur la tarification d'Amazon Kinesis Video Streams

Visiter la page de tarification
Prêt à vous lancer ?
S'inscrire
D'autres questions ?
Contactez-nous