Latence vidéo de streaming en direct

Qu’est-ce que la latence dans le streaming vidéo en direct ?

Supposons que vous regardiez un match de football via votre service de streaming over-the-top (OTT). Pendant ce temps, votre voisin d'à côté regarde le même match à la télévision traditionnelle et célèbre les buts et se plaint des pénalités de façon bruyante, mais il vous faut attendre 30 secondes pour les voir vous-même.

Ou peut-être regardez-vous un concours de talents en direct et anticipez la révélation du gagnant, lorsque soudain, vos flux de médias sociaux, typiquement générés par les téléspectateurs, gâchent la surprise 15 secondes avant la révélation.

Pour les téléspectateurs, le gros problème de la latence des vidéos est la frustration de voir un événement en retard. Au fil du temps, les frustrations liées à la latence vidéo chez les téléspectateurs se transforment en problèmes de latence vidéo chez les fournisseurs de contenu.

Avec des contenus vidéo sensibles au facteur temps - tels que les sports télévisés, les jeux et les actualités, ou des contenus OTT purs tels que les e-sports et les émissions interactives - les téléspectateurs s'attendent à regarder les événements au fur et à mesure qu'ils se déroulent. Dans le monde du divertissement en temps réel, les problèmes de latence vidéo ne gâchent pas simplement les surprises. S’ils ne sont pas résolus, ils nuisent à la confiance des utilisateurs envers leurs fournisseurs de contenu OTT.

Quelles sont les causes de la latence vidéo ? Les facteurs, de la caméra à l'affichage

Un certain nombre d’étapes du trajet d’un écran à un autre affectent la latence des vidéos :

  • Durée de pipeline d'encodage vidéo
  • Opérations d'ingestion et de mise en paquet
  • Protocole de propagation et de transport sur le réseau
  • Réseau de diffusion de contenu (CDN)
  • Longueur de segment
  • Politiques de lecteur
               -Mise en tampon
               -Positionnement de tête de lecteur
               -Résilience
 
Avec le streaming adaptatif au débit traditionnel, la latence des vidéos dépend principalement de la longueur du segment de média. Par exemple, si vos segments multimédia durent six secondes, votre lecteur présentera déjà six secondes de retard par rapport au temps absolu réel auquel il demande le premier segment.
 
De plus, chaque segment de média supplémentaire que le lecteur met en mémoire tampon avant le début réel de la lecture augmente le délai jusqu'à la première image vidéo décodée.
 
Bien que de nombreuses choses génèrent une latence vidéo (durée du pipeline de codage vidéo, durée des opérations d'ingestion et de mise en paquet, délais de propagation sur le réseau et mise en mémoire tampon du CDN (le cas échéant)), le lecteur lui-même supporte une grande part de la latence vidéo globale.

Comment mesurer la latence vidéo

Il existe d’autres méthodes, mais le moyen le plus simple de mesurer la latence vidéo de bout en bout est le suivant :

  1. Utilisez une tablette exécutant une application Clap
  2. Filmez-le avec une caméra connectée à votre encodeur vidéo.
  3. Publiez votre flux vidéo vers votre origine
  4. Livrez vers votre lecteur à travers un CDN
  5. Placez le lecteur à côté de la tablette Clap
  6. Prenez une photo des deux écrans
  7. Faites la soustraction de code temporel, et vous obtiendrez votre numéro

Comment minimiser la latence vidéo pour le streaming en direct

Le fait que la latence vidéo OTT est plus élevée que celle de la télévision et des médias sociaux n’est pas la seule préoccupation des fournisseurs de contenu. Voici quelques autres problèmes à prendre en compte pour atteindre une latence faible :

RTMP (Flash and Real-Time Messaging Protocol) : les applications basées sur Flash utilisant le streaming RTMP fonctionnaient bien pour une faible latence, mais avec l’obsolescence de Flash et la réduction du support ou le blocage du plug-in par les navigateurs Web, les Réseaux de diffusion de contenu (CDN) ont également commencé à déprécier le RTMP - qui avait déjà une échelle limitée du côté de la livraison - obligeant les fournisseurs de contenu à prendre des mesures alternatives.

La mise à l’échelle et la fiabilité comparés à la faible latence : une option qui permet de régler les problèmes d’échelle est le passage à des technologies de streaming adaptées au HTML5, comme HTTP Live Streaming (HLS), Dynamic Adaptive Streaming sur HTTP (DASH ou MPEG-DASH), et le format Common Media Application Format (CMAF).

Ces technologies de streaming se distribuent sur HTTP, ce qui signifie que la remise peut être mise en cache, et que les CDN peuvent fournir des volumes plus importants avec une plus grande efficacité.

Cependant, avec l’obtention de l’échelle et de la fiabilité, des délais de quelques dizaines de secondes s’ajoutent à la livraison de bout en bout, ce qui augmente la latence.

Fonctions interactives : d’autres fournisseurs de contenu peuvent choisir de développer des services de radiodiffusion personnels dotés de fonctions interactives. Cependant, un délai de signal vidéo n'est généralement pas acceptable pour ces cas d'utilisation.

Voici pourquoi : si la vidéo est retardée jusqu'à 30 secondes entre le moment où elle est capturée sur une caméra et l'heure à laquelle elle est visionnée, l’interactivité nécessitant un retour en temps réel est impossible.

En outre, ceux qui souhaitent développer des applications synchronisées de second écran, de surveillance sociale, de jeux ou de jeux de hasard doivent contrôler précisément la latence de de streaming vidéo en continu.

Qu'est-ce qu'une latence vidéo adéquate pour le streaming en direct ?

La latence vidéo peut être considérée en trois catégories distinctes, chacune définie par des limites supérieures et inférieures.

Niveaux de latence vidéo

  Élevée (secondes) Faible (secondes)
Latence réduite 18 6
Faible latence 6 2
Latence ultra-faible 2 0,2

Toutefois, il est intéressant de savoir comment la latence vidéo réduite, la latence vidéo faible et la latence vidéo ultra-faible diffèrent de la latence vidéo diffusée, même si cela est un peu difficile à expliquer.

La moyenne sur le terrain est souvent de six secondes de latence vidéo en streaming, ce qui signifie que la cible idéale pour la latence vidéo OTT se situe quelque part dans la plage inférieure de la catégorie de latence vidéo réduite ou dans la plage haute de la catégorie faible latence. En se rapprochant de cinq secondes, on maximise les chances de concurrence avec les flux de diffusion et les réseaux sociaux.

De plus, en fonction de l’emplacement du codeur vidéo OTT dans le flux de travail de préparation du contenu, l’objectif de réduction du temps de latence augmente à mesure que les codeurs se positionnent plus en aval dans la chaîne.

Meilleures pratiques pour obtenir une vidéo à faible temps de latence dans les applications de streaming en direct

Voici les principales actions à mener à bien pour faire de votre solution de streaming vidéo une solution à faible latence :

  • Mesurer la latence vidéo à chaque étape du flux de travail
  • Optimiser votre pipeline d'encodage vidéo
  • Choisir la durée de segment adaptée à vos besoins
  • Construire l'architecture appropriée
  • Optimiser (ou remplacer) vos lecteurs vidéo

Comment choisir la taille de segment appropriée pour la mise en paquet vidéo

La durée du segment que vous choisissez a un effet mécanique sur la latence vidéo de presque tous les lecteurs. Par exemple, vous pouvez obtenir une latence de cinq secondes avec des segments d'une durée d'une seconde. Choisissez des segments d’une durée de deux secondes, et le temps d’attente de la vidéo sera de sept à 10 secondes - à moins d’optimiser les paramètres du lecteur.

La règle fondamentale est de « bien dimensionner » en fonction de vos besoins. Par conséquent, si une latence vidéo de sept secondes ou moins n'est pas critique, choisissez des segments de deux secondes.

Si votre lecteur utilise des segments de deux secondes, augmentez la longueur du groupe d'images de une à deux secondes pour améliorer la qualité de l'encodage à débit constant.

De plus, si vous utilisez HLS comme format d'acquisition, vous pouvez réduire le stress sur le stockage de l'origine et le calcul d'empaquetage en utilisant des segments de deux secondes lors de l'acquisition.

Rappelez-vous ces faits et astuces sur la latence vidéo

  • La latence vidéo pour le streaming en direct n’est pas un problème insurmontable. Vous pouvez la minimiser avec quelques efforts
  • Les technologies HLS et DASH standard permettent une faible latence évolutive sur HTTP
  • Norme de latence vidéo actuelle pour le streaming en direct : moins de 10 secondes
  • Une latence vidéo stable de quatre à cinq secondes est désormais possible, si votre entreprise en a besoin
  • L’écosystème CMAF en bloc évolue et permettra bientôt une latence vidéo stable en moins de quatre secondes

Démo de streaming vidéo en direct à faible latence

Apprenez à réaliser un streaming vidéo prévisible et stable à faible latence à l'aide des protocoles HLS ou DASH standard, ainsi que les fonctionnalités hautes performances de création et de stockage de vidéos cloud intégrées à AWS dans cette démonstration AWS Elemental MediaStore.

Démo de streaming vidéo en direct à faible latence [3:13]

Mise en route

Nous pouvons vous aider à démarrer en vous proposant une consultation avec nos commerciaux et une revue d'architecture. Vous pouvez également commencer votre propre projet pilote dès aujourd'hui.