Videolatenz beim Live-Streaming

Was ist Latenz beim Live-Videostreaming?

Denken Sie nur, Sie sehen ein Fußballspiel, ausgestrahlt über Ihren Over-the-Top (OTT)-Streamingservice. Ihr Nachbar von nebenan sieht das gleiche Spiel im Fernsehen – und brüllt und feiert Tore oder schimpft über Fouls und Strafen, auf die Sie noch 30 Sekunden warten müssen.

Oder Sie sehen eine Live-Talent-Show, Ihre Spannung baut sich auf, und dann ruiniert Ihr Social Media-Feed – die ja meist von Fernsehzuschauern generiert werden – die Überraschung 15 Sekunden, bevor Sie sie selbst sehen können.

Eine der größten Enttäuschungen für Zuschauer ist es, den spannendsten Moment aufgrund der Videolatenz erst Sekunden später sehen zu können. Dieser Frust mit der Videolatenz wird sehr schnell zu einem Latenzproblem für Inhaltsprovider.

Spielt der Live-Charakter und damit die Zeit bei Videoinhalten eine Rolle – wie dies bei TV-Sports, Spielen oder reinen OTT-Inhalten wie E-Sports und interaktiven Shows der Fall ist – erwarten die Zuschauer die Videosequenz in dem Moment, in dem das Ereignis eintritt. In der Welt der Echtzeit- und Live-Unterhaltung ruinieren Latenzprobleme nicht nur die Überraschung. Werden sie nicht gelöst, beschädigen sie auch das Vertrauen der Zuschauer in ihre OTT-Inhaltsanbieter.

Wodurch entsteht Videolatenz? Die Faktoren – von Kamera zu Display

Auf der Glas-zu-Glas-Reise von Video beeinflussen verschiedene Faktoren die Videolatenz:

  • Dauer der Videokodierungspipeline
  • Einspeisungs- und Verpackungsvorgänge
  • Weiterleitung über das Netzwerk und Transportprotokoll
  • Content Delivery Network (CDN)
  • Segmentlänge
  • Player-Richtlinien
               – Pufferung
               – Playhead-Position
               – Resilienz
 
Beim herkömmlichen adaptiven Bitratenstreaming ergab sich die Videolatenz in erster Linie aus der Segmentlänge der Medien. Ist das Mediensegment beispielsweise sechs Sekunden lang, trifft das Segment gegenüber der tatsächlichen Absolutzeit, zu der das erste Segment angefordert wurde, bereits um sechs Sekunden verzögert beim Player ein.
 
Die Zeit zum ersten dekodierten Videoframe erhöht sich noch mit jedem weiteren Mediensegment, das der Player vor dem tatsächlichen Start der Wiedergabe puffert.
 
Auch wenn Videolatenz durch eine Vielzahl von Faktoren bedingt ist – die Dauer der Videokodierungspipeline und der Einspeisungs- und Verpackungsvorgänge, Verzögerungen in der Netzwerkweiterleitung und CDN-Pufferung (sofern angewendet) –, trägt der Player insgesamt einen großen Anteil an der Videolatenz.

Wie wird Videolatenz gemessen?

Es gibt zwar durchaus elegantere Methoden, am einfachsten messen Sie aber die End-to-End-Videolatenz wie folgt:

  1. Verwenden Sie ein Tablet mit einer Filmklappen-Anwendung.
  2. Filmen Sie eine Szene, wobei die Kamera an Ihrem Videokodierer angeschlossen ist.
  3. Veröffentlichen Sie den Videostream am Ursprung.
  4. Übertragen Sie das Video über ein CDN an Ihren Player.
  5. Stellen Sie den Player neben das Tablet mit der Filmklappe.
  6. Nehmen Sie ein Bild der beiden Bildschirme auf.
  7. Ziehen Sie die beiden Zeitcodes voneinander ab, und Sie haben den latenzbedingten Verzögerungswert.

Wie lässt sich Videolatenz beim Live-Streaming minimieren?

Dass die OTT-Videolatenz hinter der Latenz von TV-Sendungen und sozialen Medien hinterherhinkt, ist nicht die einzige Sorge von Inhaltsanbietern. Hier einige weitere Aspekte, die zur Erzielung niedriger Latenzen bedacht werden sollten:

Flash and Real-Time Messaging Protocol (RTMP): Flash-basierte Anwendungen mit RTMP-Streaming haben hinsichtlich Latenz ganz gut abgeschnitten. Da diese Technologie jedoch in die Jahre gekommen ist, und mehr und mehr Webbrowser ihre Flash-Unterstützung reduzieren oder das Plug-in blockieren, beginnen auch Content Delivery Networks (CDNs) – das auf Bereitstellungsseite ohnehin nur mäßig genutzte – RTMP aus dem Verkehr zu ziehen und zwingen Inhaltsanbieter somit zu alternativen Lösungen.

Volumen und Zuverlässigkeit oder niedrige Latenz: Eine Option, mit der Sie Volumenprobleme lösen, ist der Wechsel zu HTML5-freundlichen Streamingtechnologien wie HTTP Live Streaming (HLS), Dynamic Adaptive Streaming over HTTP (DASH oder MPEG-DASH) und das Common Media Application Format (CMAF).

Diese Streamingtechnologien streamen über HTTP, was bedeutet, dass die Bereitstellung im Cache zwischengespeichert werden kann, so dass CDNs größere Volumen effizienter übertragen können.

Wenn Sie aber sowohl Volumen als auch Zuverlässigkeit erreichen möchten, addieren sich zu Ihren End-to-End-Bereitstellungszeiten Verzögerungen im zweistelligen Sekundenbereich, was mit niedriger Latenz nichts mehr zu tun hat.

Interaktive Funktionen: Manch ein Inhaltsanbieter mag vielleicht persönliche Broadcast-Services mit interaktiven Services entwickeln. Für diese Anwendungsfälle ist eine Videosignalverzögerung im Allgemeinen nicht akzeptabel.

Der Grund ist offensichtlich: Wenn die Videowiedergabe ab der Aufnahme um bis zu 30 Sekunden verzögert wird, ist eine Interaktivität, für die eine Reaktion in Echtzeit erforderlich ist, faktisch unmöglich.

Wer ein synchronisiertes zweites Display, soziale Überwachung, Glücksspielanwendungen, Games oder dergleichen mehr anbieten möchte, muss die Latenz des Videostreamings genauer im Griff haben.

Was ist ein angemessener Optimalbereich für Videolatenz beim Live-Streaming?

Videolatenz lässt sich in drei Kategorien einteilen, deren Grenzen jeweils durch Maximal- und Minimalwerte definiert werden.

Videolatenzstufen

  Hoch (Sekunden) Niedrig (Sekunden)
Reduzierte Latenz 18 6
Niedrige Latenz 6 2
Extrem niedrige Latenz 2 0,2

Inwieweit sich reduzierte, niedrige und extrem niedrige Videolatenzen jedoch von einer Videolatenz in Senderqualität unterscheiden, ist durchaus wissenswert, wenn auch schwierig zu erklären.

Der Mittelwert von Sendern liegt meist bei einer Videolatenz von etwa sechs Sekunden. Das bedeutet, dass der Optimalpunkt für OTT-Videolatenz irgendwo im niedrigen Bereich der reduzierten Latenz oder im hohen Bereich der niedrigen Latenz liegt. Nahe an fünf Sekunden heranzukommen, erhöht also die Chancen, mit Sendern und sozialen Netzwerkfeeds konkurrieren zu können.

Je nach Position des OTT-Video-Encoders innerhalb des Inhaltsaufbereitungsworkflows erschwert sich zudem das Erreichen des Latenzreduktionsziels, umso mehr, je weiter abwärts in der Bereitstellungskette sich der Encoder befindet.

Bewährte Methoden zur Erreichung niedriger Videolatenzen bei Live-Streaming-Anwendungen

Sehr allgemein gefasst werden hier die wichtigsten Maßnahmen beschrieben, durch die Sie für Ihre Videostreaming-Lösung einen sehr niedrigen Latenzbereich erreichen:

  • Messen Sie die Videolatenz an jedem Schritt des Workflows.
  • Optimieren Sie die Videokodierungspipeline.
  • Passen Sie die Segmentdauer Ihren Anforderungen an.
  • Entwickeln Sie eine geeignete Architektur.
  • Optimieren (oder ersetzen) Sie Ihre Videoplayer.

Auswahl der richtigen Segmentgröße für Videopakete

Die von Ihnen gewählte Segmentdauer hat bei nahezu jedem Player eine mechanische Auswirkung auf die Videolatenz. Mit Segmenten von einer Dauer von einer Sekunde erreichen Sie vielleicht eine Videolatenz von fünf Sekunden. Bei einer Segementdauer von zwei Sekunden sind dies schon sieben bis zehn Sekunden Latenz – sofern Sie die Player-Einstellungen nicht optimieren.

Die Auswahl der "richtigen" Größe wird auch durch Ihre Anforderungen bestimmt. Wenn für Sie und Ihre Zuschauer eine Videolatenz von sieben Sekunden oder niedriger akzeptabel ist, wählen Sie Segmente mit zwei Sekunden.

Wenn Ihr Player 2-Sekunden-Segmente verwendet, erhöhen Sie die GOP-Länge von einer auf zwei Sekunden, um die Kodierungsqualität bei konstanter Bitrate zu verbessern.

Wenn Sie HLS als Einspeisungsformat verwenden, können Sie Ihren Urprungsspeicher und die Paketberechnung durch die Auswahl von 2-Sekunden-Segmenten für die Einspeisung zudem entlasten.

Merken Sie sich diese Fakten und Tipps zur Videolatenz

  • Die Videolatenz beim Live-Streaming ist kein unüberwindbares Problem. Mit ein wenig Aufwand können Sie sie minimieren.
  • HLS- und DASH-Standardtechnologien ermöglichen eine skalierbar niedrige Latenz über HTTP.
  • Der heutige Videolatenzstandard für Live-Streaming liegt bei unter 10 Sekunden.
  • Eine stabile Videolatenz von vier bis fünf Sekunden ist heute durchaus möglich, sofern Ihr Geschäft dies erfordert.
  • Das Chunked-CMAF-Ökosystem reift und wird bald eine stabile Videolatenz unter vier Sekunden ermöglichen.

Live-Videostreaming mit niedriger Latenz – Demo

In dieser AWS Elemental MediaStore-Demonstration erfahren Sie, wie Sie mit HLS- oder DASH-Standardprotokollen Videostreaming mit einer vorhersehbaren, stabilen und niedrigen Latenz erreichen. Außerdem lernen Sie hier die in AWS integrierten, hochleistungsfähigen Funktionen der Generierung und Speicherung von Videos in der Cloud kennen.

Live-Videostreaming mit niedriger Latenz – Demo [3:13]

Erste Schritte

Wir unterstützen Sie mit Beratung durch unsere Vertriebs- und Architekturorganisation, aber Sie können auch gleich heute mit einem Pilotprojekt beginnen.