Latencia de videos en streaming en directo

¿Qué es la latencia en el streaming de videos en directo?

Supongamos que está viendo un partido de fútbol a través de un servicio de streaming de transmisión libre (OTT). Simultáneamente, su vecino de al lado está mirando el mismo partido con un servicio de televisión tradicional y celebra los goles y se desespera ante los penales que usted debe esperar otros 30 segundos para poder ver.

También puede suceder que mientras usted está mirando una competencia de talentos en directo, esperando cada vez con mayor ansiedad que se revele el ganador, cuando las actividades de las redes sociales (que normalmente generan los televidentes) arruinan la sorpresa 15 segundos antes de que usted pueda verla.

Para los espectadores, el mayor problema de la latencia de los videos es la frustración de mirar el momento después de que sucede. Con el transcurso del tiempo, estas frustraciones relacionadas con la latencia de los videos se transforman en problemas para los proveedores de contenido.

Cuando se trata de contenido en video en el que el tiempo es un factor importante (como noticias, partidos o eventos deportivos televisados, o contenido puramente de OTT, como espectáculos interactivos o deportes electrónicos), los espectadores esperan poder ver los eventos a medida que se desarrollan. En el mundo de los eventos de entretenimiento en tiempo real, los problemas de latencia en videos no se limitan a arruinar sorpresas, ya que si no se resuelven, afectan la confianza que los espectadores tienen en sus proveedores de contenido de OTT.

¿Qué provoca la latencia de los videos? Los factores, desde la cámara a la pantalla

Una serie de pasos en el proceso de pantalla a pantalla afecta la latencia en los videos:

  • La duración de la canalización de codificación de videos
  • Las operaciones de incorporación y empaquetado
  • La propagación en la red y el protocolo de transporte
  • La red de entrega de contenido (CDN)
  • La duración de los segmentos
  • Las políticas de los reproductores
               -Almacenamiento en búfer
               -Ubicación del cabezal de reproducción
               -Resiliencia
 
En el streaming con velocidad de bits adaptable tradicional, la latencia de los videos depende principalmente de la duración de los segmentos multimedia. Por ejemplo, si los segmentos multimedia duran seis segundos, su reproductor ya estará seis segundos demorado en relación con el tiempo absoluto real cuando solicite el primer segmento.
 
Además, cada segmento multimedia adicional que el reproductor almacene en búfer antes del inicio real de la reproducción aumentará el tiempo para llegar al primer fotograma de video decodificado.
 
Si bien muchos factores generan la latencia de los videos (la duración de la canalización de codificación del video, la duración de las operaciones de incorporación y empaquetado, las demoras en la propagación en la red y el almacenamiento en búfer en la CDN (si corresponde)) el reproductor mismo es un gran responsable de la latencia general de los videos.

Cómo medir la latencia de los videos

Si bien existen otros métodos, la manera más sencilla para medir la latencia total de un video es la siguiente:

  1. Utilice una tablet que ejecute una aplicación de claqueta
  2. Fílmela con una cámara conectada a su codificador de video
  3. Publique la secuencia del video en su origen
  4. Entréguela en su reproductor mediante una CDN
  5. Coloque el reproductor junto a la tablet con la aplicación de claqueta
  6. Tome una foto de ambas pantallas
  7. Realice la resta del código de tiempo y obtendrá el número que necesita

Cómo reducir la latencia de videos en el streaming en directo

Que la latencia de los videos de OTT se retrase en relación con las redes sociales y la televisión de transmisión directa no es lo único que preocupa a los proveedores de contenido. A continuación se describen algunos asuntos que deben considerarse a la hora de lograr una latencia menor:

Protocolo de mensajería en tiempo real (RTMP) y Flash: las aplicaciones basadas en Flash que usaban streaming mediante RTMP solían funcionar bien para lograr una latencia baja, pero con el desuso de Flash y la reducción de soporte creciente por parte de los navegadores web para los complementos o su bloqueo, las redes de entrega de contenido (CDN) también comenzaron a dejar de usar el RTMP (que ya tenía una escala limitada del lado de la entrega), lo que obligó a los proveedores de contenido a tomar acciones alternativas.

Escala y fiabilidad contra baja latencia: una opción que resuelve los problemas de escala consiste en adoptar tecnologías de streaming compatibles con HTML5, como HTTP Live Streaming (HLS), Dynamic Adaptive Streaming over HTTP (DASH o MPEG-DASH) y Common Media Application Format (CMAF).

Estas tecnologías de streaming realizan distribuciones a través de HTTP, lo que significa que la entrega se puede almacenar en caché y que las CDN pueden entregar grandes volúmenes con mayor eficiencia.

Sin embargo, como se logran escala y fiabilidad, se agregan decenas de segundos a los tiempos de entrega totales, favoreciendo la escala en detrimento de la baja latencia.

Características interactivas: otros proveedores de contenido pueden optar por desarrollar servicios de transmisión directa personales con características interactivas. Sin embargo, no se acepta una demora en la señal de video en estos casos de uso.

El motivo: si el video tiene una demora hasta 30 segundos desde el momento en el que se registra en una cámara al momento en el que se visualiza, la interactividad que necesita comentarios en tiempo real resulta imposible.

Además, quienes desean desarrollar aplicaciones de juegos de azar, videojuegos, visualizaciones en redes sociales y segundas pantallas sincronizadas necesitan controlar la latencia del streaming de videos de manera pormenorizada.

¿Cuál es un buen punto óptimo para la latencia de videos en el caso del streaming en directo?

La latencia de videos se puede clasificar en tres categorías diferentes, cada una definida por límites altos y bajos.

Niveles de latencia de videos

  Alta (segundos) Baja (segundos)
Latencia reducida 18 6
Latencia baja 6 2
Latencia ultrabaja 2 0,2

Sin embargo, si bien vale la pena conocer las diferencias entre la latencia de video reducida, la latencia de video baja y la latencia de video ultrabaja en relación con la latencia de video de transmisión directa, estas son un poco difíciles de explicar.

Seis segundos de latencia de video en transmisión directa es, con frecuencia, el valor promedio en el sector, lo que significa que el punto óptimo para la latencia de video de OTT se encuentra en alguna parte del rango menor de la categoría de latencia de video reducida o en el rango superior de la categoría de latencia baja. Acercarse a los cinco segundos maximiza las posibilidades de competir con actividades de redes sociales y la transmisión directa.

Además, en función de la ubicación del codificador de video de OTT en el flujo de trabajo de preparación del contenido, el objetivo de reducción de la latencia aumenta a medida que los codificadores se posicionan más abajo en la cadena.

Prácticas recomendadas para lograr videos con baja latencia en aplicaciones de streaming en directo

En líneas generales, estas son las principales acciones que debe implementar para lograr que su solución de streaming de videos ingrese a la categoría de baja latencia:

  • Medir la latencia de los videos en cada paso del flujo de trabajo
  • Optimizar la canalización de codificación de videos
  • Seleccionar la duración de segmentos correcta para sus requisitos
  • Crear la arquitectura correcta
  • Optimizar (o reemplazar) reproductores de videos

Cómo elegir el tamaño de segmento correcto para el empaquetado de videos

La duración del segmento que elija tendrá un efecto mecánico en la latencia de los videos en casi todos los reproductores. Por ejemplo, puede lograr una latencia de cinco segundos con segmentos que tengan una duración de un segundo. Si selecciona segmentos con una duración de dos segundos, el resultado será una latencia de video de entre siete y diez segundos, a menos que optimice los ajustes del reproductor.

La regla básica es elegir el tamaño correcto en función de sus requisitos. Por lo tanto, si una latencia de video de siete segundos o menos no es fundamental, elija segmentos de dos segundos.

Si su reproductor usa segmentos de dos segundos, eleve la duración de GOP de uno a dos segundos para incrementar la calidad de codificación a una velocidad de bits constante.

Además, si utiliza HLS como formato de incorporación, puede reducir el estrés en el almacenamiento de origen y el empaquetado de recursos informáticos mediante el uso de segmentos de dos segundos al momento de realizar incorporaciones.

Recuerde estos consejos y afirmaciones sobre la latencia de videos

  • La latencia de videos en streaming en directo no es un problema insuperable. Puede reducirla, con un poco de esfuerzo.
  • Las tecnologías DASH y HLS estándares permiten lograr una latencia baja a través de HTTP.
  • Latencia de video estándar actual para streaming en directo: menor a los 10 segundos.
  • Si su empresa lo necesita, es posible lograr una latencia de video estable de cuatro a cinco segundos.
  • El ecosistema CMAF fragmentado está evolucionando y pronto permitirá lograr una latencia de video estable menor a los cuatro segundos.

Demostración de streaming de videos en directo con latencia baja

Averigüe de qué manera puede lograr un streaming de videos estable, predecible y con baja latencia mediante el uso de los protocolos HLS o DASH. Además, obtenga información sobre las capacidades de alto rendimiento de la generación y el almacenamiento de videos en la nube con AWS en esta demostración de AWS Elemental MediaStore.

Demostración de streaming de videos en directo con latencia baja [3:13]

Introducción

Podemos ayudarlo a comenzar mediante una consulta a nuestro equipo de ventas y arquitectura, o bien puede empezar por su cuenta hoy mismo.