¿Qué es la latencia de red?

La latencia de red es el retraso en la comunicación de la red. Muestra el tiempo que tardan los datos en transferirse a través de la red. Las redes con un mayor retraso o retardo tienen una latencia alta, mientras que las que tienen tiempos de respuesta rápidos tienen una baja. Las empresas prefieren una latencia baja y una comunicación de red más rápida para lograr una mayor productividad y operaciones comerciales más eficientes. Algunos tipos de aplicaciones, como la dinámica de fluidos y otros casos de uso de computación de alto rendimiento, requieren una latencia de red baja para mantenerse al día con sus demandas de computación. Las latencias de red altas hacen que el rendimiento de las aplicaciones se degrade y que se produzcan errores en niveles lo suficientemente altos.

¿Por qué es importante la latencia?

A medida que más empresas se someten a la transformación digital, utilizan aplicaciones y servicios basados en la nube para llevar a cabo funciones empresariales básicas. Las operaciones también se basan en los datos recopilados de dispositivos inteligentes conectados a Internet, lo que se conoce colectivamente como el Internet de las cosas. El tiempo de retraso de las latencias puede crear ineficiencias, especialmente en las operaciones en tiempo real que dependen de los datos de los sensores. La latencia alta también reduce los beneficios de gastar más en la capacidad de red, lo que afecta tanto a la experiencia del usuario como a la satisfacción del cliente, incluso si las empresas implementan circuitos de red caros.

¿Qué aplicaciones requieren una latencia de red baja?

Si bien todas las empresas prefieren una latencia baja, es más importante para las industrias y aplicaciones específicas. Estos son algunos ejemplos de casos de uso. 

Aplicaciones de análisis de streaming

Las aplicaciones de análisis de streaming, como las subastas en tiempo real, las apuestas en línea y los juegos multijugador, consumen y analizan grandes volúmenes de datos de streaming en tiempo real que provienen de varios orígenes. Los usuarios de estas aplicaciones dependen de información precisa y en tiempo real para tomar decisiones. Prefieren una red de baja latencia porque el retraso puede tener consecuencias financieras. 

Administración de datos en tiempo en tiempo real

Las aplicaciones empresariales a menudo combinan y optimizan datos de diversos orígenes, como otro software, bases de datos transaccionales, la nube y sensores. Utilizan la tecnología de captura de datos de cambio (CDC) para capturar y procesar los cambios de datos en tiempo real. Los problemas de latencia de red pueden interferir fácilmente con el rendimiento de estas aplicaciones.

Integración mediante API

Dos sistemas de computación diferentes se comunican entre sí con una interfaz de programación de aplicaciones (API). Muchas veces, el procesamiento del sistema se detiene hasta que una API devuelve una respuesta. La latencia de la red crea problemas de rendimiento en las aplicaciones. Por ejemplo, un sitio web de reserva de vuelos utilizará una llamada a la API para obtener información sobre la cantidad de asientos disponibles en un vuelo específico. La latencia de red puede afectar al rendimiento del sitio web y provocar que deje de funcionar. Para cuando el sitio web reciba la respuesta de la API y se reinicie, es posible que otra persona reserve el billete y el usuario se quede sin uno. 

Operaciones remotas con video

Algunos flujos de trabajo como las prensas perforadoras con video, las cámaras de endoscopia y los drones para búsqueda y rescate requieren que un operador controle una máquina de forma remota mediante video. En estos casos, las redes de latencia alta son cruciales para evitar consecuencias que pongan en peligro la vida.

¿Cuáles son las causas de la latencia de red?

En terminología de redes, un dispositivo cliente y un servidor se comunican mediante una red de computación. El cliente envía solicitudes de datos y el servidor envía respuestas de datos. Una serie de dispositivos (como enrutadores, conmutadores o cortafuegos) y enlaces (como cables o transmisión inalámbrica) conforman la red de computación. En forma de pequeños paquetes de datos, las solicitudes y respuestas de datos saltan de un dispositivo a otro a través de enlaces hasta que llegan a su destino. Los dispositivos de red, como enrutadores, módems y conmutadores, procesan y enrutan paquetes de datos de forma continua a través de diferentes rutas de red compuestas por cables comunes y de fibra óptica o medios de transmisión inalámbrica. Como resultado, las operaciones de red son complejas y varios factores afectan la velocidad de viaje de los paquetes de datos. Los siguientes son factores comunes que crean la latencia de red. 

Medio de transmisión

El medio de transmisión o enlace tiene el mayor impacto en la latencia a medida que los datos pasan a través de él. Por ejemplo, una red de fibra óptica tiene menos latencia que una inalámbrica. Del mismo modo, cada vez que la red cambia de un medio a otro, agrega algunos milisegundos adicionales al tiempo total de transmisión.

Distancia que recorre el tráfico de red

Las largas distancias entre los puntos de conexión de red aumentan la latencia de red. Por ejemplo, si los servidores de aplicaciones están geográficamente distantes de los usuarios finales, es posible que experimenten más latencia.

Número de saltos de red

Varios enrutadores intermedios aumentan la cantidad de saltos que requieren los paquetes de datos, lo que provoca un aumento en la latencia de red. Las funciones del dispositivo de red, como el procesamiento de direcciones de sitios web y las búsquedas de tablas de enrutamiento, también aumentan el tiempo de latencia. 

Volumen de datos

Un volumen de datos simultáneos alto puede aumentar los problemas de latencia de red porque los dispositivos de red pueden tener una capacidad de procesamiento limitada. Por eso, una infraestructura de red compartida, como Internet, puede aumentar la latencia de las aplicaciones.

Rendimiento del servidor

El rendimiento del servidor de aplicaciones puede generar latencia de red percibida. En este caso, la comunicación de datos se retrasa no por problemas de red, sino porque los servidores responden con lentitud.

 

¿Cómo se puede medir la latencia de la red?

Puede medir la latencia de la red mediante métricas como Tiempo hasta el primer byte y Tiempo de ida y vuelta.  Puede utilizar cualquiera de estas métricas para monitorear y probar las redes.

Tiempo hasta el primer byte

Tiempo hasta el primer byte (TTFB) registra el tiempo que tarda el primer byte de datos en llegar al cliente desde el servidor una vez establecida la conexión. El TTFB depende de dos factores:

  •  El tiempo que tarda el servidor web en procesar la solicitud y crear una respuesta
  •  El tiempo que tarda la respuesta en volver al cliente

Así, TTFB mide tanto el tiempo de procesamiento del servidor como el retraso de la red.

También puede medir la latencia como TTFB percibido, que es más largo que el TTFB real debido al tiempo que tarda la máquina cliente en procesar la respuesta.

Tiempo de ida y vuelta

El tiempo de ida y vuelta (RTT) es el tiempo que tarda el cliente en enviar una solicitud y recibir la respuesta del servidor. La latencia de la red provoca un retraso de ida y vuelta y aumenta el RTT. Sin embargo, todas las mediciones de RTT realizadas por las herramientas de monitoreo de red son indicadores parciales, ya que los datos pueden viajar a través de diferentes rutas de red mientras van del cliente al servidor y viceversa. 

Comando ping

Los administradores de red utilizan el comando ping para determinar el tiempo necesario para que 32 bytes de datos lleguen a su destino y reciban una respuesta de devolución. Es una forma de identificar la fiabilidad de una conexión. Sin embargo, no puede usar ping para comprobar varias rutas desde la misma consola o reducir los problemas de latencia. 

¿Cuáles son los otros tipos de latencia?

Un sistema de computación puede experimentar muchas latencias diferentes, como la de disco, de fibra óptica y la operativa. Los siguientes son tipos importantes de latencia. 

Latencia de disco

La latencia del disco mide el tiempo que tarda un dispositivo de computación en leer y almacenar datos. Es la razón por la que puede haber retrasos en el almacenamiento al escribir una gran cantidad de archivos en vez de un solo archivo grande. Por ejemplo, los discos duros tienen una latencia de disco mayor que las unidades de estado sólido.

Latencia de fibra óptica

La latencia de fibra óptica es el tiempo que tarda la luz en recorrer una distancia determinada a través de un cable de fibra óptica. A la velocidad de la luz, se produce una latencia de 3,33 microsegundos por cada kilómetro que la luz recorre en el espacio. Sin embargo, en el cable de fibra óptica, cada kilómetro provoca una latencia de 4,9 microsegundos. La velocidad de la red puede disminuir con cada curvatura o imperfección del cable. 

Latencia operativa

La latencia operativa es el retraso temporal provocado por las operaciones de computación. Es uno de los factores que causan la latencia del servidor. Cuando las operaciones se ejecutan una tras otra en una secuencia, puede calcular la latencia operativa como la suma total del tiempo que tarda cada operación individual. En los flujos de trabajo paralelos, la operación más lenta determina el tiempo de latencia operativa. 

¿Qué factores además de la latencia determinan el rendimiento de la red?

Además de la latencia, puede medir el rendimiento de la red en términos de ancho de banda, rendimiento, fluctuación y pérdida de paquetes. 

Ancho de banda

El ancho de banda mide el volumen de datos que puede pasar por una red en un momento dado. Se mide en unidades de datos por segundo. Por ejemplo, una red con un ancho de banda de 1 gigabit por segundo (Gbps) a menudo funciona mejor que una red con un ancho de banda de 10 megabits por segundo (Mbps).

Comparación de la latencia con el ancho de banda

Si piensa en la red como una tubería de agua, el ancho de banda indica el ancho de la tubería y la latencia es la velocidad a la que viaja el agua a través de ella. Si bien un ancho de banda menor aumenta la latencia durante los picos de uso, un ancho de banda mayor no implica necesariamente más datos. De hecho, la latencia puede reducir el retorno de la inversión en una infraestructura costosa y con un gran ancho de banda. 

el rendimiento

El rendimiento se refiere al volumen promedio de datos que realmente pueden pasar a través de la red durante un tiempo determinado. Indica tanto la cantidad de paquetes de datos que llegan correctamente a su destino como los que se pierden.

Comparación de la latencia con el rendimiento

El rendimiento mide el impacto de la latencia en el ancho de banda de la red. Indica el ancho de banda disponible después de la latencia. Por ejemplo, el ancho de banda de una red puede ser de 100 Mbps, pero debido a la latencia, su rendimiento puede disminuir a 50 Mbps en el día y aumentar a 80 Mbps por la noche.

Fluctuación

La fluctuación es la variación en el tiempo de retraso entre la transmisión de datos y su recepción a través de una conexión de red. Se prefiere que el retraso sea constante a que tenga variaciones, con el fin de obtener una mejor experiencia del usuario.

Comparación de la latencia con la fluctuación

La fluctuación es el cambio en la latencia de una red a lo largo del tiempo. La latencia provoca retrasos en los paquetes de datos que viajan por una red, pero se experimenta fluctuación cuando estos paquetes llegan en un orden diferente al esperado por el usuario.

Pérdida de paquetes

La pérdida de paquetes mide la cantidad de paquetes de datos que nunca llegan a su destino. Factores como los errores de software, los problemas de hardware y la congestión de la red provocan la pérdida de paquetes durante la transmisión de datos.

Comparación de la latencia con la pérdida de paquetes

La latencia mide el retraso en la llegada de un paquete al destino. Se mide en unidades de tiempo, como milisegundos. La pérdida de paquetes es un valor porcentual que mide la cantidad de paquetes que nunca llegaron su destino. Por lo tanto, si llegan 91 de cada 100 paquetes, la pérdida de paquetes es del 9 %.

¿Cómo puede mejorar los problemas de latencia de la red?

Puede reducir la latencia de red si optimiza tanto la red como el código de la aplicación. A continuación, se mencionan algunas sugerencias. 

Actualización de la infraestructura de red

Puede actualizar los dispositivos de red con las opciones de hardware, software y configuración de red más recientes del mercado. El mantenimiento regular de la red mejora el tiempo de procesamiento de paquetes y ayuda a reducir la latencia de red. 

Monitoreo del rendimiento de la red

Las herramientas de monitoreo y administración de redes pueden llevar a cabo funciones como pruebas de la API simuladas y análisis de la experiencia del usuario final. Puede utilizarlas para comprobar la latencia de red en tiempo real y solucionar problemas derivadas de ella. 

Puntos de conexión de red de grupo

La división en subredes es el método de agrupación de puntos de conexión de red que se comunican entre sí con frecuencia. Una subred actúa como una red dentro de una red para minimizar los saltos innecesarios del router y mejorar la latencia de la red.

Uso de métodos de modelado del tráfico

Puede mejorar la latencia de la red al priorizar los paquetes de datos en función del tipo. Por ejemplo, puede hacer que su red enrute primero las aplicaciones de alta prioridad, como las llamadas VoIP y el tráfico del centro de datos, mientras retrasa otros tipos de tráfico. Esto mejora la latencia aceptable de los procesos empresariales críticos en una red que de otro modo sería de latencia alta.

Reducción de la distancia de red

Puede mejorar la experiencia del usuario al alojar los servidores y bases de datos más cerca geográficamente de los usuarios finales. Por ejemplo, si el mercado objetivo es Italia, tendrá un mejor rendimiento si aloja los servidores en Italia o Europa y no en Norteamérica. 

Reducción de los saltos de red

Cada salto que hace un paquete de datos cuando se mueve de un enrutador a otro aumenta la latencia de la red. Por lo general, el tráfico debe atravesar varios pasos en la Internet pública, por rutas de red que probablemente estén congestionadas y no sean redundantes, hasta llegar al destino. Sin embargo, puede usar soluciones en la nube para ejecutar aplicaciones que estén más cerca de los usuarios finales como una forma de reducir la distancia que recorren las comunicaciones de red y la cantidad de saltos que hace el tráfico de la red. Por ejemplo, puede usar AWS Global Accelerator para incorporar el tráfico en la red global de AWS lo más cerca posible de los usuarios. Además, al utilizar la red redundante global de AWS ayudará a mejorar la disponibilidad y el rendimiento de sus aplicaciones.

¿Cómo puede a reducir la latencia con ayuda de AWS?

AWS cuenta con una serie de soluciones para reducir la latencia de la red y mejorar el rendimiento a fin de mejorar la experiencia del usuario final. Puede implementar cualquiera de los siguientes servicios, según sus necesidades.

  • AWS Direct Connect es un servicio de nube que conecta las redes directamente a AWS para ofrecer una latencia baja y más constante. Al crear una nueva conexión, puede elegir una conexión alojada proporcionada por un socio de entrega de AWS Direct Connect, u optar por una conexión exclusiva de AWS, y realizar el despliegue en más de 100 ubicaciones de AWS Direct Connect en todo el mundo.
  • Amazon CloudFront es un servicio de red de entrega de contenido creado para ofrecer un alto rendimiento, seguridad y comodidad para los desarrolladores. Puede usarlo para entregar contenidos de forma segura con baja latencia y alta velocidad de transferencia.
  • AWS Global Accelerator es un servicio de redes que mejora el rendimiento del tráfico de los usuarios hasta en un 60 % a través de la infraestructura global para redes de AWS. Cuando Internet se congestiona, AWS Global Accelerator optimiza la ruta de acceso a la aplicación para mantener un nivel bajo de pérdida de datos, fluctuaciones y latencia.
  • Zonas locales de AWS es un tipo de despliegue de infraestructura que pone la computación, el almacenamiento, las bases de datos y otros servicios selectos de AWS al alcance de grandes centros urbanos e industriales. Puede ofrecer aplicaciones innovadoras que requieran una latencia baja más cerca de los usuarios finales y las instalaciones locales.

Cree una cuenta de AWS y comience a utilizar AWS Direct Connect hoy mismo. 

 

Siguientes pasos de la latencia en AWS

Descubra otros recursos relacionados con el producto
Obtenga más información sobre los servicios de redes de ordenadores 
Regístrese para obtener una cuenta gratuita

Obtenga acceso inmediato al nivel Gratuito de AWS. 

Regístrese 
Comience a crear en la consola

Comience a crear con AWS en la consola de administración de AWS.

Iniciar sesión