Qu'est-ce que la latence du réseau ?

La latence du réseau est le délai de communication réseau. Elle indique le temps nécessaire au transfert des données sur le réseau. Les réseaux avec un retard ou un décalage plus long ont une latence élevée, tandis que ceux qui ont des temps de réponse rapides ont une faible latence. Les entreprises préfèrent une faible latence et une communication réseau plus rapide pour une productivité accrue et des opérations commerciales plus efficaces. Certains types d'applications, tels que la dynamique des fluides et d'autres cas d'utilisation du calcul haute performance, nécessitent une faible latence du réseau pour répondre à leurs demandes de calcul. Les latences réseau élevées entraînent une dégradation des performances de l'application et une défaillance à des niveaux suffisamment élevés.

Pourquoi la latence est-elle importante ?

Alors que de plus en plus d'entreprises entreprennent une transformation numérique, elles utilisent des applications et des services basés sur le cloud pour effectuer des fonctions métier. Les opérations reposent également sur les données collectées à partir d'appareils intelligents connectés à Internet, appelés collectivement Internet des objets. Le décalage par rapport aux latences peut entraîner des inefficacités, en particulier dans les opérations en temps réel qui dépendent des données des capteurs. Une latence élevée réduit également les avantages de dépenser davantage en capacité réseau, ce qui affecte à la fois l'expérience utilisateur et la satisfaction des clients, même si les entreprises mettent en œuvre des circuits réseau coûteux.

Quelles applications nécessitent une faible latence du réseau ?

Bien que toutes les entreprises préfèrent une faible latence, elle est plus cruciale pour des secteurs et des applications spécifiques. Voici des exemples de cas d'utilisation. 

Applications d'analytique en continu

Les applications d'analytique en continu, telles que les enchères en temps réel, les paris en ligne et les jeux multijoueurs, consomment et analysent de grands volumes de données de streaming en temps réel provenant de diverses sources. Les utilisateurs de telles applications dépendent d'informations précises en temps réel pour prendre des décisions. Ils préfèrent un réseau à faible latence, car le décalage peut avoir des conséquences financières. 

Gestion des données en temps réel

Les applications d'entreprise fusionnent et optimisent souvent les données provenant de différentes sources, telles que d'autres logiciels, des bases de données transactionnelles, le cloud et des capteurs. Elles utilisent la technologie de capture des données modifiées (CDC) pour capturer et traiter les modifications de données en temps réel. Les problèmes de latence du réseau peuvent facilement interférer avec les performances de ces applications.

Intégration d'API

Deux systèmes informatiques différents communiquent entre eux à l'aide d'une interface de programmation d'applications (API). Souvent, le traitement du système s'arrête jusqu'à ce qu'une API renvoie une réponse. La latence du réseau crée donc des problèmes de performances des applications. Par exemple, un site web de réservation de vols utilisera un appel API pour obtenir des informations sur le nombre de sièges disponibles sur un vol spécifique. La latence du réseau peut avoir un impact sur les performances du site web et entraîner son arrêt. Au moment où le site web reçoit la réponse de l'API et redémarre, quelqu'un d'autre a peut-être réservé le billet et vous l'avez probablement raté. 

Opérations à distance axées sur la vidéo

Certains flux de travail, tels que les perceuses à colonne axées sur la vidéo, les caméras d'endoscopie et les drones pour la recherche et le sauvetage, nécessitent qu'un opérateur contrôle une machine à distance en utilisant la vidéo. Dans ces cas, les réseaux à latence élevée sont essentiels pour éviter des conséquences potentiellement mortelles.

Quelles sont les causes de la latence du réseau ?

Dans la terminologie des réseaux, un dispositif client et un serveur communiquent en utilisant un réseau informatique. Le client envoie des demandes de données et le serveur envoie des réponses de données. Une série de périphériques, tels que des routeurs, des commutateurs ou des pare-feux et des liaisons telles que des câbles ou des transmissions sans fil, constituent le réseau informatique. Sous la forme de petits paquets de données, les demandes de données et les réponses passent d'un appareil à un autre via des liaisons jusqu'à ce qu'elles atteignent leur destination. Les périphériques réseau, tels que les routeurs, les modems et les commutateurs, traitent et acheminent en continu les paquets de données sur différents chemins réseau constitués de fils, de câbles à fibres optiques ou de supports de transmission sans fil. Par conséquent, les opérations réseau sont complexes et divers facteurs influent sur la vitesse de déplacement des paquets de données. Les facteurs suivants sont courants à l'origine de la latence du réseau. 

Support de transmission

C'est le support de transmission ou la liaison qui a le plus d'impact sur la latence lorsque les données le traversent. Par exemple, un réseau à fibre optique a moins de latence qu'un réseau sans fil. De même, chaque fois que le réseau passe d'un support à un autre, il ajoute quelques millisecondes supplémentaires au temps de transmission global.

Distance parcourue par le trafic réseau

Les longues distances entre les points de terminaison du réseau augmentent la latence du réseau. Par exemple, si les serveurs d'applications sont géographiquement éloignés des utilisateurs finaux, ils peuvent subir une latence plus importante.

Nombre de sauts de réseau

Plusieurs routeurs intermédiaires augmentent le nombre de sauts requis par les paquets de données, ce qui entraîne une augmentation de la latence du réseau. Les fonctions des périphériques réseau, telles que le traitement des adresses de sites web et les recherches de tables de routage, augmentent également le temps de latence. 

Volume de données

Un volume de données simultanées élevé peut augmenter les problèmes de latence du réseau, car les périphériques réseau peuvent avoir une capacité de traitement limitée. C'est pourquoi une infrastructure réseau partagée, telle qu'Internet, peut augmenter la latence des applications.

Performances des serveurs

Les performances des serveurs d'applications peuvent créer une latence du réseau perçue. Dans ce cas, la communication des données est retardée, non pas en raison de problèmes de réseau, mais parce que les serveurs répondent lentement.

 

Comment mesurer la latence du réseau ?

Vous pouvez mesurer la latence du réseau en utilisant des métriques telles que le délai jusqu'au premier octet (Time to First Byte) et le temps aller-retour (Round Trip Time).  Vous pouvez utiliser n'importe laquelle de ces métriques pour surveiller et tester les réseaux.

Délai jusqu'au premier octet

Le délai jusqu'au premier octet (TTFB) enregistre le temps nécessaire au premier octet de données pour atteindre le client à partir du serveur après l'établissement de la connexion. Le TTFB dépend de deux facteurs :

  •  Le temps nécessaire au serveur web pour traiter la demande et créer une réponse
  •  Le temps nécessaire pour que la réponse soit renvoyée au client

Ainsi, le TTFB mesure à la fois le temps de traitement du serveur et le décalage du réseau.

Vous pouvez également mesurer la latence en tant que TTFB perçu, qui est plus long que le TTFB réel en raison du temps nécessaire à la machine client pour poursuivre le traitement de la réponse.

Temps aller-retour

Le temps aller-retour (RTT) est le temps nécessaire au client pour envoyer une demande et recevoir la réponse du serveur. La latence du réseau entraîne un délai aller-retour et augmente le RTT. Cependant, toutes les mesures du RTT par les outils de surveillance du réseau sont des indicateurs partiels, car les données peuvent circuler sur différents chemins du réseau tout en allant du client au serveur et vice versa. 

Commande ping

Les administrateurs réseau utilisent la commande ping pour déterminer le temps nécessaire pour que 32 octets de données atteignent leur destination et reçoivent une réponse de retour. C'est un moyen d'identifier la fiabilité d'une connexion. Cependant, vous ne pouvez pas utiliser la commande ping pour vérifier plusieurs chemins à partir de la même console ou réduire les problèmes de latence. 

Quels sont les autres types de latence ?

Un système informatique peut subir de nombreuses latences différentes, telles que la latence du disque, la latence de la fibre optique et la latence opérationnelle. Voici d'importants types de latence. 

Latence du disque

La latence du disque mesure le temps nécessaire à un dispositif de calcul pour lire et stocker des données. C'est la raison pour laquelle il peut y avoir des retards de stockage lors de l'écriture d'un grand nombre de fichiers au lieu d'un seul fichier volumineux. Par exemple, les disques durs présentent une latence de disque supérieure à celle des disques SSD.

Latence de la fibre optique

La latence de la fibre optique est le temps nécessaire à la lumière pour parcourir une certaine distance à travers un câble à fibre optique. À la vitesse de la lumière, une latence de 3,33 microsecondes se produit pour chaque kilomètre parcouru par la lumière dans l'espace. Cependant, dans les câbles à fibres optiques, chaque kilomètre provoque une latence de 4,9 microsecondes. La vitesse du réseau peut diminuer à chaque courbure ou imperfection du câble. 

Latence opérationnelle

La latence opérationnelle est le décalage dû aux opérations de calcul. C'est l'un des facteurs à l'origine de la latence du serveur. Lorsque les opérations s'exécutent les unes après les autres dans une séquence, vous pouvez calculer la latence opérationnelle comme la somme totale du temps nécessaire à chaque opération individuelle. Dans les flux de travail parallèles, l'opération la plus lente détermine le temps de latence opérationnel. 

Quels facteurs autres que la latence déterminent les performances du réseau ?

Outre la latence, vous pouvez mesurer les performances du réseau en termes de bande passante, de débit, d'instabilité et de perte de paquets. 

Bandwidth

La bande passante mesure le volume de données pouvant transiter par un réseau à un moment donné. Elle est mesurée en unités de données par seconde. Par exemple, un réseau avec une bande passante de 1 gigabit par seconde (Gbps) fonctionne souvent mieux qu'un réseau avec une bande passante de 10 mégabits par seconde (Mbps).

Comparaison entre la latence et la bande passante

Si vous considérez le réseau comme une conduite d'eau, la bande passante indique la largeur du tuyau et la latence est la vitesse à laquelle l'eau circule dans le tuyau. Bien qu'une bande passante réduite augmente la latence pendant les pics d'utilisation, une bande passante supérieure ne signifie pas nécessairement plus de données. En réalité, la latence peut réduire le retour sur investissement dans une infrastructure coûteuse à large bande passante. 

Débit

Le débit fait référence au volume moyen de données qui peut réellement transiter par le réseau pendant une période donnée. Il indique le nombre de paquets de données qui arrivent à destination avec succès et la perte de paquets de données.

Comparaison entre la latence et le débit

Le débit mesure l'impact de la latence sur la bande passante du réseau. Il indique la bande passante disponible après latence. Par exemple, la bande passante du réseau peut être de 100 Mbps, mais en raison de la latence, son débit n'est que de 50 Mbps le jour pour passer à 80 Mbps la nuit.

Instabilité

L'instabilité est la variation du délai entre la transmission des données et leur réception via une connexion réseau. Un délai constant est préféré aux variations de délai pour améliorer l'expérience utilisateur.

Comparaison entre la latence et l'instabilité

L'instabilité est la variation de la latence d'un réseau au fil du temps. La latence entraîne des retards dans les paquets de données circulant sur un réseau, mais une instabilité se produit lorsque ces paquets réseau arrivent dans un ordre différent de celui attendu par l'utilisateur.

Perte de paquets

La perte de paquets mesure le nombre de paquets de données qui n'atteignent jamais leur destination. Des facteurs tels que les bogues logiciels, les problèmes matériels et la congestion du réseau provoquent des pertes de paquets lors de la transmission des données.

Comparaison entre la latence et la perte de paquets

La latence mesure le délai d'arrivée d'un paquet à destination. Elle est mesurée en unités de temps, telles que les millisecondes. La perte de paquets est une valeur en pourcentage qui mesure le nombre de paquets qui ne sont jamais arrivés. Ainsi, si 91 paquets sur 100 sont arrivés, la perte de paquets est de 9 %.

Comment améliorer les problèmes de latence du réseau ?

Vous pouvez réduire la latence du réseau en optimisant à la fois votre réseau et le code de votre application. Voici quelques suggestions. 

Mettre à niveau l'infrastructure réseau

Vous pouvez mettre à niveau les périphériques réseau en utilisant le matériel, les logiciels et les options de configuration réseau les plus récents du marché. La maintenance régulière du réseau améliore le temps de traitement des paquets et contribue à réduire la latence du réseau. 

Surveiller les performances du réseau

Les outils de surveillance et de gestion du réseau peuvent exécuter des fonctions telles que des tests d'API fictifs et une analyse de l'expérience utilisateur final. Vous pouvez les utiliser pour vérifier la latence du réseau en temps réel et résoudre les problèmes de latence du réseau. 

Points de terminaison du réseau de groupe

Le sous-réseau est la méthode qui permet de regrouper les points de terminaison du réseau qui communiquent fréquemment entre eux. Un sous-réseau agit comme un réseau à l'intérieur d'un réseau pour minimiser les sauts de routeur inutiles et améliorer la latence du réseau.

Utiliser des méthodes de régulation du trafic

Vous pouvez améliorer la latence du réseau en hiérarchisant les paquets de données en fonction de leur type. Par exemple, vous pouvez faire en sorte que votre réseau achemine d'abord les applications prioritaires telles que les appels VoIP et le trafic du centre de données, tout en retardant d'autres types de trafic. Cela améliore la latence acceptable pour les processus métier critiques sur un réseau par ailleurs à latence élevée.

Réduire la distance du réseau

Vous pouvez améliorer l'expérience utilisateur en hébergeant vos serveurs et bases de données plus près du point de vue géographique de vos utilisateurs finaux. Par exemple, si votre marché cible est l'Italie, vous obtiendrez de meilleures performances en hébergeant vos serveurs en Italie ou en Europe plutôt qu'en Amérique du Nord. 

Réduire les sauts de réseau

Chaque saut effectué par un paquet de données lorsqu'il passe d'un routeur à l'autre augmente la latence du réseau. Habituellement, le trafic doit traverser plusieurs nœuds de l'Internet public, passant par des routes potentiellement congestionnées et non redondantes, pour atteindre votre destination. Cependant, vous pouvez utiliser des solutions cloud pour exécuter des applications plus près de leurs utilisateurs finaux afin de réduire à la fois la distance parcourue par les communications réseau et le nombre de sauts que fait le trafic réseau. Par exemple, vous pouvez utiliser AWS Global Accelerator pour intégrer le trafic sur le réseau mondial AWS le plus près possible de celui-ci, en utilisant le réseau redondant global AWS, afin d'améliorer la disponibilité et les performances de vos applications.

Comment AWS peut-il vous aider à réduire la latence ?

AWS propose un certain nombre de solutions visant à réduire la latence du réseau et à améliorer les performances pour une meilleure expérience de l'utilisateur final. Vous pouvez mettre en œuvre l'un des services suivants, en fonction de vos besoins.

  • AWS Direct Connect est un service cloud qui associe votre réseau directement à AWS afin de fournir une latence réseau plus constante et plus faible. Lors de la création d'une connexion, vous pouvez choisir une connexion hébergée fournie par un partenaire de livraison AWS Direct Connect, ou une connexion dédiée depuis AWS pour un déploiement sur plus de 100 points d'accès AWS Direct Connect à travers le monde.
  • Amazon CloudFront est un réseau de diffusion de contenu conçu pour des performances élevées, pour la sécurité et pour la simplicité de développement. Vous pouvez l'utiliser pour diffuser du contenu en toute sécurité avec une faible latence et des vitesses de transfert élevées.
  • AWS Global Accelerator est un service de mise en réseau qui vous permet d'obtenir jusqu'à 60 % de performances du trafic des utilisateurs en plus à travers l'infrastructure réseau mondiale d'AWS. Lorsque Internet est encombré, AWS Global Accelerator optimise le chemin vers votre application pour maintenir vos pertes de paquets, votre instabilité et votre latence à un niveau constamment bas.
  • Les AWS Local Zones sont un type de déploiement d'infrastructure qui rapproche les capacités de calcul, de stockage, de bases de données et certains autres services des zones de forte concentration de population et des grands centres industriels. Vous pouvez fournir des applications innovantes qui exigent une faible latence, plus près des utilisateurs finaux et sur des installations sur site.

Commencez à utiliser AWS Direct Connect en créant un compte AWS dès aujourd'hui. 

 

La latence dans AWS : prochaines étapes

Consultez d\’autres ressources concernant le produit
En savoir plus sur les services de réseaux informatiques 
Créer un compte gratuit

Obtenez un accès instantané à l'offre gratuite AWS. 

S'inscrire 
Commencer à créer sur la console

Commencez à créer avec AWS dans la Console de gestion AWS.

Se connecter