Cos'è la latenza di rete?

La latenza di rete è il ritardo nella comunicazione di rete. e mostra il tempo impiegato dai dati per il trasferimento attraverso la rete. Le reti con un ritardo più lungo hanno una latenza elevata, mentre quelle con tempi di risposta rapidi hanno una latenza bassa. Le aziende preferiscono una latenza bassa e una comunicazione di rete più veloce per una maggiore produttività e operazioni aziendali più efficienti. Alcuni tipi di applicazioni, come la fluidodinamica e altri casi d'uso di calcolo ad alte prestazioni, richiedono una bassa latenza di rete per stare al passo con le esigenze di calcolo. Le latenze di rete elevate causano un peggioramento delle prestazioni dell'applicazione e il loro fallimento a livelli piuttosto elevati.

Perché la latenza è importante?

Man mano che sempre più aziende si sottopongono alla trasformazione digitale, utilizzano applicazioni e servizi basati sul cloud per eseguire funzioni aziendali di base. Le operazioni si basano anche sui dati raccolti da dispositivi intelligenti connessi a Internet, che nel loro insieme vengono chiamati Internet delle cose (IOT). Il tempo di ritardo dovuto alle latenze può creare inefficienze, specialmente nelle operazioni in tempo reale che dipendono dai dati dei sensori. L'elevata latenza riduce anche i vantaggi di spendere di più per la capacità di rete, il che influisce sia sull'esperienza utente sia sulla soddisfazione del cliente, anche se le aziende implementano costosi circuiti di rete.

Quali applicazioni richiedono una bassa latenza di rete?

Anche se tutte le aziende preferiscono una bassa latenza, è più cruciale per settori e applicazioni specifici. Di seguito sono riportati degli esempi di casi d'uso. 

Applicazioni di analisi streaming

Le applicazioni di analisi dello streaming, come aste in tempo reale, scommesse online e giochi multigiocatore, consumano e analizzano grandi volumi di dati in streaming in tempo reale da varie fonti. Gli utenti di tali applicazioni dipendono da informazioni accurate in tempo reale per prendere decisioni. Quindi, preferiscono una rete a bassa latenza perché il ritardo può avere conseguenze finanziarie. 

Gestione dati in tempo reale

Le applicazioni aziendali spesso uniscono e ottimizzano i dati provenienti da fonti diverse, come altri software, database transazionali, cloud e sensori. Inoltre, utilizzano la tecnologia di acquisizione dei dati di modifica (CDC) per acquisire ed elaborare le modifiche dei dati in tempo reale. I problemi di latenza di rete possono facilmente interferire con le prestazioni di queste applicazioni.

Integrazione API

Due diversi sistemi informatici comunicano tra loro utilizzando un'interfaccia di programmazione delle applicazioni (API). Molte volte l'elaborazione del sistema si interrompe finché un'API non restituisce una risposta. La latenza di rete crea quindi problemi alle prestazioni delle applicazioni. Ad esempio, un sito Web di prenotazione voli utilizzerà una chiamata API per ottenere informazioni sul numero di posti disponibili su un volo specifico. La latenza di rete potrebbe influire sulle prestazioni del sito Web, causandone l'interruzione del funzionamento. Quando il sito Web riceve la risposta API e si riavvia, magari qualcun altro ha prenotato il biglietto e tu l'hai perso. 

Operazioni remote abilitate per i video

Alcuni flussi di lavoro, come trapani a colonna abilitati per il video, telecamere endoscopiche e droni per la ricerca e il soccorso, richiedono che un operatore controlli la macchina da remoto utilizzando il video. In questi casi, le reti ad alta latenza sono fondamentali per evitare conseguenze pericolose o fatali.

Quali sono le cause della latenza di rete?

Nella terminologia della rete, un dispositivo client e un server comunicano utilizzando una rete di computer. Il client invia richieste di dati e il server invia risposte di dati. Una serie di dispositivi, come router, switch o firewall, e collegamenti, come cavi o trasmissioni wireless, costituiscono la rete di computer. Sotto forma di piccoli pacchetti di dati, le richieste e le risposte di dati passano da un dispositivo all'altro attraverso collegamenti fino a raggiungere la loro destinazione. I dispositivi di rete, come router, modem e switch, elaborano e instradano continuamente pacchetti di dati su diversi percorsi di rete costituiti da fili, cavi in fibra ottica o supporti di trasmissione wireless. Di conseguenza, le operazioni di rete sono complesse e ci sono vari fattori che influiscono sulla velocità del viaggio dei pacchetti di dati. Di seguito sono riportati i fattori comuni che creano la latenza di rete. 

Mezzo di trasmissione

Il mezzo o collegamento di trasmissione ha l'impatto maggiore sulla latenza man mano che i dati lo attraversano. Ad esempio, una rete in fibra ottica ha una latenza inferiore rispetto a una rete wireless. Allo stesso modo, ogni volta che passa da un mezzo all'altro, la rete aggiunge qualche millisecondo in più al tempo totale di trasmissione.

Distanza percorsa dal traffico di rete

Le lunghe distanze tra endpoint di rete aumentano la latenza di rete. Ad esempio, se i server delle applicazioni sono geograficamente distanti dagli utenti finali, potrebbero riscontrare una maggiore latenza.

Numero di salti della rete

Più router intermedi aumentano il numero di salti richiesti dai pacchetti di dati, con un conseguente aumento della latenza di rete. Anche le funzioni dei dispositivi di rete, come l'elaborazione degli indirizzi dei siti Web e le ricerche delle tabelle di routing, aumentano il tempo di latenza. 

Volume di dati

Un volume di dati simultaneo elevato può aumentare i problemi di latenza della rete perché i dispositivi di rete possono avere una capacità di elaborazione limitata. Ecco perché l'infrastruttura di rete condivisa, come Internet, può aumentare la latenza delle applicazioni.

Prestazioni del server

Le prestazioni del server delle applicazioni possono creare una latenza di rete percepita. In questo caso, la comunicazione dei dati viene ritardata non a causa di problemi di rete, ma perché i server rispondono lentamente.

 

Come si può misurare la latenza di rete?

È possibile misurare la latenza di rete utilizzando parametri quali Time to First Byte e Round Trip Time.  È possibile utilizzare uno di questi parametri per monitorare e testare le reti.

Time to First Byte

Il parametro TTFB (Time to First Byte) registra il tempo impiegato dal primo byte di dati per raggiungere il client dal server dopo aver stabilito la connessione. TTFB dipende da due fattori:

  •  Il tempo impiegato dal server Web per elaborare la richiesta e creare una risposta
  •  Il tempo necessario per restituire la risposta al client

Pertanto, TTFB misura sia il tempo di elaborazione del server che il ritardo di rete.

È inoltre possibile misurare la latenza come TTFB percepito, che è più lungo del TTFB effettivo a causa del tempo impiegato dalla macchina client per elaborare ulteriormente la risposta.

Round Trip Time

RTT (Round Trip Time) è il tempo impiegato dal client per inviare una richiesta e ricevere la risposta dal server. La latenza di rete causa un ritardo di andata e ritorno e aumenta il valore RTT. Tuttavia, tutte le misurazioni di RTT da parte degli strumenti di monitoraggio della rete sono indicatori parziali perché i dati possono viaggiare su diversi percorsi di rete mentre passano dal client al server e viceversa. 

Comando ping

Gli amministratori di rete utilizzano il comando ping per determinare il tempo necessario affinché 32 byte di dati raggiungano la destinazione e ricevano una risposta di ritorno. È un modo per identificare l'affidabilità di una connessione. Tuttavia, non è possibile utilizzare il comando ping per controllare più percorsi dalla stessa console o ridurre i problemi di latenza. 

Quali sono gli altri tipi di latenza?

Un sistema informatico può sperimentare molte latenze diverse, ad esempio latenza del disco, latenza della fibra ottica e latenza operativa. Quelli riportati di seguito sono tipi importanti di latenza. 

Latenza del disco

La latenza del disco misura il tempo impiegato da un dispositivo informatico per leggere e archiviare i dati. È il motivo per cui potrebbero verificarsi ritardi di archiviazione nella scrittura di un numero elevato di file anziché di un singolo file di grandi dimensioni. Ad esempio, i dischi rigidi hanno una latenza del disco maggiore rispetto a quelli a stato solido.

Latenza della fibra ottica

La latenza della fibra ottica è il tempo impiegato dalla luce per percorrere una determinata distanza attraverso un cavo in fibra ottica. Alla velocità della luce, si verifica una latenza di 3,33 microsecondi per ogni chilometro percorso dalla luce nello spazio. Tuttavia, nel cavo in fibra ottica, ogni chilometro causa una latenza di 4,9 microsecondi. La velocità di rete può diminuire con ogni curva o imperfezione del cavo. 

Latenza operativa

La latenza operativa è il ritardo dovuto alle operazioni di calcolo. È uno dei fattori che causano la latenza del server. Quando le operazioni vengono eseguite una dopo l'altra in sequenza, la latenza operativa può essere calcolata come somma totale del tempo impiegato da ogni singola operazione. Nei flussi di lavoro paralleli, l'operazione più lenta determina il tempo di latenza operativa. 

Quali fattori oltre alla latenza determinano le prestazioni della rete?

Oltre alla latenza, è possibile misurare le prestazioni della rete in termini di larghezza di banda, velocità di trasmissione effettiva, jitter e perdita di pacchetti. 

Larghezza di banda

La larghezza di banda misura il volume di dati che può passare attraverso una rete in un dato momento. Viene misurata in unità di dati al secondo. Ad esempio, una rete con una larghezza di banda di 1 gigabit al secondo (Gbps) spesso offre prestazioni migliori rispetto a una rete con una larghezza di banda di 10 megabit al secondo (Mbps).

Confronto tra latenza e larghezza di banda

Se pensiamo alla rete come a un tubo dell'acqua, la larghezza di banda indica la larghezza del tubo, mentre la latenza è la velocità con cui l'acqua viaggia nel tubo. Anche se una larghezza di banda minore aumenta la latenza durante i picchi di utilizzo, una larghezza di banda maggiore non significa necessariamente più dati. In effetti, la latenza può ridurre il ritorno sull'investimento in infrastrutture costose e a larghezza di banda elevata. 

Prestazioni

La velocità di trasmissione effettiva si riferisce al volume medio di dati che possono effettivamente passare attraverso la rete in un determinato periodo di tempo. Indica sostanzialmente il numero di pacchetti di dati che arrivano a destinazione con successo e la perdita di pacchetti di dati.

Confronto tra latenza e velocità di trasmissione effettiva

La velocità di trasmissione effettiva misura l'impatto della latenza sulla larghezza di banda della rete. e indica la larghezza di banda disponibile dopo la latenza. Ad esempio, la larghezza di banda della rete può essere di 100 Mbps, ma a causa della latenza, la sua velocità di trasmissione effettiva è di soli 50 Mbps durante il giorno e aumenta fino a 80 Mbps durante la notte.

Jitter

Il jitter è la variazione del ritardo tra la trasmissione dei dati e la loro ricezione su una connessione di rete. Per una migliore esperienza utente, è preferibile un ritardo costante piuttosto che variabile.

Confronto tra latenza e jitter

Il jitter è la variazione della latenza di una rete nel tempo. La latenza causa ritardi nei pacchetti di dati che viaggiano su una rete, ma il jitter si verifica quando questi pacchetti di rete arrivano in un ordine diverso da quello previsto dall'utente.

Perdita di pacchetti

La perdita di pacchetti misura il numero di pacchetti di dati che non raggiungono mai la loro destinazione. Fattori come bug del software, problemi hardware e congestione della rete causano la perdita di pacchetti durante la trasmissione dei dati.

Confronto tra latenza e perdita di pacchetti

La latenza misura il ritardo nell'arrivo di un pacchetto alla destinazione. Viene misurato in unità di tempo come i millisecondi. La perdita di pacchetti è un valore percentuale che misura il numero di pacchetti che non sono mai arrivati. Quindi, se sono arrivati 91 pacchetti su 100, la perdita di pacchetti è del 9%.

Come si possono migliorare i problemi di latenza di rete?

È possibile ridurre la latenza di rete ottimizzando sia la rete che il codice dell'applicazione. Ecco alcuni suggerimenti. 

Aggiorna l'infrastruttura di rete

È possibile aggiornare i dispositivi di rete utilizzando le più recenti opzioni di configurazione hardware, software e di rete disponibili sul mercato. La manutenzione regolare della rete migliora i tempi di elaborazione dei pacchetti e aiuta a ridurre la latenza di rete. 

Monitora le prestazioni di rete

Gli strumenti di monitoraggio e gestione della rete possono eseguire funzioni come test API simulati e analisi dell'esperienza dell'utente finale. È possibile utilizzarli per verificare la latenza di rete in tempo reale e risolvere i problemi di latenza di rete. 

Raggruppa gli endpoint di rete

Il raggruppamento in sottoreti è il metodo di raggruppamento degli endpoint di rete che comunicano frequentemente tra loro. All'interno di una rete, una sottorete funge da rete per ridurre al minimo i salti del router non necessari e migliorare la latenza.

Utilizza i metodi di traffic shaping

È possibile migliorare la latenza di rete assegnando la priorità ai pacchetti di dati in base al tipo. Ad esempio, puoi fare in modo che la tua rete instradi prima le applicazioni ad alta priorità come le chiamate VoIP e il traffico del data center ritardando altri tipi di traffico. Questo migliora la latenza accettabile per i processi aziendali fondamentali su una rete altrimenti a latenza elevata.

Riduci la distanza di rete

È possibile migliorare l'esperienza utente con l'hosting dei server e dei database geograficamente più vicini agli utenti finali. Ad esempio, se il tuo mercato di riferimento è l'Italia, otterrai prestazioni migliori ospitando i tuoi server in Italia o in Europa invece che in Nord America. 

Riduci i salti della rete

Ogni salto effettuato da un pacchetto di dati mentre si sposta da un router all'altro aumenta la latenza di rete. Tipicamente, il traffico deve compiere molteplici salti attraverso la rete Internet pubblica, superando dei percorsi di rete potenzialmente congestionati e non ridondanti, prima di raggiungere la destinazione. Tuttavia, è possibile utilizzare le soluzioni cloud per eseguire applicazioni più vicine agli utenti finali come mezzo per ridurre sia la distanza percorsa dalle comunicazioni di rete sia il numero di salti effettuati dal traffico di rete. Ad esempio, puoi utilizzare AWS Global Accelerator per eseguire l'onboarding del traffico sulla rete globale AWS il più vicino possibile a loro, utilizzando la rete AWS ridondante a livello globale per migliorare la disponibilità e le prestazioni delle applicazioni.

In che modo AWS può aiutarti a ridurre la latenza?

AWS offre una serie di soluzioni per ridurre la latenza di rete e migliorare le prestazioni per ottenere una migliore esperienza dell'utente finale. L'implementazione di uno dei seguenti servizi dipende delle proprie esigenze.

  • AWS Direct Connect è un servizio cloud che collega la tua rete direttamente ad AWS per offrire una latenza di rete più costante e bassa. Quando si crea una nuova connessione, è possibile scegliere una connessione ospitata fornita da un partner di distribuzione di AWS Direct Connect o una connessione dedicata fornita da AWS per implementare in oltre 100 ubicazioni AWS Direct Connect in tutto il mondo.
  • Amazon CloudFront è un servizio di rete di distribuzione di contenuti costruito per prestazioni elevate, sicurezza e convenienza per gli sviluppatori. Puoi utilizzarli per distribuire contenuti in modo sicuro a bassa latenza e alta velocità di trasferimento.
  • AWS Global Accelerator è un servizio di rete che migliora le prestazioni del traffico degli utenti fino al 60% attraverso l'infrastruttura di rete globale di AWS. Quando Internet è congestionato, AWS Global Accelerator ottimizza il percorso verso la tua applicazione per mantenere uniformemente bassi i valori di perdita di pacchetti, jitter e latenza.
  • Le Zone locali AWS sono un tipo di implementazione delle infrastrutture che prevede il posizionamento dei servizi di calcolo, archiviazione, database e altri servizi AWS selezionati in prossimità di aree residenziali e industriali di grandi dimensioni. Puoi distribuire applicazioni innovative che richiedono una bassa latenza in una posizione più vicina agli utenti finali e alle installazioni on-premise.

Inizia a usare AWS Direct Connect creando un account AWS oggi stesso. 

 

Fasi successive della latenza in AWS

Scopri ulteriori risorse correlate al prodotto
Ulteriori informazioni sui servizi per le reti di computer 
Registrati per creare un account gratuito

Ottieni accesso istantaneo al piano gratuito di AWS. 

Registrati 
Inizia subito nella console

Inizia subito a costruire con AWS nella Console di gestione AWS.

Accedi