I Big Data possono essere descritti in termini di sfide di gestione dei dati che a causa dell'aumento del volume, della velocità e della varietà dei dati non possono essere risolte con i database tradizionali. Anche se i Big Data possono essere definiti in molti modi, la maggior parte include le tre V:

Volume: è incluso tra i terabyte e i petabyte di dati

Varietà: i dati provengono da un'ampia gamma di sorgenti e si presentano in diversi formati, ad esempio log Web, interazioni su social media, transazioni online e di e-commerce, transazioni finanziarie e così via

Velocità: le aziende hanno requisiti e scadenze sempre più stringenti, dal momento in cui i dati vengono generati a quello in cui analisi fruibili vengono inviate agli utenti. Di conseguenza, i dati devono essere raccolti, salvati, elaborati e analizzati a scadenze molto brevi, dalla giornata al tempo reale

Inizia subito a usare i Big Data

Prova AWS gratis
Consulta altri tutorial e risorse

Nonostante il clamore che circonda l'argomento, molte aziende ancora non capiscono di avere un problema con i Big Data, oppure semplicemente non pensano in termini di Big Data. In generale, è probabile che un'organizzazione tragga vantaggio dalle tecnologie dei Big Data quando i database e le applicazioni esistenti non potranno più ridimensionarsi per supportare improvvisi aumenti di volume, varietà e velocità dei dati.

Se la sfida dei Big Data non viene affrontata nel modo giusto, i costi possono crescere a dismisura, mentre la produttività e la competitività ne possono risentire. D'altra parte, una strategia per i Big Data può aiutare le organizzazioni a ridurre i costi e migliorare l'efficienza operativa tramite il trasferimento dei carichi di lavoro esistenti più pesanti sulle tecnologie per i Big Data, nonché mediante la distribuzione di nuove applicazioni in grado di cogliere al meglio queste nuove opportunità.


BigData__hadoop

Grazie a nuovi strumenti che sono in grado di gestire l'intero ciclo di vita dei dati, le tecnologie collegate ai Big Data rendono possibile (tecnicamente ed economicamente) non solo la raccolta e l'archiviazione di set di dati di grandi dimensioni, ma anche la relativa analisi, consentendo di estrapolarne informazioni preziose. Nella maggior parte dei casi, l'elaborazione di Big Data interessa un flusso di dati comune, dalla raccolta di dati grezzi alla creazione di analisi concrete.

Raccolta. La raccolta di dati grezzi (transazioni, log, dispositivi mobili e così via) è la prima sfida da affrontare quando si parla di Big Data. Una buona piattaforma per i Big Data semplifica questo passaggio, consentendo agli sviluppatori di acquisire un'ampia varietà di dati, sia strutturati sia non strutturati, a qualsiasi velocità, sia in tempo reale sia in batch.

Archiviazione. Una piattaforma per i Big Data necessita di un repository sicuro, scalabile e durevole in cui memorizzare i dati prima e, talvolta, dopo le attività di elaborazione. A seconda dei requisiti specifici, potrebbe occorrere anche uno storage temporaneo per i dati in transito.

Elaborazione e analisi. In questa fase i dati vengono trasformati: da grezzi vengono convertiti in formato utilizzabile, di norma tramite operazioni di ordinamento e aggregazione e, talvolta, operazioni più complesse quali funzioni avanzate e algoritmi. I set di dati risultanti vengono memorizzati per ulteriori elaborazioni oppure resi disponibili per l'utilizzo in strumenti di business intelligence o di rappresentazione grafica.

Utilizzo e visualizzazione. L'idea dietro ai Big Data è ottenere informazioni dettagliate di valore, fruibili a partire dagli asset di dati. Idealmente, i dati vengono resi disponibili agli stakeholder tramite strumenti di business intelligence e di rappresentazione grafica dei dati self-service che consentono loro di esaminare i set di dati in modo rapido e veloce. A seconda del tipo di analisi, gli utenti finali potrebbero utilizzare i dati come previsioni statistiche (nel caso delle analisi predittive) o provvedimenti che è consigliabile applicare (in caso di analisi prescrittive).


L'ecosistema dei Big Data si evolve in modo costante ad un ritmo serrato. Oggi, in un'organizzazione, un gruppo variegato di tipi di analisi supportano una serie di funzioni diverse.

BigData__collection-processing

Analisi descrittiva aiuta gli utenti a rispondere alla domanda: "Cosa è accaduto e perché?". Gli esempi includono ambienti di report e query tradizionali con scorecard e pannelli di controllo.

Le analisi predittive aiutano gli utenti a calcolare la probabilità che un determinato evento si verifichi in futuro. Alcuni esempi possono essere i sistemi di avvisi proattivi, il rilevamento di truffe, le applicazioni di manutenzione preventiva e le previsioni meteo.

Le analisi prescrittive forniscono suggerimenti specifici (prescrittivi) all'utente. Rispondono alla domanda "Cosa occorre fare se si verifica l'evento x?"

In origine, i framework per i Big Data (ad esempio Hadoop) supportavano solo carichi di lavoro in batch, in cui data set di grandi dimensioni venivano elaborati in blocco durante un intervallo temporale predefinito, in genere misurato in ore (quando non in giorni). Tuttavia, poiché la rapidità di analisi è diventata un fattore importante, la "velocità" dei Big Data ha stimolato la nascita di nuovi framework quali Apache Spark, Apache Kafka, Amazon Kinesis e altri, per supportare l'elaborazione di dati in flussi e in tempo reale.


Amazon Web Services offre un portafoglio completo e integrato di servizi di cloud computing che aiutano a creare, proteggere e distribuire le applicazioni per i Big Data. Con AWS, non è necessario acquistare hardware, eseguire la manutenzione dell'infrastruttura o ridimensionare le risorse; potrai concentrare la tua attenzione sulle nuove analisi. Grazie alle caratteristiche e alle funzionalità aggiunte di continuo, potrai sempre sfruttare le tecnologie più recenti senza dover prevedere alcun investimento a lungo termine.

Ulteriori informazioni su piattaforma e strumenti per i Big Data di AWS »

Disponibilità immediata

La maggior parte delle tecnologie collegate ai Big Data richiede grandi cluster di server con cicli di provisioning e di configurazione molto lunghi. Con AWS puoi distribuire l'infrastruttura di cui hai bisogno quasi istantaneamente. In questo modo la tua azienda potrà essere più produttiva, sarà più semplice provare nuovi esperimenti e i progetti si succederanno più rapidamente.

Funzionalità ampie e dettagliate

I carichi di lavoro per i Big Data variano quanto gli asset di dati da analizzare. Una piattaforma ampia e robusta consente di creare praticamente ogni tipo di applicazione per Big Data e supportare qualsiasi carico di lavoro, indipendentemente da volume, velocità e varietà di dati. AWS offre più di 50 servizi e aggiunge migliaia di caratteristiche ogni anno, garantendo tutto ciò che occorre per raccogliere, immagazzinare, elaborare, analizzare e consultare i Big Data nel cloud. Ulteriori informazioni sulla piattaforma AWS per i Big Data.

Sicurezza e affidabilità

I Big Data possono contenere informazioni sensibili. Per questo è di importanza critica proteggere gli asset e l'infrastruttura senza compromettere l'agilità. AWS fornisce funzionalità in tutti i processi a livello di strutture, rete, software e aziendale, per soddisfare i requisiti più esigenti. Gli ambienti sono sottoposti ad audit continui per mantenere la conformità a certificazioni quali ISO 27001, FedRAMP, DoD SRG e PCI DSS. I programmi di controllo facilitano la conformità a oltre 20 standard differenti, tra cui HIPAA, NCSC e molti altri. Visita il Centro di sicurezza Cloud per ulteriori informazioni.

Centinaia di partner e soluzioni

Un vasto ecosistema di partner ti consentirà di iniziare a usare i Big Data ancora più velocemente, acquisendo le competenze. Visita AWS Partner Network per ottenere la collaborazione di un partner di consulenza, oppure scegli tra numerosi strumenti e applicazioni nell'intero stack di gestione dei dati.


Lascia che ti aiutiamo ad affrontare le sfide dei Big Data. Ti solleveremo dalle attività generiche più gravose, così potrai usare il tuo tempo e le tue risorse per raggiungere gli obiettivi aziendali.

Ulteriori informazioni sulle soluzioni AWS per i Big Data »