Amazon Web Services offre diversi modi per imparare a gestire carichi di lavoro di Big Data nel cloud.  Ad esempio, sono disponibili architetture di riferimento, whitepaper, guide, corsi gestiti dall'utente, formazione in presenza, video e molto altro materiale per scoprire come creare soluzioni Big Data in AWS.  Se sei un nuovo utente di AWS, inizia dalla pagina Nozioni di base.

Ottieni indicazioni sull'architettura necessaria per costruire applicazioni Big Data e sfrutta al massimo l'infrastruttura di AWS Cloud. Visita il Centro architetturale di AWS e cerca un'architettura di riferimento ideale per la tua applicazione. Visita il Centro Architetturale.


Le guide alle nozioni di base di Amazon Web Services sono utili per apprendere in modo rapido i dettagli fondamentali per avviare la prima applicazione Big Data in AWS. Le guide alle istruzioni illustrano ogni fase del processo, mentre le spiegazioni approfondiscono concetti relativi alle operazioni da eseguire e spiegano perché eseguirle.  Le guide includono inoltre diverse immagini che faranno da complemento alle spiegazioni scritte e degli esercizi pratici, e grazie alle quali sarà più semplice seguire la procedura sullo schermo.

Con le guide alle operazioni di base di AWS sarà possibile:

  • Apprendere come avviare ed eseguire un'applicazione Big Data in AWS
  • Acquisire esperienza diretta sull'avvio di una determinata applicazione
  • Consultare spiegazioni per ciascun passaggio mentre lo si esegue
  • Apprendere l'importanza del motivo per cui si esegue ciascuna operazione
Creazione di un servizio di data warehouse su scala petabyte
Visualizza
Creazione del tuo primo flusso di Big Data in tempo reale
Visualizza
Implementazione dell'Enterprise Data Hub di Cloudera su AWS Visualizza
Implementazione di un cluster MongoDB su AWS Visualizza
Opzioni di analisi dei Big Data su AWS Visualizza
Confronto tra l'uso di DynamoDB e Apache HBase per NoSQL Visualizza
Creazione di una dashboard a finestra scorrevole da parte di Amazon Kinesis e Apache Storm su dati streaming Visualizza

La sezione dedicata ai whitepaper comprende un lungo elenco dei whitepaper di AWS riguardanti argomenti quali architettura, sicurezza ed aspetti economici. I whitepaper sono stati creati dal team di AWS, da analisti indipendenti o dalla community AWS (clienti o partner).

Consulta i seguenti whitepaper dedicati ai Big Data per ulteriori informazioni su come AWS può aiutarti a trovare la soluzione ideale ai tuoi problemi con i Big Data.

I corsi gestiti dall'utente di Amazon Web Services consentono di provare prodotti e acquisire nuove competenze o esperienza pratica su AWS. Questi corsi di formazione pratica, creati dagli esperti in materia di AWS, forniscono istruzioni in modo graduale, aiutandoti ad acquisire familiarità con le tecnologie AWS e ad apprendere come creare un progetto Big Data su AWS.

I corsi gestiti dall'utente sono disponibili per tutti e consentono di:

  • Acquisire esperienza pratica delle tecnologie di AWS in un ambiente specifico per le esercitazioni, senza la necessità di un account AWS
  • Fare pratica nell'utilizzo di AWS dal proprio computer
  • Esplorare e sperimentare nuovi prodotti e soluzioni
  • Acquisire competenze nuove e pratiche in modo flessibile, semplice e poco costoso
  • Imparare in base ai propri tempi e ai propri ritmi


Il corso Big Data Technology Fundamentals è perfetto per iniziare ad imparare ad eseguire applicazioni Big Data in AWS Cloud. Si tratta di un corso di formazione online gratuito ed è rivolto a chi non ha mai approcciato i Big Data, inclusi solutions architect, data scientist e analisti di dati.

Il corso si basa sullo sviluppo di soluzioni per i Big Data utilizzando l'ecosistema di Hadoop, includendo MapReduce, HDFS e i framework di programmazione Pig e Hive.

Ulteriori informazioni sul corso Big Data Technology Fundamentals »

Il corso di formazione Big Data su AWS è stato creato per spiegare, attraverso attività pratiche, l'utilizzo di Amazon Web Services con i carichi di lavoro di Big Data. AWS ti insegnerà ad eseguire processi Amazon Elastic MapReduce per elaborare dati tramite il vasto ecosistema di strumenti Hadoop come Pig e Hive. Inoltre, AWS illustrerà come creare ambienti per i Big Data nel cloud utilizzando Amazon DynamoDB e Amazon Redshift: saranno mostrati i vantaggi di Amazon Kinesis e verrà spiegato come sfruttare le best practice di progettazione degli ambienti Big Data per analisi, sicurezza ed efficacia dei costi.

Ulteriori informazioni sul corso Big Data su AWS »

NOVITÀ - Il corso su Big Data è stato appena aggiornato.
Leggi il blog su Big Data per ulteriori informazioni »

Segui il corso Web di 3 ore sulle nozioni fondamentali di Big Data.

 


Scopri come creare la prima applicazione Big Data in AWS usando Amazon Elastic MapReduce e altri servizi di AWS per Big Data. Ascolta le best practice e i modelli di progettazione dell'architettura per i Big Data.

Guarda la registrazione qui »

Creare ed eseguire un'applicazione in AWS è semplice.  Ogni mese il personale di AWS ospita dei webinar per fornire approfondimenti su AWS e su come ottenere il massimo dal cloud.  Questi webinar vengono anche salvati online, così potrai condividere con altri utenti quelli che ti sono sembrati più utili, e guardare quelli già terminati e che ti interessano maggiormente.

Guardare un Webinar di AWS è utile per:

  • Conoscere nuovi servizi, caratteristiche e soluzioni di AWS
  • Porre domande e ricevere risposte che ti aiutino a chiarire il funzionamento di AWS
  • Rendere i webinar preregistrati consultabili in qualsiasi momento: per fare ciò, consulta i webinar su come muovere i primi passi con i Big Data, in evidenza sulla sinistra
  • Discutere e dimostrare come sia possibile usare i servizi AWS in modo da comprenderne il funzionamento e, conseguentemente, capire come sarà la tua esperienza


AWS re:Invent è la più grande conferenza dedicata alla community globale di Amazon Web Services. La conferenza consente di approfondire la conoscenza dei servizi AWS e apprendere best practice impossibili da trovare altrove. Quest'anno, il percorso dedicato ai Big Data presso il re:Invent includeva più di 30 sessioni riguardanti lo sviluppo dei Big Data in Amazon Web Services. Guarda le sessioni in basso o consulta l'elenco di sessioni sui Big Data in evidenza nel Blog sui Big Data

Creazione di un Data Lake su AWS

AWS offre molti elementi costitutivi necessari per aiutare le organizzazioni a implementare data lake. Questa sessione presenta le nozioni chiave sui data lake, illustrandone gli aspetti relativi all'implementazione. Saranno discussi i fattori di successo critici, i tranelli da evitare e altri aspetti operativi tra cui la sicurezza, la governance, la ricerca, l'indicizzazione e la gestione di metadati. Sarà fornito inoltre un approfondimento su come AWS abilita l'architettura di un data lake.

Guardalo qui »

 

Introduzione tecnica ad Amazon Elastic MapReduce

Da quando è stato lanciato l'anno scorso, Amazon Redshift è già stato adottato da una vasta gamma di aziende per il data warehousing. Questa sessione illustra in che modo i clienti di NASDAQ, HauteLook e Roundarch Isobar usufruiscono dei vantaggi di Amazon Redshift per tre casi d'uso specifici: aziende, Big Data e SaaS. Ne saranno illustrate le diverse implementazioni e le modalità con cui ciascuno dei clienti ha ottenuto analisi di dati più rapide, più semplici e meno costose con Amazon Redshift.

Guardalo qui »

 

Creazione di applicazoni streaming in tempo reale con Amazon Kinesis

Amazon Kinesis è un servizio completamente gestito, basato sul cloud per l'elaborazione di dati in tempo reale su grandi flussi di dati distribuiti. I clienti che usano Amazon Kinesis possono acquisire ed elaborare in modo continuo dati in tempo reale quali clickstream di siti Web, transazioni finanziarie, feed di social media, registri IT, eventi di localizzazione e molto altro. Guarda questa sessione per apprendere le best practice che ti consentiranno di creare un'architettura di streaming dei dati in tempo reale con Amazon Kinesis, e come ottenere le risposte alle domande tecniche più frequenti fatte dagli utenti che avviano l'elaborazione di eventi streaming.

Guardalo qui »