Scopri come utilizzare Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon Athena e gli altri servizi della piattaforma per i Big Data di AWS per elaborare i dati e creare ambienti di Big Data

In questo corso, verranno presentate le soluzioni per i Big Data basate su cloud come Amazon EMR, Amazon Redshift, Amazon Kinesis e gli altri servizi della piattaforma per i Big Data di AWS. Verrà illustrato come utilizzare Amazon EMR per elaborare dati con il vasto ecosistema degli strumenti Hadoop quali Hive e Hue. Inoltre, verrà spiegato come creare ambienti per i Big Data, come utilizzare Amazon DynamoDB, Amazon Redshift, Amazon QuickSight, Amazon Athena e Amazon Kinesis, e come applicare le best practice per la progettazione di ambienti per i Big Data in modo da ottenere massima sicurezza e costi contenuti.

Livello

Intermedio

Modalità

Lezioni frontali, lezioni pratiche

Durata

3 giorni

Questo corso è rivolto a:

  • Solutions Architect
  • Amministratori SysOps
  • Data scientist
  • Analisti di dati

In questo corso, imparerai a:

  • Adattare le soluzioni AWS all'interno di un ecosistema dei Big Data
  • Utilizzare Apache Hadoop nell'ambito di Amazon EMR
  • Identificare i componenti di un cluster Amazon EMR, e quindi ad avviarlo e configuralo
  • Utilizzare i quadri di programmazione comuni disponibili per Amazon EMR, tra cui Hive, Pig e streaming
  • Migliorare la facilità d'uso di Amazon EMR utilizzando Hadoop User Experience (Hue)
  • Utilizzare analisi in memoria con Apache Spark in Amazon EMR
  • Scegliere le opzioni di storage dei dati AWS opportune
  • Individuare i vantaggi dell'uso di Amazon Kinesis per un'elaborazione dei Big Data quasi in tempo reale
  • Sfruttare Amazon Redshift per archiviare e analizzare i dati in modo efficiente
  • Spiegare e gestire i costi e la sicurezza di una soluzione per Big Data
  • Selezionare le opzioni più adatte in materia di acquisizione, trasferimento e compressione dei dati
  • Sfruttare Amazon Athena per analisi di query ad hoc
  • Utilizzare AWS Glue per automatizzare l'estrazione, la trasformazione e il caricamento (ETL) dei carichi di lavoro.
  • Utilizzare software di visualizzazione per creare grafici con dati e query utilizzando Amazon QuickSight
Prima di accedere al corso, i partecipanti sono invitati a soddisfare i seguenti requisiti preliminari:
 
  • Conoscenza delle tecnologie dei Big Data, tra cui Apache Hadoop, Hadoop Distributed File System (HDFS) e query SQL/NoSQL.
  • Partecipazione a corsi di formazione digitali quali Big Data Technology Fundamentals o esperienza equivalente
  • Conoscenze operative dei servizi AWS principali e dell'implementazione del cloud pubblico
  • Esperienza di AWS Technical Essentials o equivalente
  • Comprensione di data warehousing, sistemi di database relazionali e progettazione di database

Questo corso è composto da una combinazione di:

  • Lezioni frontali
  • Lezioni pratiche

Questo corso consente di mettere alla prova le competenze acquisite in un ambiente di lavoro mediante una serie di esercizi pratici

Big Data Thumbnail

Accedi a aws.training