Scopri come progettare, creare e operare una soluzione di data lake serverless con i servizi AWS

Building a Serverless Data Lake è un bootcamp di livello avanzato e della durata di un giorno che illustra come progettare, creare e operare una soluzione per data lake serverless con i servizi AWS. Saranno discussi argomenti quali acquisizione di dati su vasta scala da qualsiasi origine dati, memorizzazione sicura e duratura di dati, scelta dello strumento più adatto per l'elaborazione di elevati volumi di dati e approfondimento delle opzioni disponibili per l'analisi quasi in tempo reale.

Livello

Avanzati

Modalità

Con istruttore, lezioni frontali

Durata

1 giorno

Al termine del corso sarai in grado di:

  • Raccogliere elevati volumi di dati utilizzando servizi quali Kinesis Streams e Firehose e memorizzarli in modo sicuro e duraturo in Amazon Simple Storage Service.
  • Creare un indice di metadati di un data lake.
  • Scegliere i migliori strumenti per acquisire, memorizzare, elaborare e analizzare i dati in un data lake.
  • Applicare le competenze acquisite in esercizi pratici che forniscano esperienza diretta con la creazione di una soluzione completa.
     

Questo corso è rivolto a:

  • Solutions Architect
  • Sviluppatori per Big Data
  • Architetti e analisti di dati
  • Altri ruoli operativi nel campo dell'analisi dei dati

Prima di accedere al corso, i partecipanti sono invitati a soddisfare i seguenti requisiti preliminari:

  • Conoscenza del funzionamento dei servizi più importanti di AWS, tra cui Amazon Elastic Compute Cloud (EC2) e Amazon Simple Storage Service (S3)
  • Esperienza diretta con una sintassi di programmazione o di scripting
  • Familiarità con il sistema operativo Linux e l'interfaccia a riga di comando
  • Un laptop per eseguire gli esercizi pratici; non è possibile utilizzare tablet

Questo corso è composto da una combinazione di:

  • Lezioni tenute da istruttore
  • Lezioni pratiche

Questo corso copre i seguenti argomenti:

  • Servizi chiave per un'architettura di data lake serverless
  • Una soluzione di analisi dei dati che segue il flusso di lavoro di acquisizione, memorizzazione, elaborazione e analisi
  • Distribuzione di modelli iterabili per l'implementazione di una soluzione per data lake
  • Creazione di indici di metadati per abilitare le funzioni di ricerca
  • Configurazione di una pipeline di acquisizione dati su vasta scala da diverse origini dati
  • Trasformazione dei dati con funzioni semplici attivate da eventi
  • Elaborazione dei dati tramite gli strumenti e i servizi più adatti al singolo caso d'uso
  • Opzioni disponibili per migliorare l'analisi dei dati elaborati
  • Best practice di distribuzione e gestione delle operazioni
Accedi a aws.training