AWS Certified Big Data – Specialty

Convalida la tua esperienza e le tue competenze tecniche con credenziali riconosciute in tutto il settore e migliora la tua professione.

La certificazione AWS Certified Big Data – Specialty è destinata a persone che eseguono analisi di Big Data complesse e che abbiano maturato almeno 2 anni di esperienza nell'uso della tecnologia AWS.

La certificazione conferma la capacità del candidato di:

  • Implementare servizi di base di Big Data di AWS secondo best practice strutturali fondamentali
  • Progettare e mantenere Big Data
  • Sfruttare gli strumenti per automatizzare l'analisi dei dati

 

Preparazione per l’esame

Il modo migliore per preparare gli esami di certificazione è fare pratica. Il nostro consiglio è di acquisire almeno anni di esperienza diretta nell'uso di AWS.
icon_big-data

Panoramica dell'esame

mini-icon_exam_2
mini-icon_level
mini-icon_time
mini-icon_price
mini-icon_language

Formato dell’esame
Domande a scelta o risposta multipla

Tipologia dell’esame
Specialty

Tempo per il completamento dell’esame
170 minuti

Prezzo dell’esame
300 USD

Lingua in cui sostenere l’esame
Disponibile in inglese, giapponese, coreano e cinese semplificato

Un corso di formazione permette di approfondire le proprie competenze tecniche e di apprendere le best practice sull'utilizzo di AWS.
icon_big-data

Big Data Technology Fundamentals

Digitale | 1,5 ore

Questo corso gestito dall'utente illustra le nozioni di base su Big Data e architettura, il loro valore e i potenziali casi d'uso. Il corso introdurrà ai dettagli di alcune tecnologie chiave, tra cui Apache Hadoop, Amazon EMR, Apache Hive e Apache Pig. Anche se l'argomento principale sono le soluzioni per Big Data standard di settore, sarà presentato anche l'ecosistema per Big Data di AWS, una serie di servizi e soluzioni creati come base e come potenziamento di soluzioni per Big Data.

icon_big-data

Big Data on AWS

Lezioni frontali | 3 giorni

In questo corso, verranno presentate le soluzioni per i Big Data basate su cloud come Amazon EMR, Amazon Redshift, Amazon Kinesis e gli altri servizi della piattaforma per i Big Data di AWS. Verrà illustrato come utilizzare Amazon EMR per elaborare dati con il vasto ecosistema degli strumenti Hadoop quali Hive e Hue. Inoltre, verrà spiegato come creare ambienti per i Big Data, come utilizzare Amazon DynamoDB, Amazon Redshift, Amazon QuickSight, Amazon Athena e Amazon Kinesis, e come applicare le best practice per la progettazione di ambienti per i Big Data in modo da ottenere massima sicurezza e costi contenuti.