Découvrez comment utiliser Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon Athena et le reste de la plate-forme Big Data d'AWS pour traiter les données et créer des environnements de Big Data

Vous allez découvrir des solutions de Big Data cloud comme Amazon EMR, Amazon Redshift, Amazon Kinesis et le reste de la plateforme AWS Big Data. Nous vous montrerons comment utiliser Amazon EMR afin de traiter des données grâce au vaste écosystème d'outils Hadoop tels que Hive et Hue. Vous apprendrez également à créer des environnements de Big Data, à utiliser Amazon DynamoDB, Amazon Redshift, Amazon Quicksight, Amazon Athena et Amazon Kinesis ainsi qu'à appliquer au mieux les bonnes pratiques afin de concevoir des environnements de Big Data sécurisés et économiques.

Niveau

Intermédiaire

Modalité

Formation en classe, ateliers pratiques

Durée

3 jours

Ce cours s'adresse aux personnes suivantes :

  • Architectes de solutions
  • Administrateurs SysOps
  • Experts en science des données
  • Analystes de données

Dans ce cours, vous apprendrez :

  • à intégrer une solution AWS dans un écosystème de Big Data
  • à utiliser Apache Hadoop dans le cadre d'Amazon EMR
  • à identifier les composants d'un cluster Amazon EMR puis à lancer et configurer un cluster Amazon EMR
  • à utiliser les frameworks de programmation courants compatibles avec Amazon EMR, notamment Hive, Pig et Streaming
  • à optimiser la facilité d'utilisation d'Amazon EMR avec Hadoop User Experience (Hue)
  • à utiliser les analyses en mémoire avec Apache Spark sur Amazon EMR
  • à choisir les options de stockage de données AWS appropriées
  • à identifier les avantages de l'utilisation d'Amazon Kinesis pour le traitement de Big Data en temps quasi réel
  • à utiliser Amazon Redshift pour stocker et analyser des données de manière efficace
  • à comprendre et gérer les coûts et la sécurité pour une solution de Big Data
  • Identifier les options pour l'importation, le transfert et la compression de données
  • Exploiter Amazon Athena pour les analyses par requêtes ad hoc
  • à utiliser AWS Glue pour automatiser l'extraction, la transformation et le chargement (ETL) de charges de travail
  • à utiliser un logiciel de visualisation pour représenter les données et les requêtes avec Amazon QuickSight
Pour assister à ce cours, il est recommandé :
 
  • à vous familiariser avec les technologies de Big Data, notamment Apache Hadoop, Hadoop Distributed File System (HDFS) et les requêtes SQL/NoSQL
  • Formation numérique Big Data Technology Fundamentals ou expérience équivalente
  • à savoir utiliser les principaux services d'AWS et l'implémentation de cloud public
  • Notions techniques de base AWS ou expérience équivalente
  • à comprendre les concepts d'entrepôt de données, de système de base de données relationnelle et de conception de base de données.

Ce cours combine les méthodes d'apprentissage suivantes :

  • Présentation de la formation
  • Ateliers pratiques

Ce cours vous permet de tester de nouvelles compétences et d'appliquer vos connaissances dans votre environnement de travail grâce à différents exercices pratiques.

Big Data Thumbnail

Accéder à aws.training