Erhalten Sie Informationen für die Arbeit mit Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon Athena und allen weiteren Komponenten der Big Data-Plattform von AWS für die Verarbeitung von Daten und die Erstellung von Big Data-Umgebungen.

In diesem Kurs erfahren Sie mehr über Cloud-basierte Big Data-Lösungen wie Amazon (EMR), Amazon Redshift, Amazon Kinesis und alle weiteren Komponenten der AWS-Plattform für Big Data. Wir zeigen Ihnen, wie Sie Amazon EMR zum Verarbeiten von Daten mithilfe des umfassenden Angebots an Hadoop-Tools wie beispielsweise Hive und Hue einsetzen. Sie erfahren außerdem, wie Sie Big Data-Umgebungen erstellen, mit Amazon DynamoDB, Amazon Redshift, Amazon Quicksight, Amazon Athena und Amazon Kinesis arbeiten und wie Sie durch Befolgen bewährter Methoden sichere und wirtschaftliche Big Data-Umgebungen einrichten.

Stufe

Fortgeschritten

Modalität

Schulung im Schulungsraum, praktische Übungen

Dauer

3 Tage

Dieser Kurs ist konzipiert für:

  • Solutions Architects
  • SysOps-Administratoren
  • Data Scientists
  • Datenanalysten

Inhalte dieses Kurses:

  • AWS-Lösungen in ein Big Data-Ökosystem integrieren
  • Apache Hadoop im Kontext von Amazon EMR nutzen
  • Komponenten eines Amazon EMR-Clusters identifizieren und dann einen Amazon EMR-Cluster starten und konfigurieren
  • Gängiger Programmierungs-Frameworks, die für Amazon EMR zur Verfügung stehen, wie z. B. Hive, Pig und Streaming einsetzen
  • Benutzerfreundlichkeit von Amazon EMR durch Hadoop User Experience (Hue) verbessern
  • In-Memory-Analysen mit Apache Spark auf Amazon EMR verwenden
  • Geeignete AWS-Datenspeicherungsoptionen auswählen
  • Vorteile des Einsatzes von Amazon Kinesis für die Verarbeitung von Big Data beinahe in Echtzeit erkennen
  • Amazon Redshift nutzen, um Daten effizient zu speichern und zu analysieren
  • Kosten und Sicherheit einer Big Data-Lösung verstehen und verwalten
  • Optionen für das Einlesen, die Übertragung und die Komprimierung von Daten bestimmen
  • Amazon Athena für Analysen mit Ad-hoc-Abfragen verwenden
  • AWS Glue zur Automatisierung von Arbeitslasten zum Extrahieren, Transformieren und Laden (ETL) verwenden
  • Visualisierungssoftware zur Abbildung von Daten und Abfragen mit Amazon QuickSight verwenden
Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:
 
  • Vertrautheit mit Big Data-Technologien, wie Apache Hadoop, Hadoop Distributed File System (HDFS) und SQL/NoSQL-Abfragen.
  • Grundlagen der Big Data Technologie – digitale Schulung oder vergleichbare Kenntnisse
  • Praktische Erfahrung mit wichtigen AWS-Services und der Implementierung öffentlicher Clouds
  • AWS Technical Essentials oder vergleichbare Kenntnisse
  • Kenntnisse zu Data Warehouses, relationalen Datenbanksystemen und Datenbank-Design

Dieser Kurs setzt sich zusammen aus:

  • Schulung im Schulungsraum
  • Praktische Übungen

In diesem Kurs können Sie neue Fertigkeiten testen und Ihr Wissen in verschiedenen praktischen Übungen in Ihrer Arbeitsumgebung anwenden.

Big Data Thumbnail

Zu aws.training gehen