Erfahren Sie, wie Sie mit AWS-Services einen serverlosen Data Lake konzipieren, aufbauen und betreiben können

Building a Serverless Data Lake ist ein eintägiges Bootcamp für Fortgeschrittene, in dem Sie lernen, wie Sie eine Lösung für einen serverlosen Data Lake mit AWS-Services entwickeln, aufbauen und betreiben. Im Bootcamp werden Themen wie die Erfassung sowie die sichere und langfristige Speicherung großer Datenmengen von beliebigen Datenquellen behandelt, um die Voraussetzungen für die Verwendung des richtigen Tools zum Verarbeiten großer Datenmengen und für das Verständnis der für eine beinah Echtzeit-Datenanalyse verfügbaren Optionen zu schaffen.

Stufe

Erweitert

Modalität

Mit Kursleiter, Live-Kurs

Dauer

1 Tag

Was Sie in diesem Kurs lernen:

  • Sammeln Sie große Datenmengen mit Diensten wie Kinesis Streams und Firehose und speichern Sie Daten sicher und langfristig in Amazon Simple Storage Service.
  • Erstellen eines Metadaten-Index Ihres Data Lakes.
  • Auswählen der besten Tools für Erfassung, Speicherung, Verarbeitung und Analyse Ihrer Daten im Data Lake.
  • Anwenden des Wissens in praktischen Übungen, bei denen praktische Erfahrung mit dem Aufbau einer Komplettlösung gesammelt werden kann.
     

Dieser Kurs ist konzipiert für:

  • Solutions Architects
  • Big Data Developer
  • Data Architects und Analysts
  • Andere Datenanalyse-Experten

Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:

  • Gute praktische Kenntnisse der wichtigsten AWS-Services wie Amazon Elastic Compute Cloud (EC2) und Amazon Simple Storage Service (S3)
  • Erfahrung mit einer Programmier- oder Skriptsprache
  • Erste Kenntnisse mit dem Linux-Betriebssystem und der -Befehlszeilenschnittstelle
  • Notebook zur Teilnahme an den Übungen erforderlich, Tablets sind nicht geeignet

Dieser Kurs setzt sich zusammen aus:

  • Schulung mit Kursleiter
  • Praktische Übungen

Der Kurs behandelt die folgenden Konzepte:

  • Die wichtigsten Services zum Erstellen einer serverlosen Data Lake-Architektur
  • Eine Lösung zur Datenanalyse, die sich nach dem Erfassungs-, Speicher-, Verarbeitungs- und Analyse-Workflow richtet
  • Wiederholbare Bereitstellung von Vorlagen zur Implementierung einer Data Lake-Lösung
  • Erstellen eines Metadaten-Index und aktivieren der Suchfunktion
  • Einrichten einer großen Datenübertragungs-Pipeline für mehrere Datenquellen
  • Datentransformation mittels einfacher Funktionen, die durch Ereignisse ausgelöst werden
  • Datenverarbeitung mithilfe der für den Anwendungsfall passend ausgewählten Tools und Services
  • Verfügbare Optionen zur optimierten Analyse verarbeiteter Daten
  • Bewährte Methoden für Bereitstellung und Vorgänge
Zu aws.training gehen