Einführung

Daten müssen von Anwendungen und Personen sicher abgerufen und analysiert werden. Die Datenmengen stammen aus neuen und vielfältigen Quellen und nehmen in einem noch nie dagewesenen Tempo zu. Unternehmen müssen aus Daten Nutzen ziehen, haben aber Schwierigkeiten, alle von den modernen Unternehmen von heute generierten Daten zu erfassen, zu speichern und zu analysieren.

Um diese Herausforderungen zu bewältigen, müssen Sie eine moderne Datenarchitektur aufbauen, die alle Ihre Datensilos für Analysen und Erkenntnisse – einschließlich Daten von Drittanbietern – auflöst und sie mit einer durchgängigen Governance allen Mitarbeitern im Unternehmen zur Verfügung stellt. Es wird auch immer wichtiger, Ihre Analytik- und Machine Learning (ML)-Systeme miteinander zu verbinden, um prädiktive Analysen zu ermöglichen. 

Dieser Entscheidungsleitfaden hilft Ihnen dabei, die richtigen Fragen zu stellen, um Ihre moderne Datenarchitektur in AWS-Services zu entwickeln. Es veranschaulicht, wie Sie Ihre Datensilos (durch die Verbindung Ihres Data Lake und Ihrer Data Warehouses), Ihre Systemsilos (durch die Verbindung von ML und Analysen) und Ihre Mitarbeitersilos (indem Sie die Daten allen Personen in Ihrem Unternehmen zur Verfügung stellen) auflösen können.

Dieser sechsminütige Auszug stammt aus einer einstündigen Präsentation von G2 Krishnamoorthy, VP von AWS Analytics auf der re:Invent 2022. Es bietet einen Überblick über die AWS-Analytik-Services. Die vollständige Präsentation behandelt den aktuellen Stand der Analytik in AWS sowie die neuesten Service-Innovationen rund um Daten und hebt Kundenerfolge mit AWS-Analysen hervor.

Zeit zum Lesen

20 Minuten

Zweck

Finden Sie heraus, welche AWS-Analytik-Services am besten für Ihr Unternehmen geeignet sind.

Stufe

Einsteiger

Letzte Aktualisierung

08. August 2023

Verständnis

Eine moderne Datenstrategie wird durch eine Reihe von Technologiefaktoren ermöglicht, die Sie bei der Verwaltung, dem Zugriff, der Analyse und der Verarbeitung von Daten unterstützen. Es bietet Ihnen außerdem mehrere Optionen zum Herstellen einer Verbindung zu Datenquellen. Eine moderne Datenstrategie sollte Ihre Teams in die Lage versetzen, Folgendes zu erreichen:

  • Ausführung von Analysen oder ML mithilfe der von Ihnen bevorzugten Tools oder Techniken
  • Verwaltung des Zugriffs auf Daten mit den richtigen Sicherheits- und Daten-Governance-Kontrollen
  • Durchbrechen von Datensilos, um das Beste aus Data Lakes und speziell entwickelten Datenspeichern zu entwickeln
  • Speichern Sie beliebige Datenmengen kostengünstig und in offenen, standardbasierten Datenformaten. Die moderne Datenarchitektur von AWS verbindet Ihren Lake, Ihr Warehouse und andere speziell entwickelte Services zu einem kohärenten Ganzen.

Die Implementierung einer modernen Datenstrategie in AWS basiert auf den folgenden fünf Säulen:

Skalierbare Data Lakes

Um schnell Entscheidungen treffen zu können, sollten Sie beliebige Datenmengen in offenen Formaten speichern und in der Lage sein, getrennte Datensilos aufzubrechen. Möglicherweise müssen Sie die Mitarbeiter in Ihrem Unternehmen dazu befähigen, Analysen oder ML durchzuführen (unter Verwendung der von Ihnen bevorzugten Tools oder Techniken). Gleichzeitig müssen Sie mit den richtigen Sicherheits- und Data-Governance-Kontrollen verwalten, wer auf bestimmte Daten zugreifen darf.

Eine moderne Datenarchitektur beginnt mit dem Data Lake. Mit einem Data Lake können Sie alle Ihre Daten (relationale, nicht relationale, strukturierte und unstrukturierte) kostengünstig speichern. Mit AWS können Sie beliebige Datenmengen aus verschiedenen Silos in einen Data Lake von Amazon S3 verschieben. Anschließend speichert Amazon S3 die Daten in einem standardbasierten offenen Format.

Speziell entwickelte Services für Leistung und Kosten

On-Premises Datenpipelines werden häufig nachträglich an die Tools angepasst, die Sie derzeit verwenden, was zu einer suboptimalen Erfahrung führt. AWS bietet eine breite und umfassende Palette speziell entwickelter Datenservices, aus denen Sie das richtige Tool für die richtige Aufgabe auswählen können. So müssen Sie keine Kompromisse bei Funktionalität, Leistung, Skalierung oder Kosten eingehen.

Serverless und benutzerfreundlich

Für viele Anforderungen im Bereich der Analytik stellt AWS Serverless-Optionen bereit, die es Ihnen ermöglichen, sich auf Ihre Anwendung zu konzentrieren, ohne auf die Infrastruktur zugreifen zu müssen.

Der Prozess, Rohdaten in einen Zustand zu bringen, aus dem Geschäftserkenntnisse abgeleitet werden können, und der in der Extract, Transform, Load (ETL)-Phase der Datenpipeline durchgeführt wird, kann eine Herausforderung sein. AWS bewegt sich in Richtung eines Null-ETL-Ansatzes (einer, der herkömmliche ETL-Prozesse überflüssig macht). Dieser Ansatz hilft Ihnen dabei, Daten dort zu analysieren, wo sie sich befinden, ohne ETL verwenden zu müssen. Zu den Features innerhalb der AWS-Services, die diesen Ansatz unterstützen, gehören:


  • Amazon Null-ETL Aurora zu Redshift
  • Amazon-Redshift-Streaming-Aufnahme direkt von Kinesis und MSK zu Redshift
  • Verbundabfrage in Amazon Redshift und Amazon Athena

Einheitlicher Datenzugriff, Sicherheit und Governance

Sobald Sie über einen zentralen Data Lake und eine Sammlung speziell entwickelter Analytik-Services verfügen, müssen Sie in der Lage sein, auf diese Daten zuzugreifen, wo auch immer sie sich befinden. Anschließend müssen Sie sie sichern und über Governance-Richtlinien zur Einhaltung relevanter Vorschriften und bewährter Sicherheitsmethoden verfügen.

Governance beginnt mit AWS Lake Formation. Mit diesem Service können Sie überall auf Ihre Daten zugreifen, sei es in einer Datenbank, einem Data Warehouse, einem speziell entwickelten Datenspeicher oder einem Data Lake, und Ihre Daten dann sicher aufbewahren, unabhängig davon, wo Sie sie speichern.

Für die Datenverwaltung erkennt, kennzeichnet und katalogisiert AWS Ihre Daten automatisch und hält sie synchron. Außerdem können Sie Sicherheits-, Governance- und Überprüfungsrichtlinien zentral definieren und verwalten, um die für Ihre Branche und Region spezifischen Vorschriften zu erfüllen.

Integriertes Machine Learning

AWS bietet die Integration von ML als fester Bestandteil unserer speziell entwickelten Analytik-Services. Sie können ML-Modelle mit vertrauten SQL-Befehlen erstellen, trainieren und bereitstellen, ohne über ML-Vorkenntnisse verfügen zu müssen.

Es ist nicht ungewöhnlich, unterschiedliche Arten von Datenspeichern (relationale, nicht relationale, Data Warehouses und Analytik-Services) für unterschiedliche Anwendungsfälle zu verwenden. AWS bietet eine Reihe von Integrationen, die Ihnen die Möglichkeit geben, Modelle auf Ihren Daten zu trainieren – oder Inferenzergebnisse direkt aus Ihrem Datenspeicher hinzuzufügen – ohne Ihre Daten exportieren und verarbeiten zu müssen.

Überlegungen

Es gibt viele Gründe für die Entwicklung einer Analyse-Pipeline in AWS. Möglicherweise müssen Sie als ersten Schritt auf Ihrem Weg zur Cloud-Migration ein Greenfield- oder Pilotprojekt unterstützen. Alternativ migrieren Sie möglicherweise einen vorhandenen Workload mit so wenig Unterbrechung wie möglich. Was auch immer Ihr Ziel ist, die folgenden Überlegungen können bei Ihrer Wahl hilfreich sein.

  • Analysieren Sie verfügbare Datenquellen und Datentypen, um ein umfassendes Verständnis der Datenvielfalt, -häufigkeit und -qualität zu erhalten. Machen Sie sich mit potenziellen Herausforderungen bei der Verarbeitung und Analyse der Daten vertraut. Diese Analyse ist aus folgenden Gründen von entscheidender Bedeutung:

    • Datenquellen sind vielfältig und stammen aus verschiedenen Systemen, Anwendungen, Geräten und externen Plattformen.
    • Datenquellen verfügen über eine einzigartige Struktur, ein einzigartiges Format und eine einzigartige Häufigkeit der Datenaktualisierungen. Die Analyse dieser Quellen hilft bei der Identifizierung geeigneter Datenerfassungsmethoden und -technologien.
    • Durch die Analyse von Datentypen wie strukturierten, halbstrukturierten und unstrukturierten Daten werden die geeigneten Ansätze für die Datenverarbeitung und -speicherung ermittelt.
    • Die Analyse von Datenquellen und -typen vereinfacht die Bewertung der Datenqualität und hilft Ihnen, potenzielle Probleme mit der Datenqualität – fehlende Werte, Inkonsistenzen oder Ungenauigkeiten – zu antizipieren.
  • Bestimmen Sie die Anforderungen an die Datenverarbeitung für die Art und Weise, wie Daten erfasst, transformiert, bereinigt und für die Analyse vorbereitet werden. Zu den wichtigsten Überlegungen gehören:

    • Datentransformation: Bestimmen Sie die spezifischen Transformationen, die erforderlich sind, um die Rohdaten für die Analyse geeignet zu machen. Dies beinhaltet Aufgaben wie Datenaggregation, Normalisierung, Filterung und Anreicherung.
    • Datenbereinigung: Bewerten Sie die Datenqualität und definieren Sie Prozesse zum Umgang mit fehlenden, ungenauen oder inkonsistenten Daten. Implementieren Sie Techniken zur Datenbereinigung, um qualitativ hochwertige Daten für zuverlässige Erkenntnisse zu gewährleisten.
    • Verarbeitungshäufigkeit: Sie basierend auf den analytischen Anforderungen, ob Echtzeit-, nahezu Echtzeit- oder Stapelverarbeitung erforderlich ist. Die Echtzeitverarbeitung ermöglicht sofortige Erkenntnisse, während die Stapelverarbeitung für periodische Analysen ausreichend sein kann.
    • Skalierbarkeit und Durchsatz: Bewerten Sie die Skalierbarkeitsanforderungen für die Verarbeitung von Datenmengen, die Verarbeitungsgeschwindigkeit und die Anzahl gleichzeitiger Datenanforderungen. Stellen Sie sicher, dass der gewählte Verarbeitungsansatz auch für zukünftiges Wachstum geeignet ist.
    • Latenz: Berücksichtigen Sie die akzeptable Latenz für die Datenverarbeitung und die Zeit, die von der Datenaufnahme bis zu den Analyseergebnissen benötigt wird. Dies ist besonders für Echtzeit- oder zeitkritische Analysen wichtig.
  • Ermitteln Sie den Speicherbedarf, indem Sie festlegen, wie und wo Daten in der gesamten Analytik-Pipeline gespeichert werden. Zu den wichtigen Überlegungen gehören:

    • Datenvolumen: Bewerten Sie die Menge der generierten und erfassten Daten und schätzen Sie das zukünftige Datenwachstum ein, um eine ausreichende Speicherkapazität zu planen.
    • Datenspeicherung: Definieren Sie die Dauer, für die Daten für historische Analysen oder Konformitätszwecke aufbewahrt werden sollen. Ermitteln Sie die geeigneten Richtlinien zur Datenaufbewahrung.
    • Datenzugriffsmuster: Machen Sie sich ein Bild davon, wie auf die Daten zugegriffen wird und wie sie abgefragt werden, um die am besten geeignete Speicherlösung auswählen zu können. Berücksichtigen Sie Lese- und Schreibvorgänge, Datenzugriffshäufigkeit und Datenlokalität.
    • Datensicherheit: Priorisieren Sie die Datensicherheit, indem Sie Verschlüsselungsoptionen, Zugriffskontrollen und Datenschutzmechanismen bewerten, um vertrauliche Informationen zu schützen.
    • Kostenoptimierung: Optimieren Sie die Speicherkosten, indem Sie die kostengünstigsten Speicherlösungen basierend auf Datenzugriffsmustern und -nutzung auswählen.
    • Integration mit Analytik-Services: Stellen Sie eine nahtlose Integration zwischen der gewählten Speicherlösung und den Datenverarbeitungs- und Analysetools in der Pipeline sicher.
  • Berücksichtigen Sie bei der Entscheidung über Analytik-Services für die Erfassung und Aufnahme von Daten verschiedene Arten von Daten, die für die Anforderungen und Ziele Ihres Unternehmens relevant sind. Zu den gängigen Datentypen, die Sie möglicherweise berücksichtigen müssen, gehören:

    • Transaktionsdaten: Enthält Informationen zu einzelnen Interaktionen oder Transaktionen, wie z. B. Kundenkäufen, Finanztransaktionen, Online-Bestellungen und Benutzeraktivitätsprotokollen.
    • Dateibasierte Daten: Bezieht sich auf strukturierte oder unstrukturierte Daten, die in Dateien gespeichert sind, z. B. Protokolldateien, Tabellenkalkulationen, Dokumente, Bilder, Audiodateien und Videodateien. Analytik-Services sollten die Aufnahme verschiedener Dateiformaten unterstützen/
    • Ereignisdaten: Erfasst wichtige Vorkommnisse oder Vorfälle, z. B. Benutzeraktionen, Systemereignisse, Maschinenereignisse oder Geschäftsereignisse. Zu den Ereignissen können alle mit hoher Geschwindigkeit eintreffenden Daten gehören, die für die On-Stream- oder Down-Stream-Verarbeitung erfasst werden.
  • Die betriebliche Verantwortung wird zwischen Ihnen und AWS geteilt, wobei die Aufteilung der Verantwortung je nach Modernisierungsstufe unterschiedlich ist. Sie haben die Möglichkeit, Ihre Analytik-Infrastruktur in AWS selbst zu verwalten oder die zahlreichen Serverless Analytik-Services zu nutzen, um Ihren Aufwand für die Infrastrukturverwaltung zu verringern.

    Selbstverwaltete Optionen bieten Benutzern eine größere Kontrolle über die Infrastruktur und Konfigurationen, erfordern jedoch einen höheren betrieblichen Aufwand.

    Serverless-Optionen nehmen Ihnen einen Großteil der operativen Last ab, indem sie automatische Skalierbarkeit, hohe Verfügbarkeit und robuste Sicherheits-Features bereitstellen. So können sich Benutzer mehr auf das Entwickeln analytischer Lösungen und die Gewinnung von Einblicken konzentrieren, anstatt die Infrastruktur und operative Aufgaben zu verwalten. Bedenken Sie diese Vorteile von Serverless Analytik-Lösungen:

    • Infrastrukturabstraktion: Serverless Services abstrahieren das Infrastrukturmanagement und entlasten die Benutzer von Aufgaben der Bereitstellung, Skalierung und Wartung. AWS kümmert sich um diese betrieblichen Aspekte und reduziert so den Verwaltungsaufwand.
    • Automatische Skalierung und Leistung: Serverless Services skalieren Ressourcen automatisch basierend auf den Anforderungen des Workloads und sorgen so für optimale Leistung ohne manuelle Eingriffe.
    • Hochverfügbarkeit und Notfallwiederherstellung: AWS bietet Hochverfügbarkeit für Serverless Services. AWS verwaltet Datenredundanz, Replikation und Notfallwiederherstellung, um die Datenverfügbarkeit und -zuverlässigkeit zu verbessern.
    • Sicherheit und Compliance: AWS verwaltet Sicherheitsmaßnahmen, Datenverschlüsselung und Compliance für Serverless Services unter Einhaltung von Branchenstandards und bewährten Methoden.
    • Überwachung und Protokollierung: AWS bietet integrierte Überwachungs-, Protokollierungs- und Benachrichtigungsfunktionen für Serverless Services. Benutzer können über AWS CloudWatch auf detaillierte Metriken und Protokolle zugreifen.
  • Beim Entwickeln einer modernen Analytik-Pipeline ist die Entscheidung über die Art des zu unterstützenden Workloads von entscheidender Bedeutung, um unterschiedliche analytische Anforderungen effektiv zu erfüllen. Zu den wichtigsten Entscheidungspunkten, die für jede Art von Workload zu berücksichtigen sind, gehören:

    Stapel-Workload

    • Datenmenge und Häufigkeit: Die Stapelverarbeitung eignet sich für große Datenmengen mit regelmäßigen Aktualisierungen.
    • Datenlatenz: Bei der Stapelverarbeitung kann es im Vergleich zur Echtzeitverarbeitung zu Verzögerungen bei der Bereitstellung von Erkenntnissen kommen.

    Interaktive Analytik

    • Komplexität der Datenabfrage: Interaktive Analysen erfordern Antworten mit geringer Latenz für schnelles Feedback.
    • Datenvisualisierung: Evaluieren Sie den Bedarf an interaktiven Datenvisualisierungstools, damit Geschäftsanwender Daten visuell untersuchen können.

    Streamen von Workloads

    • Datengeschwindigkeit und -volumen: Streaming-Workloads erfordern für die Verarbeitung von Hochgeschwindigkeitsdaten eine Echtzeitverarbeitung.
    • Datenfensterung: Definieren Sie Datenfensterung und zeitbasierte Aggregationen für Streaming-Daten, um relevante Erkenntnisse zu gewinnen.
  • Definieren Sie klar die Geschäftsziele und die Erkenntnisse, die Sie aus den Analysen gewinnen möchten. Verschiedene Arten von Analysen dienen unterschiedlichen Zwecken. Zum Beispiel:

    • Deskriptive Analysen eignen sich hervorragend, um einen historischen Überblick zu gewinnen
    • Diagnostische Analysen helfen dabei, die Gründe für vergangene Ereignisse zu verstehen
    • Prädiktive Analytik prognostiziert zukünftige Ergebnisse
    • Präskriptive Analyse liefert Empfehlungen für optimale Maßnahmen

    Ordnen Sie Ihre Geschäftsziele den relevanten Arten von Analysen zu. Hier sind einige wichtige Entscheidungskriterien, die Ihnen bei der Auswahl der richtigen Analysearten helfen sollen:

    • Datenverfügbarkeit und Qualität: Deskriptive und diagnostische Analysen basieren auf historischen Daten, während prädiktive und präskriptive Analysen ausreichend Verlaufsdaten und qualitativ hochwertige Daten erfordern, um genaue Modelle zu erstellen.
    • Datenvolumen und Komplexität: Prädiktive und präskriptive Analysen erfordern umfangreiche Datenverarbeitungs- und Rechenressourcen. Stellen Sie sicher, dass Ihre Infrastruktur und Tools das Datenvolumen und die Komplexität bewältigen können.
    • Komplexität der Entscheidungen: Wenn Entscheidungen mehrere Variablen, Einschränkungen und Ziele beinhalten, ist die präskriptive Analyse möglicherweise besser geeignet, um optimale Maßnahmen zu steuern.
    • Risikobereitschaft: Präskriptive Analysen können zwar Empfehlungen liefern, sind jedoch mit Unsicherheiten verbunden. Stellen Sie sicher, dass Entscheidungsträger die mit den Analyseergebnissen verbundenen Risiken vertraut sind.
  • Bewerten Sie die Skalierbarkeits- und Leistungsanforderungen der Architektur. Das Design muss steigende Datenmengen, Benutzeranforderungen und analytische Workloads bewältigen. Zu den wichtigsten zu berücksichtigenden Entscheidungsfaktoren gehören:

    • Datenvolumen und Wachstum: Beurteilen Sie das aktuelle Datenvolumen und prognostizieren Sie zukünftiges Wachstum. 
    • Datengeschwindigkeit und Echtzeitanforderungen: Bestimmen Sie, ob die Daten in Echtzeit oder nahezu in Echtzeit verarbeitet und analysiert werden müssen.
    • Komplexität der Datenverarbeitung: Analysieren Sie die Komplexität Ihrer Datenverarbeitungs- und Analyseaufgaben. Für rechenintensive Aufgaben bieten Services wie Amazon EMR eine skalierbare und verwaltete Umgebung für die Verarbeitung von Big Data.
    • Gleichzeitigkeit und Benutzerlast: Berücksichtigen Sie die Anzahl der gleichzeitigen Benutzer und den Grad der Benutzerlast auf dem System. 
    • Funktionen zur automatischen Skalierung: Ziehen Sie Services in Betracht, die eine automatische Skalierung bieten, so dass Ressourcen je nach Bedarf automatisch hoch- oder herunterskaliert werden können. Dies gewährleistet eine effiziente Ressourcennutzung und Kostenoptimierung.
    • Geografische Verteilung: Erwägen Sie Services mit globaler Replikation und Datenzugriff mit geringer Latenz, wenn Ihre Datenarchitektur über mehrere Regionen oder Standorte verteilt werden muss.
    • Kosten-Leistungs-Kompromiss: Bringen Sie die Leistungsanforderungen mit den Kostenaspekten in Einklang. Services mit hoher Leistung sind möglicherweise mit höheren Kosten verbunden.
    • Service Level Agreements (SLAs): Überprüfen Sie die von AWS-Services bereitgestellten SLAs, um sicherzustellen, dass sie Ihren Skalierbarkeits- und Leistungserwartungen entsprechen.
  • Bei der Daten-Governance handelt es sich um eine Reihe von Prozessen, Richtlinien und Kontrollen, die Sie implementieren müssen, um eine effektive Verwaltung, Qualität, Sicherheit und Compliance Ihrer Datenbestände sicherzustellen. Zu den wichtigsten zu berücksichtigenden Entscheidungspunkten gehören:

    • Richtlinien zur Datenaufbewahrung: Definieren Sie Richtlinien zur Datenaufbewahrung basierend auf regulatorischen Anforderungen und Geschäftsanforderungen und richten Sie Prozesse für die sichere Datenentsorgung ein, wenn diese nicht mehr benötigt werden.
    • Audit trail und Protokollierung: Entscheiden Sie sich für die Protokollierungs- und Prüfmechanismen zur Überwachung des Datenzugriffs und der Datennutzung. Implementieren Sie umfassende Prüfprotokolle, um Datenänderungen, Zugriffsversuche und Benutzeraktivitäten zur Compliance- und Sicherheitsüberwachung zu verfolgen.
    • Compliance-Anforderungen: Machen Sie sich mit den branchenspezifischen und geografischen Daten-Compliance-Vorschriften vertraut, die für Ihr Unternehmen gelten. Stellen Sie sicher, dass die Datenarchitektur diesen Vorschriften und Richtlinien entspricht.
    • Datenklassifizierung: Klassifizieren Sie Daten anhand ihrer Vertraulichkeit und definieren Sie geeignete Sicherheitskontrollen für jede Datenklasse. 
    • Notfallwiederherstellung und Geschäftskontinuität: Planen Sie Notfallwiederherstellung und Geschäftskontinuität, um die Datenverfügbarkeit und Ausfallsicherheit bei unerwarteten Ereignissen oder Systemausfällen zu gewährleisten.
    • Weitergabe von Daten an Dritte: Wenn Sie Daten an Dritte weitergeben, implementieren Sie sichere Protokolle und Vereinbarungen zur Datenweitergabe, um die Vertraulichkeit der Daten zu schützen und Datenmissbrauch zu verhindern.
  • Zur Sicherheit der Daten in der Analysepipeline gehört der Schutz der Daten in jeder Phase der Pipeline, um deren Vertraulichkeit, Integrität und Verfügbarkeit sicherzustellen. Zu den wichtigsten zu berücksichtigenden Entscheidungspunkten gehören:

    • Zugriffskontrolle und Autorisierung: Implementieren Sie robuste Authentifizierungs- und Autorisierungsprotokolle, um sicherzustellen, dass nur autorisierte Benutzer auf bestimmte Datenressourcen zugreifen können.
    • Datenverschlüsselung: Wählen Sie geeignete Verschlüsselungsmethoden für Daten, die in Datenbanken, Data Lakes und während der Datenverschiebung zwischen verschiedenen Komponenten der Architektur gespeichert sind.
    • Datenmaskierung und Anonymisierung: Erwägen Sie die Notwendigkeit einer Datenmaskierung oder Anonymisierung, um vertrauliche Daten wie personenbezogene Daten oder vertrauliche Geschäftsdaten zu schützen und gleichzeitig die Fortsetzung bestimmter Analyseprozesse zu ermöglichen.
    • Sichere Datenintegration: Legen Sie sichere Methoden für die Datenintegration fest, um einen sicheren Ablauf zwischen den verschiedenen Komponenten der Architektur sicherzustellen und Datenlecks oder unbefugten Zugriff während der Datenbewegung zu vermeiden.
    • Netzwerkisolierung: Ziehen Sie Services in Betracht, die AWS-VPC-Endpunkte unterstützen, um zu vermeiden, dass Ressourcen dem öffentlichen Internet ausgesetzt werden.
  • Definieren Sie die Integrationspunkte und Datenabläufe zwischen verschiedenen Komponenten der Analysepipeline, um einen nahtlosen Datenablauf und Interoperabilität zu gewährleisten. Zu den wichtigsten zu berücksichtigenden Entscheidungspunkten gehören:

    • Datenquellenintegration: Identifizieren Sie die Datenquellen, aus denen Daten erfasst werden, z. B. Datenbanken, Anwendungen, Dateien oder externe APIs. Entscheiden Sie sich für die Datenerfassungsmethoden (Stapel, Echtzeit, ereignisbasiert), um Daten effizient und mit minimaler Latenz in die Pipeline zu übertragen.
    • Datentransformation: Ermitteln Sie die erforderlichen Transformationen, um Daten für die Analyse vorzubereiten. Entscheiden Sie sich für die Tools und Prozesse zum Bereinigen, Aggregieren, Normalisieren oder Anreichern der Daten, während diese die Pipeline durchlaufen.
    • Datenverschiebungsarchitektur: Wählen Sie die geeignete Architektur für die Datenverschiebung zwischen Pipeline-Komponenten. Erwägen Sie Stapelverarbeitung, Stream-Verarbeitung oder eine Kombination aus beidem, basierend auf den Echtzeitanforderungen und dem Datenvolumen.
    • Datenreplikation und -synchronisierung: Entscheiden Sie sich für Datenreplikations- und Synchronisierungsmechanismen, um die Daten über alle Komponenten hinweg auf dem neuesten Stand zu halten. Ziehen Sie je nach den Anforderungen an die Datenaktualität Replikationslösungen in Echtzeit oder regelmäßige Datensynchronisierungen in Betracht.
    • Datenqualität und Validierung: Implementieren Sie Datenqualitätsprüfungen und Validierungsschritte, um die Integrität der Daten während der Übertragung durch die Pipeline zu gewährleisten. Entscheiden Sie, welche Maßnahmen ergriffen werden sollen, wenn die Datenvalidierung fehlschlägt, z. B. Warnungen oder Fehlerbehandlung.
    • Datensicherheit und Verschlüsselung: Legen Sie fest, wie Daten während der Übertragung und im Ruhezustand gesichert werden. Entscheiden Sie sich für Verschlüsselungsmethoden zum Schutz vertraulicher Daten in der gesamten Pipeline und berücksichtigen Sie dabei den erforderlichen Sicherheitsgrad basierend auf der Datensensibilität.
    • Skalierbarkeit und Ausfallsicherheit: Stellen Sie sicher, dass das Design des Datenablaufs horizontale Skalierbarkeit ermöglicht und erhöhte Datenmengen und Datenverkehr bewältigen kann.
  • Der Aufbau Ihrer Analytik-Pipeline in AWS bietet verschiedene Möglichkeiten zur Kostenoptimierung. Um die Kosteneffizienz zu gewährleisten, sollten Sie die folgenden Strategien in Betracht ziehen:

    • Dimensionierung und Auswahl von Ressourcen: Wählen Sie die richtige Größe Ihrer Ressourcen basierend auf den tatsächlichen Workload-Anforderungen. Wählen Sie AWS-Services und Instance-Typen, die den Leistungsanforderungen der Workloads entsprechen und gleichzeitig eine Überbereitstellung vermeiden.
    • Automatische Skalierung: Implementieren Sie die automatische Skalierung für Services mit unterschiedlichen Workloads. Die automatische Skalierung passt die Anzahl der Instances dynamisch an den Bedarf an und senkt so die Kosten in Zeiten mit geringem Datenverkehr.
    • Spot Instances: Nutzen Sie AWS-EC2-Spot-Instances für unkritische und fehlertolerante Workloads. Spot-Instances können die Kosten im Vergleich zu On-Demand-Instances erheblich senken.
    • Reserved Instances: Ziehen Sie den Erwerb von AWS Reserved Instances in Betracht, um erhebliche Einsparungen gegenüber On-Demand-Preisen für stabile Workloads mit vorhersehbarer Nutzung zu erzielen.
    • Datenspeicher-Tiering: Optimieren Sie die Datenspeicherkosten, indem Sie unterschiedliche Speicherklassen basierend auf der Datenzugriffshäufigkeit verwenden.
    • Richtlinien für den Datenlebenszyklus: Richten Sie Richtlinien für den Datenlebenszyklus ein, um Daten basierend auf ihrem Alter und ihren Nutzungsmustern automatisch zu verschieben oder zu löschen. Dies hilft bei der Verwaltung der Speicherkosten und sorgt dafür, dass die Speicherung von Daten auf ihren Wert abgestimmt ist.

Auswahl

Nachdem Sie nun die Kriterien zur Bewertung Ihres Analysebedarfs kennen, können Sie auswählen, welche AWS-Analytik-Services für die Anforderungen Ihres Unternehmens am besten geeignet sind. Die folgende Tabelle kategorisiert Services, die sich an den Anforderungen orientieren, die Sie für Ihre Geschäftsziele benötigen, z. B. die Durchführung erweiterter Analysen, Datenverwaltung oder prädiktive Analysen sowie ML.

Zielbereiche
Schließen

Fortgeschrittene Analytik

AWS bietet eine breite und kostengünstige Reihe von Analytik-Services, mit denen Sie schneller Erkenntnisse aus Ihren Daten gewinnen können.

Anwendungsfälle
Zugehörige Analyseservices

Interaktive Analytik
Der Prozess der Datenanalyse und -exploration in Echtzeit, der es Benutzern ermöglicht, Daten interaktiv abzufragen und zu visualisieren, um Erkenntnisse zu gewinnen und schnell datengesteuerte Entscheidungen zu treffen.

Schließen

Amazon Athena

Amazon Athena ist ein Serverless, interaktiver Analytik-Service, der auf Open-Source-Frameworks entwickelt wurde und offene Tabellen- und Dateiformate unterstützt. Athena bietet eine vereinfachte, flexible Möglichkeit, Petabytes an Daten dort zu analysieren, wo sie gespeichert sind. Analysieren Sie Daten oder erstellen Sie Anwendungen aus einem Amazon S3 Data Lake und 30 Datenquellen, einschließlich On-Premises-Datenquellen oder anderen Cloud-Systemen mithilfe von SQL oder Python. Athena wurde auf den Open-Source-Engines Trino und Presto sowie den Apache-Spark-Frameworks entwickelt, ohne dass ein Bereitstellungs- oder Konfigurationsaufwand erforderlich ist.

Verarbeitung von Big Data
Big Data zeichnet sich durch seine drei Dimensionen aus: Volumen, Geschwindigkeit und Vielfalt. Lösungen zur Big-Data-Verarbeitung zielen darauf ab, die Herausforderungen zu bewältigen, die sich aus dem Umfang und der Komplexität von Big Data ergeben.

Schließen

Amazon EMR

Amazon EMR ist die branchenführende cloudbasierte Big-Data-Lösung für die Datenverarbeitung in Petabyte-Größenordnung, für interaktive Analytik und für Machine Learning mit Open-Source-Frameworks wie Apache Spark, Apache Hive und Presto.

Data-Warehousing
Die zentralisierte Speicherung, Organisation und der Abruf großer Mengen strukturierter und manchmal halbstrukturierter Daten aus verschiedenen Quellen innerhalb einer Organisation.

Schließen

Amazon Redshift

Amazon Redshift verwendet SQL, um strukturierte und halbstrukturierte Daten in Data Warehouses, Betriebsdatenbanken und Data Lakes zu analysieren, wobei von AWS entwickelte Hardware und Machine Learning verwendet werden, um die beste Preisleistung in jeder Größenordnung zu erzielen.

Echtzeit-Analytik
Der Prozess der Analyse und Verarbeitung von Daten bei deren Generierung, Empfang oder Aufnahme ohne nennenswerte Verzögerung.

Schließen

Amazon Kinesis Data Analytics

Mit Amazon Kinesis Data Analytics können Sie Streaming-Daten mithilfe von Apache Flink einfacher transformieren und in Echtzeit analysieren.

Betriebsanalytik
Der Einsatz von Echtzeit-Datenanalysen und Erkenntnissen zur Optimierung und Verbesserung laufender betrieblicher Prozesse und Aktivitäten innerhalb eines Unternehmens.

Schließen

AWS OpenSearch Service

OpenSearch eine verteilte, Community-gesteuerte, Apache 2.0-lizenzierte, 100 % Open-Source-Such- und Analysesuite, die für eine breite Palette von Anwendungsfällen wie Echtzeit-Anwendungsüberwachung, Protokollanalyse und Website-Suche verwendet wird. OpenSearch bietet ein hochgradig skalierbares System für den schnellen Zugriff und die Reaktion auf große Datenmengen mit einem integrierten Visualisierungswerkzeug, OpenSearch Dashboards, das es den Nutzern leicht macht, ihre Daten zu untersuchen

Dashboards und Visualisierungen
Dashboards und Visualisierungen stellen eine visuelle Darstellung komplexer Datensätze bereit und machen es für Benutzer einfacher, Muster, Trends und Einblicke auf einen Blick zu erfassen. Sie vereinfachen das Verständnis von Daten, auch für technisch weniger versierte Benutzer, indem sie Informationen auf visuell ansprechende und intuitive Weise präsentieren.

Schließen

Amazon QuickSight

Amazon QuickSight unterstützt datengesteuerte Unternehmen mit einheitlicher Business Intelligence (BI) im Hyperscale-Bereich. Mit QuickSight können alle Benutzer unterschiedliche Analyseanforderungen von derselben Informationsquelle aus erfüllen, indem moderne interaktive Dashboards, paginierte Berichte, eingebettete Analysen und Abfragen in natürlicher Sprache verwendet werden.

Visuelle Datenaufbereitung
Verwendung visueller Tools und Schnittstellen zum Erkunden, Bereinigen, Transformieren und Bearbeiten von Daten auf visuelle und intuitive Weise.

Schließen

AWS Glue DataBrew

AWS Glue DataBrew ist ein visuelles Tool zur Datenaufbereitung, das es Datenanalysten und Datenwissenschaftlern leicht macht, Daten zu bereinigen und zu normalisieren, um sie für Analysen und Machine Learning vorzubereiten. Sie können aus über 250 vorgefertigten Transformationen wählen, um Datenvorbereitungsaufgaben zu automatisieren, ohne Code schreiben zu müssen. 

Schließen

Datenverwaltung

Dieser Service macht es Ihnen leicht, Daten über mehrere Datenspeicher und Ihren Data Lake hinweg zu kombinieren, zu verschieben und zu replizieren.

Anwendungsfälle
Zugehörige Analyseservices

Datenübermittlung in Echtzeit
Bei der Datenverschiebung in Echtzeit kommt es zu minimalen Verzögerungen bei der Datenübertragung, typischerweise innerhalb von Sekunden oder Millisekunden nach ihrer Verfügbarkeit.

Schließen

Amazon MSK

Amazon Managed Streaming für Apache Kafka (Amazon MSK) ist ein vollständig verwalteter Service, mit dem Sie Anwendungen erstellen und ausführen können, die Apache Kafka zur Verarbeitung von Streaming-Daten verwenden. Amazon MSK stellt die Vorgänge auf der Steuerungsebene bereit, beispielsweise zum Erstellen, Aktualisieren und Löschen von Clustern.

Schließen

Amazon Kinesis Data Streams

Amazon Kinesis Data Streams ist ein Serverless-Streaming-Datenservice, der das Erfassen, Verarbeiten und Speichern von Datenströmen in jeder Größenordnung vereinfacht.

Schließen

Amazon Kinesis Data Firehose

Amazon Kinesis Data Firehose ist ein Extract, Transform, Load (ETL)-Service, der Streaming-Daten zuverlässig erfasst, transformiert und an Data Lakes, Datenspeicher und Analyseservices liefert.

Schließen

Amazon Kinesis Video Streams

Amazon Kinesis Video Streams vereinfacht das sichere Streamen von Videos von verbundenen Geräten zu AWS für Analysen, ML, Wiedergabe und anderen Verarbeitungsarten. Kinesis Video Streams stellt die Infrastruktur für die Datenaufnahme gestreamter Videos von Millionen von Geräten bereit und passt sie automatisch an den Bedarf an. Dabei werden die Videodaten Ihrer Streams dauerhaft gespeichert, verschlüsselt und indiziert, sodass Sie über intuitiv bedienbare APIs ganz leicht auf Ihre Daten zugreifen können.

Schließen

AWS Glue

AWS Glue ist ein Serverless-Datenintegrationsservice, der das Erkennen, Aufbereiten, Verschieben und Integrieren von Daten aus verschiedenen Quellen für Analysen, ML und Anwendungsentwicklung vereinfacht.

Daten-Governance
Eine Reihe von Prozessen, Richtlinien und Vorgaben, die die ordnungsgemäße Verwaltung, Verfügbarkeit, Nutzbarkeit, Integrität und Sicherheit von Daten während ihres gesamten Lebenszyklus gewährleisten.

Schließen

Amazon DataZone

Nutzen Sie Amazon DataZone, um Daten in großem Umfang über Unternehmensgrenzen hinweg freizugeben, zu suchen und zu erkunden. Arbeiten Sie an Datenprojekten über ein einheitliches Datenanalyseportal zusammen, das Ihnen einen personalisierten Überblick über alle Ihre Daten bietet und gleichzeitig Ihre Governance- und Compliance-Richtlinien durchsetzt.

Schließen

AWS Lake Formation

AWS Lake Formation ist ein vollständig verwalteter Service, der die Erstellung, die Sicherung und die Verwaltung von Data Lakes vereinfacht. Lake Formation vereinfacht und automatisiert viele der komplexen manuellen Schritte, die normalerweise für die Erstellung von Data Lakes erforderlich sind. Zu diesen Schritten gehören das Erfassen, Bereinigen, Verschieben und Katalogisieren von Daten sowie das sichere Bereitstellen dieser Daten für Analysen und Machine Learning.

Objektspeicher für Data Lakes
Ein auf AWS basierender Data Lake verwendet Amazon S3 als primäre Speicherplattform. Amazon S3 bietet aufgrund seiner praktisch unbegrenzten Skalierbarkeit und hohen Beständigkeit eine optimale Grundlage für einen Data Lake. 

Schließen

Amazon S3

Amazon Simple Storage Service (Amazon S3) ist ein Objektspeicher-Service, der Skalierbarkeit, Datenverfügbarkeit, Sicherheit und Leistung bietet. Amazon S3 bietet Verwaltungsfunktionen, mit denen Sie den Zugriff auf Ihre Daten optimieren, organisieren und konfigurieren können, um Ihre spezifischen geschäftlichen, organisatorischen und Compliance-Anforderungen zu erfüllen.

Schließen

AWS Lake Formation

AWS Lake Formation ist ein vollständig verwalteter Service, der die Erstellung, die Sicherung und die Verwaltung von Data Lakes vereinfacht. Lake Formation vereinfacht und automatisiert viele der komplexen manuellen Schritte, die normalerweise für die Erstellung von Data Lakes erforderlich sind. Zu diesen Schritten gehören das Erfassen, Bereinigen, Verschieben und Katalogisieren von Daten sowie das sichere Bereitstellen dieser Daten für Analysen und Machine Learning.

Backup und Archivierung für Data Lakes
Data Lakes, unterstützt von Amazon S3, bieten Unternehmen die Verfügbarkeit, Agilität und Flexibilität, die moderne Analyseansätze benötigen, um tiefere Erkenntnisse zu gewinnen. Der Schutz vertraulicher oder geschäftskritischer Informationen, die in diesen S3-Buckets gespeichert sind, hat für Unternehmen höchste Priorität.

Schließen

Amazon S3 Glacier

Die Speicherklassen von Amazon S3 Glacier wurden speziell für die Datenarchivierung entwickelt und bieten Ihnen die höchste Leistung, die größte Abrufflexibilität und die kostengünstigste Archivspeicherung in der Cloud. Alle S3-Glacier-Speicherklassen bieten nahezu unbegrenzte Skalierbarkeit und sind für eine Datenhaltbarkeit von 99,999999999 % (11 Neunen) ausgelegt. 

Schließen

AWS Backup

AWS-Backup bietet einen kostengünstigen, vollständig verwalteten, richtlinienbasierten Service, der die Datensicherung im großen Maßstab vereinfacht.

Datenkatalog
Ein Tool zur Metadatenverwaltung, das detaillierte Informationen über die verfügbaren Daten, ihre Struktur, Eigenschaften und Beziehungen bereitstellt.

Schließen

Amazon Glue

AWS Glue ist ein Serverless-Datenintegrationsservice, der das Erkennen, Aufbereiten, Verschieben und Integrieren von Daten aus verschiedenen Quellen für Analysen, Machine Learning (ML) und Anwendungsentwicklung vereinfacht.

Drittanbieterdaten
Daten von Drittanbietern und Software-as-a-Service-Daten (SaaS) werden für den Geschäftsbetrieb in der modernen datengesteuerten Umgebung immer wichtiger.

Schließen

AWS Data Exchange

AWS Data Exchange ist ein Service, der es AWS-Kunden leicht macht, Daten von Drittanbietern in der AWS Cloud zu finden, zu abonnieren und zu verwenden.

Schließen

Amazon AppFlow

Mit Amazon AppFlow automatisieren Sie bidirektionale Datenabläufe zwischen SaaS-Anwendungen und AWS Services mit nur wenigen Klicks. Führen Sie die Datenabläufe in der von Ihnen ausgewählten Häufigkeit aus, sei es nach einem Zeitplan, als Reaktion auf ein Geschäftsereignis oder bei Bedarf. 

Schließen

Prädiktive Analytik und Machine Learning

Für Anwendungsfälle im Rahmen der prädiktiven Analytik bietet AWS ein großes Angebot an Machine-Learning-Services und Tools, die auf Ihrem Data Lake in AWS ausgeführt werden können.

Anwendungsfälle
Zugehörige Analyseservices

Frameworks und Schnittstellen
Die AWS-ML-Infrastruktur unterstützt alle führenden ML-Frameworks. 

Schließen

AWS-Deep-Learning-AMIs

AWS Deep Learning AMIs (DLAMI) bietet ML-Anwendern und -Forschern einen kuratierten und sicheren Satz von Frameworks, Abhängigkeiten und Tools, um Deep Learning in der Cloud zu beschleunigen. Die AMIs, die für Amazon Linux und Ubuntu, Amazon Machine Images (AMIs) entwickelt wurden, sind mit TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod und Keras vorkonfiguriert, so dass Sie diese Frameworks und Tools schnell implementieren und ausführen können.

Plattform-Services
Vollständig verwaltete Infrastruktur zum Erstellen, Trainieren und Bereitstellen von Machine-Learning-Modellen. 

Schließen

Amazon SageMaker

Entwickeln, Trainieren und Bereitstellen von Machine Learning (ML)-Modellen für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows.

Direkte Datenintegrationen
Erstellen, trainieren und implementieren Sie ML-Modelle mit vertrauten SQL-Befehlen.

Schließen

Amazon Athena ML

Mit Athena ML können Sie ML-Modelle in Amazon SageMaker erstellen und bereitstellen und mit SQL-Funktionen in Amazon Athena Vorhersagen anhand Ihrer SageMaker-Modelle generieren. 

So können Analyseteams Geschäftsnutzern und Analysten modellgestützte Erkenntnisse zur Verfügung stellen, ohne dass spezielle Tools und Infrastruktur erforderlich sind.

Schließen

Amazon QuickSight ML

QuickSight ML Insights nutzt die bewährten ML- und natürlichen Sprachfunktionen von AWS, um Ihnen dabei zu helfen, tiefere Erkenntnisse aus Ihren Daten zu gewinnen. Diese leistungsstarken, sofort einsatzbereiten Features machen es jedem leicht, versteckte Trends und Ausreißer zu entdecken, wichtige Geschäftsfaktoren zu identifizieren und leistungsstarke Was-wäre-wenn-Analysen und Prognosen durchzuführen, ohne dass technisches Fachwissen oder ML-Erfahrung erforderlich ist.

Schließen

Amazon Redshift ML

Amazon Redshift ML erleichtert Datenanalysten und Datenbankentwicklern das Erstellen, Trainieren und Anwenden von Modellen für Machine Learning mithilfe vertrauter SQL-Befehle in Data Warehouses von Amazon Redshift. Mit Redshift ML können Sie Amazon SageMaker, einen vollständig verwalteten Service für Machine Learning, nutzen, ohne neue Tools oder Sprachen lernen zu müssen. Verwenden Sie ganz einfach SQL-Anweisungen, um Amazon SageMaker ML-Modelle mithilfe Ihrer Redshift-Daten zu erstellen und zu trainieren, und verwenden Sie diese Modelle dann, um Prognosen zu generieren.

Verwendung

Sie sollten nun eine klare Vorstellung von Ihren Geschäftszielen sowie der Menge und Geschwindigkeit der Daten haben, die Sie erfassen und analysieren werden, um mit dem Aufbau Ihrer Datenpipelines zu beginnen.

Um herauszufinden, wie Sie die einzelnen verfügbaren Services nutzen und mehr über sie erfahren können, haben wir einen Pfad bereitgestellt, mit dem Sie erkunden können, wie die einzelnen Services funktionieren. Die folgenden Abschnitte enthalten Links zu ausführlichen Dokumentationen, praktischen Tutorials und Ressourcen, die Ihnen den Einstieg erleichtern – von der grundlegenden Nutzung bis hin zu fortgeschrittenen Vertiefungen.

Fortgeschrittene Analytik

  • Interaktive Analytik
  • Amazon Athena

    Erste Schritte mit Amazon Athena

    Erfahren Sie, wie Sie mit Amazon Athena Daten abfragen und eine Tabelle basierend auf in Amazon S3 gespeicherten Beispieldaten erstellen, die Tabelle abfragen und die Ergebnisse der Abfrage überprüfen.

    Erste Schritte mit dem Tutorial »

    Amazon Athena

    Erste Schritte mit Apache Spark in Amazon Athena

    Nutzen Sie die vereinfachte Notebook-Erfahrung in der Amazon-Athena-Konsole, um Apache-Spark-Anwendungen mithilfe von Python- oder Athena-Notebook-APIs zu entwickeln.

    Erste Schritte mit dem Tutorial »

    Amazon Athena

    AWS re:Invent 2022 – Neuerungen bei Amazon Athena

    Erfahren Sie, wie Sie Athena in Ihre Daten integrieren und auf alle Ihre Daten anwenden können, von Data Lakes über externe Quellen und vielem mehr.


    Vortrag ansehen »

    Amazon Athena

    Analysieren von Daten in S3 mit Amazon Athena
     
    Erfahren Sie, wie Sie Athena für Protokolle von Elastic Load Balancern verwenden, die als Textdateien in einem vordefinierten Format generiert wurden. Wir zeigen Ihnen, wie Sie eine Tabelle erstellen, die Daten in einem von Athena verwendeten Format partitionieren, sie in Parquet konvertieren und die Abfrageleistung vergleichen.

    Blog-Beitrag lesen »

  • Verarbeitung von Big Data
  • Amazon EMR

    Erste Schritte mit AWS EMR

    Erfahren Sie, wie Sie mit Spark einen Beispiel-Cluster starten und ein einfaches PySpark-Skript ausführen, das in einem Amazon-S3-Bucket gespeichert ist.
     


    Erste Schritte mit dem Tutorial »


    Amazon EMR

    Erste Schritte mit Amazon EMR in EKS
     

    Wir zeigen Ihnen, wie Sie Amazon EMR in EKS nutzen können, indem Sie eine Spark-Anwendung in einem virtuellen Cluster bereitstellen.

    Erste Schritte mit dem Tutorial »

    Amazon EMR

    Erste Schritte mit EMR Serverless
     

    Finden Sie heraus, wie EMR Serverless eine Serverless-Laufzeitumgebung bereitstellt, die den Betrieb von Analyseanwendungen, die die neuesten Open-Source-Frameworks verwenden, vereinfacht.

    Erste Schritte mit dem Tutorial »

    Amazon EMR

    Neuerungen bei Amazon EMR

    Erfahren Sie mehr über die neuesten Entwicklungen bei Amazon EMR, darunter Amazon EMR Serverless, Amazon EMR Studio und mehr.

    Vortrag ansehen »

  • Data-Warehousing
  • Amazon Redshift

    Erste Schritte mit Amazon Redshift

    Machen Sie sich mit dem grundlegenden Ablauf von Amazon Redshift Serverless vertraut, um Serverless-Ressourcen zu erstellen, eine Verbindung zu Amazon Redshift Serverless herzustellen, Beispieldaten zu laden und dann Abfragen für die Daten auszuführen.

    Leitfaden erkunden »

    Amazon Redshift

    Modernisierung Ihres Data Warehouse


    Erfahren Sie, wie Sie die neuen Funktionen von Amazon Redshift verwenden können, um Ihr Data Warehouse zu modernisieren, indem Sie Zugriff auf alle Ihre Daten erhalten.



    Video ansehen »

    Amazon Redshift

    Bereitstellen eines Data Warehouse in AWS


    Erfahren Sie, wie Sie ein Amazon Redshift Data Warehouse erstellen und konfigurieren, Beispieldaten laden und diese mithilfe eines SQL-Clients analysieren.


    Erste Schritte mit dem Tutorial »

    Amazon Redshift

    Intensiv-Workshop zu Amazon Redshift

    Erkunden Sie eine Reihe von Übungen, die Benutzern den Einstieg in die Nutzung der Redshift-Plattform erleichtern.

    Erste Schritte mit dem Workshop »

  • Echtzeit-Analytik
  • Amazon Kinesis Data Analytics

    Erste Schritte mit Amazon Kinesis Data Analytics für Apache Flink
     

    Machen Sie sich mit den grundlegenden Konzepten von Kinesis Data Analytics für Apache Flink und der DataStream-API vertraut.

    Leitfaden erkunden »

    Amazon Kinesis Data Analytics

    Workshop zur Streaming-Analytik
     


    Erfahren Sie, wie Sie eine durchgängige Streaming-Architektur aufbauen, um Streaming-Daten nahezu in Echtzeit aufzunehmen, zu analysieren und zu visualisieren.

    Erste Schritte mit dem Workshop »

    Amazon Kinesis Data Analytics

    Einführung in Amazon Kinesis Data Analytics für Java-Anwendungen
     

    Finden Sie heraus, wie Sie Apache-Flink-Anwendungen in Amazon Kinesis Data Analytics nutzen können, um mehr zeitnahe Erkenntnisse aus Ihren Daten zu gewinnen.

    Sitzung ansehen (Anmeldung erforderlich) »

    Amazon Kinesis Data Analytics

    Clickstream-Übung

    Durchgängige Übung für einen Clickstream-Anwendungsfall unter Verwendung von Amazon MSK für die Stream-Speicherung und Amazon KDA für Java-Anwendungen mit der Apache-Flink-Engine für die Stream-Verarbeitung.

    Erste Schritte mit der Übung »

  • Betriebsanalytik
  • Amazon OpenSearch Service

    Erste Schritte mit Amazon OpenSearch Service


    Erfahren Sie, wie Sie den Amazon OpenSearch Service zur Erstellung und Konfiguration einer Test-Domain verwenden.

     





    Erste Schritte mit dem Tutorial »

    Amazon OpenSearch Service

    Visualisierung von Kunden-Supportanrufen mit OpenSearch Service und OpenSearch-Dashboards

    Entdecken Sie eine vollständige Anleitung für die folgende Situation: Ein Unternehmen erhält eine Reihe von Kunden-Supportanrufen und möchte diese analysieren. Was ist das Thema der einzelnen Anrufe? Wie viele waren positiv? Wie viele waren negativ? Wie können Manager die Transkripte dieser Anrufe durchsuchen oder überprüfen?

    Erste Schritte mit dem Tutorial »

    Amazon OpenSearch Service

    Workshop zu Erste Schritte mit Amazon OpenSearch Serverless

    Erfahren Sie, wie Sie eine neue Amazon OpenSearch Serverless-Domäne in der AWS-Konsole einrichten. Erkunden Sie verschiedene Arten von verfügbaren Suchabfragen, entwerfen Sie ansprechende Visualisierungen und erfahren Sie, wie Sie Ihre Domain und Ihre Dokumente basierend auf zugewiesenen Benutzerberechtigungen sichern können.


    Erste Schritte mit dem Workshop »

    Amazon OpenSearch Service

    Entwicklung einer Lösung für die Protokollanalyse mit Amazon OpenSearch Service

    Erfahren Sie, wie Sie einen OpenSearch-Cluster für einen Protokollanalyse-Workload dimensionieren. 


    Blogbeitrag lesen »

  • Dashboards und Visualisierungen
  • Amazon QuickSight

    Erste Schritte mit der Amazon-QuickSight-Datenanalyse

    Erfahren Sie, wie Sie Ihre erste Analyse erstellen. Verwenden Sie Beispieldaten, um entweder eine einfache oder eine komplexere Analyse zu erstellen. Oder stellen Sie eine Verbindung zu Ihren eigenen Daten her, um eine Analyse zu erstellen.


    Leitfaden erkunden »

    Amazon QuickSight

    Visualisierung mit QuickSight


    Entdecken Sie mit AWS die technische Seite der Business Intelligence (BI) und Datenvisualisierung. Erfahren Sie, wie Sie Dashboards in Anwendungen und Websites einbetten und Zugriffe und Berechtigungen sicher verwalten.

    Erste Schritte mit dem Kurs »

    Amazon QuickSight

    QuickSight-Workshops


    Verschaffen Sie sich mit Workshops einen Vorsprung auf Ihrem Weg zu QuickSight.

     



    Erste Schritte mit dem Workshop »

  • Visuelle Datenaufbereitung
  • AWS Glue DataBrew

    Erste Schritte mit AWS Glue DataBrew

    Erfahren Sie, wie Sie Ihr erstes DataBrew-Projekt erstellen. Sie laden einen Beispieldatensatz, führen Transformationen an diesem Datensatz aus, entwickeln ein Rezept, um diese Transformationen zu erfassen, und führen einen Auftrag aus, um die transformierten Daten in Amazon S3 zu schreiben.

    Erste Schritte mit dem Tutorial »

    AWS Glue DataBrew

    Transformation von Daten mit AWS Glue DataBrew

    Erfahren Sie mehr über AWS Glue DataBrew, ein visuelles Datenaufbereitungstool, mit dem Datenanalysten und Datenwissenschaftler Daten auf einfache Weise bereinigen und normalisieren können, um sie für Analytik und Machine Learning vorzubereiten. Erfahren Sie, wie Sie mit AWS Glue DataBrew einen ETL-Prozess erstellen.

    Erste Schritte mit der Übung »

    AWS Glue DataBrew

    Einführungstag zu AWS Glue DataBrew

    Erfahren Sie, wie Sie mit AWS Glue DataBrew Daten für Analytik und Machine Learning bereinigen und normalisieren. 





    Erste Schritte mit dem Workshop »

Datenverwaltung

  • Datenübermittlung in Echtzeit
  • Amazon Kinesis Data Streams

    Erste Schritte mit der Streaming-Aufnahme von Amazon Kinesis Data Streams

    Entdecken Sie, wie Sie Daten von Kinesis Data Streams direkt an Amazon Redshift streamen können, um die Zeit für den Datenzugriff zu verkürzen und die Speicherkosten zu senken.

    Leitfaden erkunden »

    Amazon MSK

    Erste Schritte mit der Streaming-Aufnahme von Amazon Managed Streaming für Apache Kafka

    Erfahren Sie, wie Sie Daten direkt von Amazon MSK zu Amazon Redshift streamen und so die Zeit für den Datenzugriff verkürzen und die Speicherkosten senken.

    Leitfaden erkunden »

    Amazon Redshift

    Erste Schritte mit der Null-ETL-Integration von Amazon Aurora mit Amazon Redshift

    Erfahren Sie, wie Sie mit der Null-ETL-Integration von Amazon Aurora mit Amazon Redshift Betriebsanalysen nahezu in Echtzeit durchführen können.

    Blog-Beitrag lesen »

    AWS Glue

    Workshop zum Einführungstag zu AWS Glue
     
    Arbeiten Sie an mehreren praktischen Übungen, die Ihnen aufzeigen, wie Sie reale Probleme mit AWS Glue und den zugehörigen AWS-Services lösen können.


    Erste Schritte mit dem Workshop »

    Amazon Kinesis Firehose

    Einführungstag zu Amazon Kinesis Data Firehose

    Erfahren Sie, wie Sie Streaming-Daten mit wenigen Konfigurationsschritten problemlos in Amazon OpenSearch und Amazon Redshift aufnehmen können.


    Erste Schritte mit dem Workshop »

    Amazon Kinesis Video Streams

    Workshop zu Amazon Kinesis Video Streams

    Erfahren Sie, wie Sie mithilfe von Amazon Kinesis Video Streams Videos von Kamerageräten aufnehmen und speichern, Live- und On-Demand-Wiedergabe durchführen und Videodateien herunterladen.

    Erste Schritte mit dem Workshop »

  • Daten-Governance
  • AWS Lake Formation

    Zentralisieren der Governance für Ihren Data Lake mithilfe von AWS Lake Formation

    Erfahren Sie, wie Sie mit AWS Lake Formation die Datenverwaltung und Datenzugriffsverwaltung zentralisieren und gleichzeitig Amazon Redshift Spectrum zum Abfragen Ihres Data Lake verwenden können.  

    Blog-Beitrag lesen »

     

    Amazon EMR

    Erste Schritte mit Amazon DataZone
     


    Erfahren Sie, wie Sie die Amazon DataZone-Root-Domain erstellen, die Datenportal-URL erhalten und die grundlegenden Amazon DataZone Workflows für Datenproduzenten und Datenkonsumenten durchlaufen.

    Leitfaden erkunden »

    Amazon EMR

    Erste Schritte mit EMR Serverless
     



    Finden Sie heraus, wie EMR Serverless eine Serverless-Laufzeitumgebung bereitstellt, die den Betrieb von Analyseanwendungen, die das neueste Open Source Framework verwenden, vereinfacht.

    Leitfaden erkunden »

  • Objektspeicher für Data Lakes
  • AWS Lake Formation

    Erste Schritte mit AWS Lake Formation

    Erfahren Sie, wie Sie Lake Formation zum ersten Mal einrichten, um Ihre vorhandenen Objekte und Datenspeicherorte von AWS Glue Data Catalog in Amazon S3 zu verwalten.

    Leitfaden erkunden »

    AWS Lake Formation

    Workshop zu AWS Lake Formation


    Erfahren Sie, wie Sie mit AWS Lake Formation einen Data Lake in AWS erstellen, sichern und verwalten.



    Erste Schritte mit dem Workshop »

    Amazon S3

    Zentraler Speicher – Amazon S3 als Data-Lake-Speicherplattform

    Erfahren Sie, warum Amazon S3 aufgrund seiner praktisch unbegrenzten Skalierbarkeit und hohen Haltbarkeit eine optimale Grundlage für einen Data Lake darstellt.


    Whitepaper lesen »

  • Datenkatalog
  • AWS-Glue-Datenkatalog

    Datenkatalog und Crawler in AWS Glue

    Erfahren Sie, wie Sie die Informationen im Datenkatalog zum Erstellen und Überwachen Ihrer ETL-Aufträge nutzen können.


    Leitfaden erkunden »

    AWS-Glue-Datenkatalog

    Erste Schritte mit AWS-Glue-Datenkatalog

    Erfahren Sie, wie Sie Ihren ersten AWS-Glue-Datenkatalog erstellen, der einen Amazon-S3-Bucket als Datenquelle nutzt.

    Erste Schritte mit dem Tutorial »

  • Drittanbieterdaten
  • AWS Data Exchange

    Erste Schritte als AWS-Data-Exchange-Subscriber

    Machen Sie sich mit dem vollständigen Prozess vertraut, um Subscriber eines Datenprodukts in AWS Data Exchange zu werden, indem Sie die AWS-Data-Exchange-Konsole verwenden.

    Leitfaden erkunden »

    AWS Data Exchange

    Erste Schritte als AWS-Data-Exchange-Anbieter

    Machen Sie sich mit dem vollständigen Prozess vertraut, um in AWS Data Exchange ein Anbieter von Datenprodukten zu werden, indem Sie die AWS-Data-Exchange-Konsole verwenden.

    Leitfaden erkunden »

    Amazon AppFlow icon

    Erste Schritte mit Amazon AppFlow

    Erfahren Sie mehr über Amazon AppFlow und die Voraussetzungen für den Einstieg.



    Leitfaden erkunden »

    AWS Data Exchange

    AWS Data Exchange Workshop

    Erkunden Sie Self-Service-Übungen, in denen Sie verstehen und erfahren können, wie AWS-Services in Verbindung mit Daten von Drittanbietern verwendet werden können, um Einblicke in Ihre Datenanalyseprojekte zu gewinnen.  

    Erste Schritte mit dem Workshop »

    Amazon AppFlow icon

    Amazon-AppFlow-Workshop

    Erfahren Sie mehr über Amazon AppFlow und wie Sie ganz einfach Daten zwischen beliebten SaaS-Services und AWS übertragen können.



    Erste Schritte mit dem Workshop »

Prädiktive Analytik und ML

  • Frameworks und Schnittstellen
  • Amazon Deep Learning AMIs

    Erste Schritte mit AWS Deep Learning AMIs

    Erkunden Sie Tipps zur Auswahl des für Sie geeigneten DLAMI, zur Auswahl eines Instance-Typs, der zu Ihrem Anwendungsfall und Budget passt, sowie zusätzliche Informationen, die benutzerdefinierte Einrichtungen beschreiben.
    Leitfaden erkunden »

    Amazon Deep Learning AMIs

    Tutorials zu Deep Learning AMIs


    Eine Reihe von Tutorials, die Ihnen zeigen, wie Sie das Deep Learning AMI mit der Software von Conda verwenden.



    Erste Schritte mit den Tutorials »

    Amazon Deep Learning AMIs

    Erste Schritte mit Deep Learning mithilfe des AWS-Deep-Learning-AMI

    Erfahren Sie mehr über AWS Deep Learning AMIs (Amazon Machine Images), mit denen Sie benutzerdefinierte Umgebungen und Workflows entwickeln können.


    Blogbeitrag lesen »

  • Plattform-Services
  • Amazon SageMaker

    Funktionsweise von Amazon SageMaker


    Verschaffen Sie sich einen Überblick über Machine Learning und die Funktionsweise von SageMaker in Amazon. 



    Leitfaden erkunden »

    Amazon SageMaker

    Erste Schritte mit Amazon SageMaker

    Wir zeigen Ihnen, wie Sie Amazon EMR in EKS nutzen können, indem Sie eine Spark-Anwendung in einem virtuellen Cluster bereitstellen.

    Leitfaden erkunden »

    Amazon SageMaker

    Generieren von Machine-Learning-Prognosen ohne Codierung
     

    Erfahren Sie, wie Sie mithilfe von Amazon SageMaker Canvas ML-Modelle entwickeln und genaue Prognosen generieren können, ohne eine einzige Codezeile zu schreiben.

    Erste Schritte mit dem Tutorial »

  • Direkte Datenintegrationen
  • AWS Athena ML

    Einsatz von Machine Learning mit Amazon Athena

    Erfahren Sie, wie Sie mit ML mit Amazon Athena mit Athena-SQL-Anweisungen schreiben können, die mithilfe von Amazon SageMaker Machine Learning (ML)-Inferenzen ausführen.



    Leitfaden erkunden »

    AWS QuickSight ML

    Mit Machine Learning in Amazon QuickSight Einblicke gewinnen

    Erfahren Sie, wie Sie mit den ML- und natürlichen Sprachfunktionen von Amazon QuickSight Enterprise Edition über die deskriptive und diagnostische Analyse hinaus in die Prognose- und Entscheidungsfindung einsteigen.

    Leitfaden erkunden »

    AWS Redshift ML

    Erste Schritte mit Amazon Redshift ML

    Erfahren Sie, wie Sie Ihre Daten in Ihrem Redshift-Cluster zum Trainieren von Modellen mit Amazon SageMaker verwenden können.





    Leitfaden erkunden »

    AWS Neptune ML

    So starten Sie mit Neptune ML

    Wir zeigen Ihnen, wie Sie Neptune ML einfach einrichten und Eigenschaften von Eckpunkten innerhalb eines Diagramms ableiten können.

    Blog-Beitrag lesen »

Erkunden

Architekturdiagramme

Erkunden Sie Architekturdiagramme, die Sie bei der Entwicklung, Skalierung und dem Testen Ihrer Analyselösungen in AWS unterstützen.

Architekturdiagramme erkunden »

 

Whitepaper

Lesen Sie Whitepapers, die Ihnen den Einstieg erleichtern, lernen Sie bewährte Methoden kennen und machen Sie sich mit Ihren Analysemöglichkeiten vertraut.

Whitepaper erkunden »

 

AWS-Lösungen

Erkunden Sie geprüfte Lösungen und Architekturleitfäden für gängige Anwendungsfälle für Analytik-Services.

Lösungen erkunden »

 

War diese Seite hilfreich?