AWS Cloud
Erste Schritte mit Amazon Redshift

Daten und deren Analyse sind heute ein unverzichtbares Werkzeug für die Wettbewerbsfähigkeit von Unternehmen. Unternehmen nutzen Berichte, Dashboards und Analysetools, um harte Fakten aus ihren Daten zu gewinnen, die Geschäftsleistung zu überwachen und Entscheidungen zu treffen. Im Hintergrund werden diese Berichte, Dashboards und Analysetools von Data Warehouses unterstützt, die Daten effizient speichern, um E/A-Vorgänge zu minimieren und Abfrageergebnisse gleichzeitig in kürzester Zeit Hunderten und Tausenden von Benutzern bereitzustellen.

Whitepaper Enterprise Data Warehousing on AWS herunterladen

Ein Data Warehouse ist ein zentrales Repository für die Daten einer oder mehrerer Datenquellen. Die Daten eines Data Warehouse stammen aus Transaktionssystemen und anderen relationalen Datenbanken und umfassen in der Regel strukturierte, halbstrukturierte und unstrukturierte Daten. Diese Daten werden in regelmäßigen Intervallen verarbeitet, transformiert und in das Data Warehouse eingespeist. Die Benutzer, beispielsweise Informatiker, Geschäftsanalysten und Entscheidungsträger, greifen über Business Intelligence-Tools, SQL-Clients und Tabellenkalkulationsprogramme auf die verarbeiteten Daten im Data Warehouse zu.

 

  Data Warehouse Transaktionsdatenbank
Geeignete Arbeitslasten Analysen, Big Data Transaktionsverarbeitung
Operationsarten Optimiert für Schreibvorgänge im Batchverfahren und das Einlesen großer Datenvolumen zur Minimierung von E/A-Zugriffen und zur Maximierung des Datendurchsatzes Optimiert für fortlaufende Schreibvorgänge und große Volumen kleiner Lesevorgänge zur Maximierung des Datendurchsatzes
Datennormalisierung Bedient sich denormalisierter Schemas wie dem Stern- und dem Schneeflockenschema Bedient sich stark normalisierter Schemas, die für hohe Transaktionsdurchsätze besser geeignet sind
Speicher Erfordert einen spaltenbasierten oder einen auf andere Weise spezialisierten Speicher Zeilenorientierte Datenbanken, in denen Datenzeilen vollständig in einem physischen Block gespeichert werden

Mit AWS können Sie die Vorteile aller Kernleistungen des On-Demand-Computing nutzen, wie den Zugriff auf nahezu unbegrenzte Speicher- und Rechenkapazitäten sowie die Möglichkeit der Systemskalierung parallel zur wachsenden Menge der erfassten, gespeicherten und abgefragten Daten – und dabei zahlen Sie nur für die bereitgestellten Ressourcen. Darüber hinaus bietet AWS ein breites Spektrum verwalteter Services, die sich nahtlos ineinander integrieren. Eine durchgehende Analyse- und Data Warehousing-Lösung ist damit schnell bereitgestellt.

Folgende Abbildung zeigt die wichtigsten Schritte einer durchgehenden Analyseprozesskette sowie die für jeden Schritt verfügbaren verwalteten AWS-Services:

Analyse-Pipeline auf AWS

Amazon Redshift ist eine schnelle, benutzerfreundliche, vollständig verwaltete Data Warehouse-Lösung. Sie automatisiert die Bereitstellung der Infrastruktur sowie Verwaltungsaufgaben wie Backups, Replizierung und Patching. Sie lässt sich nahtlos in BI-Tools und ETL-Tools von Drittanbietern integrieren. So können Sie Ihren ersten Bericht in nur wenigen Minuten erhalten. Und bei der zu ladenden und analysierenden Datenmenge besteht keine Beschränkung. Bei zunehmender Datenmenge müssen Sie sich keine Sorgen um kostspielige Systemupgrades oder Leistungseinbußen machen. Redshift ist aufgrund seiner spaltenbasierten Speichertechnologie und zahlreicher Optimierungen in jeder Größenordnung schnell. Amazon Redshift ist zudem kosteneffizient und Sie zahlen nur für das, was Sie auch tatsächlich nutzen. Dies bedeutet, dass Sie einer unbegrenzten Anzahl von Benutzern uneingeschränkt die Analyse all Ihrer Daten ermöglichen können, und dies für nur 1 000 USD pro Terabyte pro Jahr. Weitere Informationen