AWS Cloud
AWS Cloud
Das kostenlose Testprogramm starten

Amazon Redshift ist ein schnelles, vollständig verwaltetes Data Warehouse, mit dem Sie im Zusammenspiel mit Ihren vorhandenen Business Intelligence-Tools und mithilfe von Standard-SQL alle Ihre Daten einfach und kostengünstig analysieren können. Es ermöglicht Ihnen die Ausführung komplexer Analyseabfragen für mehrere Petabyte strukturierter Daten mithilfe einer durchdachten Abfrageoptimierung, Spaltenspeicherung auf lokalen Hochleistungsdatenträgern und einer umfangreichen parallelen Abfrageausführung. Sie erhalten innerhalb weniger Sekunden mehr Ergebnisse. Mit Amazon Redshift können Sie für nur 0,25 USD pro Stunde ohne Verpflichtungen klein beginnen und für 1 000 USD pro Terabyte und Jahr eine Skalierung bis in den Petabytebereich vornehmen – für weniger als ein Zehntel der Kosten herkömmlicher Lösungen.

Amazon Redshift umfasst außerdem Redshift Spectrum, sodass Sie SQL-Abfragen direkt für mehrere Exabyte unstrukturierter Daten in Amazon S3 ausführen können. Es ist kein Laden und keine Umwandlung erforderlich, und Sie können offene Datenformate einschließlich Avro, CSV, Grok, ORC, Parquet, RCFile, RegexSerDe, SequenceFile, TextFile und TSV verwenden. Redshift Spectrum skaliert automatisch die Abfragerechenkapazität basierend auf den abgerufenen Daten, sodass Abfragen für Amazon S3 (unabhängig von der Größe des Datensatzes) schnell ausgeführt werden. Weitere Informationen zu Redshift Spectrum »

Durchgängig schnelle Leistung

Schnell

Amazon Redshift bietet eine schnelle Abfrageleistung mithilfe einer spaltenbasierten Speichertechnologie, mit der die E/A-Effizienz verbessert wird und Abfragen mehrerer Knoten parallel erfolgen. Bei Integrationen mit Amazon S3, Amazon DynamoDB, Amazon EMR, Amazon Kinesis oder einem beliebigen anderen SSH-fähigen Host wird die Datenladegeschwindigkeit mit der Clustergröße linear skaliert.

Hochgradig skalierbar

Kostengünstig

Sie zahlen nur für das, was Sie tatsächlich nutzen. Bei dieser Lösung kann eine unbegrenzte Anzahl von Benutzern unbegrenzt Analysen zu all Ihren Daten durchführen, und das für nur 1 000 USD pro Terabyte und Jahr. Dies entspricht einem Zehntel der Kosten für herkömmliche Data Warehouse-Lösungen. Die meisten Kunden stellen nach der Komprimierung eine Reduzierung der Datengröße um den Faktor 3 bis 4 fest, sodass ihre Kosten auf 250 USD bis 333 USD pro unkomprimiertem Terabyte und Jahr gesenkt werden.

Durchgängig hohe Leistung

Erweiterbar

Redshift Spectrum ermöglicht Ihnen die Ausführung von Abfragen für mehrere Exabyte an Daten in Amazon S3, die so einfach ist wie die Ausführung von Abfragen für Petabyte an Daten auf lokalen Datenträgern in Amazon Redshift – unter Verwendung der gleichen SQL-Syntax und BI-Tools, die Sie heute nutzen. Sie können hochgradig strukturierte, häufig genutzte Daten auf lokalen Redshift-Datenträgern speichern, riesige Mengen unstrukturierter Daten in einem Amazon S3-"Data Lake" aufbewahren und übergreifende Abfragen ausführen.

Flexibel

Simple

Mit Amazon Redshift können Sie typische administrative Aufgaben, wie Verwaltung, Überwachung und Skalierung Ihres Data Warehouse, mühelos automatisieren. Durch Übernehmen dieser zeitaufwendigen und arbeitsintensiven Aufgaben gibt Ihnen Amazon Redshift Spielraum, sich auf Ihre Daten und Ihr Geschäft zu konzentrieren.

Hochgradig skalierbar

Skalierbar

Mithilfe weniger Klicks in der Konsole oder per einfachem API-Aufruf können Sie die Größe Ihres Clusters je nach Leistungs- und Kapazitätsanforderungen nach oben oder unten anpassen.

Flexibel

Sicher

Sicherheit ist eingebaut. Sie können gespeicherte oder in der Übertragung befindliche Daten mithilfe hardwarebeschleunigter AES-256- und SSL-Verfahren verschlüsseln, Ihre Cluster mithilfe von Amazon VPC isolieren und sogar Ihre Schlüssel mit AWS Key Management Service (KMS) und Hardware-Sicherheitsmodulen (HSMs) verwalten.

Eventgesteuerte Programmierung

Kompatibel

Amazon Redshift unterstützt Standard SQL-Treiber und stellt benutzerdefinierte JDBC- und ODBC-Treiber bereit, die Sie von der Konsole herunterladen können, sodass Sie verschiedenste vertraute SQL-Clients nutzen können. Sie können also PostgreSQL JDBC- und ODBC-Treiber verwenden.

Optimiert für Data Warehousing

Amazon Redshift nutzt verschiedene Innovationen zum Erzielen einer sehr hohen Abfrageleistung bei Datenmengen im Bereich von 100 Gigabytes bis zu einem Exabyte und mehr. Für lokale Daten in Petabytegröße kommen eine spaltenbasierte Speicherung, Datenkomprimierung und Zonenzuordnungen zum Einsatz, um den E/A-Aufwand bei der Ausführung von Abfragen zu verringern. Amazon Redshift verfügt über eine Data Warehouse-Architektur für massive parallele Verarbeitungen (Massively Parallel Processing, MPP), mit der SQL-Vorgänge zur Nutzung aller verfügbaren Ressourcen parallelisiert und verteilt werden. Die zugrunde liegende Hardware ist auf Hochleistungsdatenverarbeitung ausgerichtet, wobei lokal angeschlossene Speicher zur Maximierung des Durchsatzes zwischen den CPUs und den Laufwerken sowie ein vermaschtes 10GbE-Netz zur Maximierung des Durchsatzes zwischen Knoten eingesetzt werden. Für Daten in Exabytegröße in Amazon S3 generiert Amazon Redshift einen optimalen Abfrageplan, der die gescannte Datenmenge minimiert und die Abfrageausführung an einen Pool mit Redshift Spectrum-Instances delegiert, die automatisch skaliert werden, damit Abfragen unabhängig von der Größe schnell ausgeführt werden.

Petabyteskalierung

Mithilfe weniger Klicks in der Konsole oder einem einfachen API-Aufruf können Sie die Anzahl oder den Typ der Knoten in Ihrem Data Warehouse ohne großen Aufwand ändern und die komprimierten Benutzerdaten auf ein Petabyte oder mehr skalieren. Dense Storage-Knoten (DS) ermöglichen die Einrichtung sehr großer Data Warehouses mithilfe von Festplattenlaufwerken zu einem sehr niedrigen Einstiegspreis. Dense Compute-Knoten (DC) ermöglichen das Einrichten besonders leistungsstarker Data Warehouses unter Verwendung von schnellen CPUs, großen Arbeitsspeichermengen und SSD-Festplatten (Solid-State Disks). Während der Skalierung können Sie in Amazon Redshift Ihre Data Warehouse-Abfrage im schreibgeschützten Modus fortsetzen, bis der neue Cluster vollständig bereitgestellt und einsatzfähig ist.

Abfragen Ihres Amazon S3-"Data Lake"

Redshift Spectrum ermöglicht Ihnen das Ausführen von Abfragen für mehrere Exabyte unstrukturierter Daten in Amazon S3, ohne dass Ladevorgänge oder ETL erforderlich sind. Wenn Sie eine Abfrage ausgeben, erreicht diese den Amazon Redshift-SQL-Endpunkt, der einen Abfrageplan generiert und optimiert. Amazon Redshift ermittelt, welche Daten lokal gespeichert sind und welche sich in Amazon S3 befinden, generiert einen Plan zum Minimieren der zu lesenden Amazon S3-Datenmenge, fordert Amazon Redshift Spectrum-Arbeitsressourcen aus einem freigegebenen Ressourcenpool an, um Daten aus Amazon S3 zu lesen und zu verarbeiten, und leitet die Ergebnisse für alle restlichen Verarbeitungsschritte zurück in Ihren Amazon Redshift-Cluster.

Keine Vorlaufkosten

Sie zahlen nur für die Ressourcen, die Sie tatsächlich bereitstellen. Sie können On-Demand-Tarife ohne Vorauszahlungen oder langfristige Bindungen wählen oder mit Reserved Instances von erheblich reduzierten Preisen profitieren. Die Preise von On-Demand-Instances beginnen bei nur 0,25 USD/h pro DC1.Large-Knoten mit 160 GB bzw. 0,85 USD/h pro DS2.XLarge-Knoten mit 2 TB. Bei Partial Upfront Reserved Instances können Sie Ihren effektiven Preis auf 0,10 USD/h pro DC2.Large-Knoten (5 500 USD/TB/Jahr) bzw. 0,228 USD/h pro DS1.XLarge-Knoten (999 USD/TB/Jahr) senken. Redshift Spectrum-Abfragen kosten 5 USD pro TB aus S3 gescannter Daten. Weitere Informationen erhalten Sie auf der Seite mit den Amazon Redshift-Preisen.

Fehlertolerant

Amazon Redshift bietet mehrere Funktionen zum Steigern der Zuverlässigkeit Ihres Data Warehouse-Clusters. Alle auf einen Knoten in Ihrem Cluster geschrieben Daten werden auf andere Knoten im Cluster repliziert, und alle Daten werden fortlaufend in Amazon S3 gesichert. Amazon Redshift überwacht ständig den Status des Clusters, führt automatisch eine erneute Replikation der Daten von ausgefallenen Laufwerken durch und ersetzt bei Bedarf Knoten.

Automatische Backups

Amazon Redshift sichert neue Daten automatisch und kontinuierlich in Amazon S3. Snapshots werden für einen benutzerdefinierten Zeitraum zwischen 1 und 35 Tagen gespeichert. Sie können jederzeit Ihre eigenen Snapshots verwenden. Diese werden solange aufbewahrt, bis Sie sie explizit löschen. Amazon Redshift kann Ihre Snapshots zur Notfallwiederherstellung auch asynchron in S3 in einer anderen Region replizieren. Wenn Sie einen Cluster löschen, werden die System-Snapshots entfernt, aber die Benutzer-Snapshots stehen weiterhin zur Verfügung, solange sie nicht explizit gelöscht werden.

Schnelle Wiederherstellungen

Sie können jeden System- oder Benutzer-Snapshot verwenden, um Ihren Cluster über die AWS Management Console oder die Amazon Redshift-APIs wiederherzustellen. Ihr Cluster ist wieder verfügbar, sobald die System-Metadaten wiederhergestellt wurden, und Sie können mit dem Ausführen von Abfragen beginnen, während das Spooling der Benutzerdaten im Hintergrund erfolgt.

Verschlüsselung

Mit nur ein paar Parametereinstellungen können Sie Amazon Redshift für die Verwendung von SSL zum Absichern der Daten während der Übertragung und der hardwarebeschleunigten AES-256-Verschlüsselung zum Absichern gespeicherter Daten konfigurieren. Wenn Sie die Verschlüsselung für Daten bei der Speicherung aktivieren, werden alle auf einen Datenträger geschriebenen sowie sämtliche Backups verschlüsselt. Amazon Redshift übernimmt standardmäßig die Schlüsselverwaltung, aber Sie können Ihre Schlüssel auch mit eigenen Hardware-Sicherheitsmodulen (HSMs), AWS CloudHSM oder AWS Key Management Service verwalten.

Netzwerkisolierung

In Amazon Redshift können Sie Firewall-Regeln konfigurieren, um den Netzwerkzugriff auf Ihren Data Warehouse-Cluster zu kontrollieren. Sie können Amazon Redshift auch in Amazon VPC ausführen, um Ihren Data Warehouse-Cluster in Ihrem eigenen virtuellen Netzwerk zu isolieren und die Verbindung zur vorhandenen IP-Infrastruktur über dem Branchenstandard entsprechende, verschlüsselte IPsec-VPNs herzustellen.

Überwachung und Compliance

Amazon Redshift ist mit AWS CloudTrail integriert, um sämtliche Aufrufe von Redshift-APIs überwachen zu können. Amazon Redshift protokolliert außerdem alle SQL-Vorgänge, so z. B. Verbindungsversuche, Abfragen und Änderungen an Ihrer Datenbank. Sie können auf diese Protokolle über SQL-Abfragen von Systemtabellen zugreifen oder sie an einen sicheren Speicherort in Amazon S3 herunterladen. Amazon Redshift erfüllt die Vorgaben von SOC1, SOC2, SOC3 und PCI DSS Level 1. Weitere Informationen erhalten Sie unter AWS-Cloud – Compliance.

440x220_APN-Blog

Amazon Redshift Spectrum erweitert die Analyseleistung von Amazon Redshft über lokal in Ihrem Data Warehouse gespeicherte Daten hinaus und ermöglicht die Abfrage enormer Datenvolumen in Ihrem Amazon S3-"Data Lake", ohne dass Daten geladen oder umgewandelt werden müssen. In diesem Blog-Post haben wir 10 wichtige bewährte Methoden für Amazon Redshift Spectrum erfasst und in verschiedene Funktionsgruppen eingeteilt.

Ganzen Blogbeitrag lesen »

Mit Amazon Redshift Spectrum können Amazon Redshift-Kunden einfach ihre Daten in Amazon S3 abfragen. Redshift Spectrum bearbeitet Ihre Quelldaten direkt im nativen Format (einschließlich Avro, CSV, Grok, ORC, Parquet, RCFile, RegexSerDe, SequenceFile, TextFile und TSV). Das bedeutet, dass kein Laden oder Umwandeln von Daten erforderlich ist.

Ganzen Blogbeitrag lesen »

Damit Sie Ihre Daten ohne vorherige Bearbeitung und an jedem Speicherort verarbeiten und gleichzeitig die Leistung und Flexibilität von Amazon Redshift nutzen können, starten wir Amazon Redshift Spectrum. Mit Spectrum können Sie komplexe Abfragen für in Amazon Simple Storage Service (S3) gespeicherte Daten ausführen, ohne dass Daten geladen oder anderweitig vorbereitet werden müssen.

Ganzen Blogbeitrag lesen »

Spaltenkomprimierung ist eine wichtige Technologie in Amazon Redshift. Dies trägt zur Senkung der Kundenkosten bei, indem die effektive Speicherkapazität unserer Knoten erhöht wird, und verbessert die Leistung durch Reduzieren der E/A, die zum Verarbeiten von SQL-Anforderungen erforderlich ist. Das Verbessern der E/A-Effizienz ist für Data Warehousing von entscheidender Bedeutung. Letztes Jahr wurde der Abfragedurchsatz durch unsere E/A-Verbesserungen verdoppelt. Sehen wir uns einige der neuen Komprimierungsverbesserungen an, mit denen wir kürzlich Amazon Redshift ergänzt haben.

Ganzen Blogbeitrag lesen »

Eine vollständige Liste mit Blogbeiträgen zu Amazon Redshift finden Sie auf der Seite mit den Blogbeiträgen »

Informationen zu den neuen Features in Amazon Redshift finden Sie auf der Seite mit den Neuheiten »

Probieren Sie Amazon Redshift kostenlos aus. Sichern Sie sich kostenlos für zwei Monate pro Monat 750 Stunden DC1.Large. Um die kostenlose Testversion nutzen zu können, erstellen Sie ein AWS-Konto und melden Sie sich bei der Amazon Redshift Console an. Starten Sie einen Amazon Redshift-Cluster und wählen Sie als Knotentyp "DC1.Large" aus. Um Unterstützung für Ihre Machbarkeitsstudie und Bewertung für Ihr Data Warehouse anzufordern, klicken Sie hier.

 

Legen Sie gleich los