Neuerungen

Lesen Sie unsere Posts zu Neuerungen, um mehr über neue Funktionen und Ankündigungen für Amazon Redshift und Redshift Spectrum zu erfahren.

Brauchen Sie Hilfe bei Ihrer Machbarkeitsstudie?

Informationen zur Erstellung einer Lösung für einen Machbarkeitsnachweis mit Amazon Redshift finden Sie im Abschnitt Building a Proof of Concept for Amazon Redshift. Sollten Sie hierzu weitere Unterstützung benötigen, klicken Sie hier.

Dokumentation

Handbuch "Erste Schritte": Bietet eine Einführung in Amazon Redshift, eine Anleitung zur Einrichtung eines Kontos sowie ein einfaches Beispiel zur Veranschaulichung der erstmaligen Nutzung von Amazon Redshift. Bietet ferner Tipps und Links zu erweiterten Produktfunktionen und Ressourcen. HTML | PDF | Kindle

Amazon Redshift – Clusterverwaltungshandbuch: Zeigt Ihnen, wie Sie Amazon Redshift-Cluster erstellen und verwalten. HTML | PDF | Kindle

Amazon Redshift – Handbuch für Datenbankentwickler: Erläutert das Entwerfen, Erstellen, Abfragen und Pflegen der Datenbanken, aus denen das Data Warehouse besteht. Umfasst auch Syntax für SQL-Befehle und -Funktionen von Amazon Redshift. HTML | PDF

Amazon Redshift – API-Referenz: Beschreibt detailliert alle API-Operationen für Amazon Redshift. Darüber hinaus enthält dieser Leitfaden Beispiele für Anforderungen, Antworten und Fehler für die unterstützten Web-Service-Protokolle. HTML | PDF

Amazon Redshift – CLI Guide: Beschreibt ausführlich die Befehlszeilenschnittstelle für Amazon Redshift. Hier finden Sie Basissyntax, Optionen und Verwendungsbeispiele für die einzelnen Befehle. HTML

Bewährte Methoden

Laden von Daten: Laden Sie Ihre Daten effizient mit COPY-Befehlen, Masseneinfügungen und Staging-Tabellen. Weitere Informationen »

Entwerfen eines Data-Warehouse-Schemas: Entwerfen Sie Ihre Datenbank hinsichtlich einer hohen Abfrageleistung, geringen Speicher- und Arbeitsspeicheranforderungen und minimalen E/A-Vorgängen. Weitere Informationen »

Abfrageleistung optimieren: Optimieren Sie Ihre Abfragen mit diesen Tipps und Taktiken, um eine maximale Leistung zu erzielen. Weitere Informationen »

Optimieren und Verwalten von Skripts und Tools

Amazon Redshift – Administratorskripts   

SQL-Skripts für Diagnosemaßnahmen im Amazon Redshift-Cluster mithilfe von Systemtabellen. Hier herunterladen »

Liste der Skripts:

  • top_queries.sql – gibt die 50 zeitaufwändigsten Anweisungen der letzten 7 Tage zurück
  • perf_alerts.sql – gibt die am häufigsten aufgetretenen Warnung zusammen mit Tabellenscans zurück
  • filter_used.sql – gibt den Filter zurück, der bei Scans auf Tabellen angewendet wird, um die Wahl eines Suchkriteriums zu erleichtern
  • commit_stats.sql – zeigt Informationen zum Verbrauch von Cluster-Ressourcen durch COMMIT-Anweisungen an
  • current_session_info.sql – zeigt Informationen zu Sitzungen mit aktuell aktiven Abfragen an
  • missing_table_stats.sql – zeigt EXPLAIN-Pläne, die in den zugrunde liegenden Tabellen mit "missing statistics" markiert wurden
  • queuing_queries.sql – listet Abfragen auf, die auf einen WLM-Abfrageplatz warten
    table_info.sql – gibt Tabellenspeicherinformationen (Größe, Versatz usw.) zurück 

SQL-Administratoransichten    

SQL-Ansichten für das Verwalten des Amazon Redshift Clusters und das Generieren einer Schema-DDL. Alle Ansichten setzen voraus, dass Sie ein Schema namens "Admin" haben. Hier herunterladen »

Liste der Ansichten:

  • v_check_data_distribution.sql – Abrufen der Datenverteilung auf Slices
  • v_constraint_dependency.sql – Abrufen der Fremdschlüsselbeschränkungen zwischen Tabellen
  • v_generate_group_ddl.sql – Abrufen der DDL für eine Gruppe
  • v_generate_schema_ddl.sql – Abrufen der DDL für Schemas
  • v_generate_tbl_ddl.sql – Abrufen der DDL für eine Tabelle; enthält Verteilungsschlüssel, Sortierungsschlüssel und Einschränkungen
  • v_generate_unload_copy_cmd.sql – Generieren von Befehlen zum Entladen und Kopieren für ein Objekt
  • v_generate_user_object_permissions.sql – Abrufen der DDL für eine Benutzerberechtigung für Tabellen und Ansichten
  • v_generate_view_ddl.sql – Abrufen der DDL für eine Ansicht
  • v_get_obj_priv_by_user.sql – Abrufen der Tabelle/Ansichten, auf die ein Benutzer Zugriff hat
  • v_get_schema_priv_by_user.sql – Abrufen des Schemas, auf das Benutzer Zugriff hat
  • v_get_tbl_priv_by_user.sql – Abrufen der Tabellen, auf die ein Benutzer Zugriff hat
  • v_get_users_in_group.sql – Abrufen aller Benutzer in einer Gruppe
  • v_get_view_priv_by_user.sql – Abrufen der Ansichten, auf die ein Benutzer Zugriff hat
  • v_object_dependency.sql – Zusammenführen der verschiedenen Abhängigkeitsansichten
  • v_space_used_per_tbl.sql – pro Tabelle verwendeter Pull-Speicherplatz
  • v_view_dependency.sql – Abrufen der Namen von Ansichten, die von anderen Tabellen/Ansichten abhängen
  • v_check_transaction_locks.sql – Abrufen der Informationen zu Sperren durch offene Transaktionen
  • v_check_wlm_query_time.sql – Abrufen der WLM-Wartezeit und -Ausführungszeit der letzten 7 Tage
  • v_check_wlm_query_trend_daily.sql – Abrufen der WLM-Abfrageanzahl, -Wartezeit, -Ausführungszeit pro Tag
  • v_check_wlm_query_trend_hourly.sql – Abrufen der WLM-Abfrageanzahl, -Wartezeit, -Ausführungszeit pro Stunde
  • v_generate_cancel_query.sql – Abrufen der Abbruchabfrage
  • v_get_cluster_restart_ts.sql – Abrufen des Datums und der Uhrzeit des letzten Cluster-Neustarts
  • v_get_vacuum_details.sql – Abrufen von Vakuumdetails

Hilfsprogramm für die Spaltencodierung

Ermitteln Sie mit diesem Hilfsprogramm die optimale Komprimierung für Ihre Amazon Redshift-Daten. Hier herunterladen »

Hilfsprogramm zum Entladen/Kopieren

Migrieren Sie problemlos Daten zwischen zwei Amazon Redshift-Tabellen, die sich in unterschiedlichen Datenbanken, Clustern oder Regionen befinden können. Alle exportierten Daten werden mit AWS Key Management Service (KMS) verschlüsselt. Sie können dieses Hilfsprogramm als Ergänzung von AWS Data Pipeline verwenden, um routinemäßig Daten zwischen Systemen zu verschieben, zum Beispiel zwischen Produktion und Test, oder um schreibgeschützte Kopien auf anderen Clustern aufzubewahren. Hier herunterladen »

Beitrag der Community: Funktionen und Tools

Tools für Analyse und Administration

Einfach  

Häufig verwendete User-Defined Functions (UDF). Eine Sammlung hilfreicher UDFs für den täglichen Einsatz. Von Periscope zur Verfügung gestellt. Weitere Informationen » | Hier herunterladen »

ETL-Tool von Yelp für Amazon Redshift. Verwenden Sie Mycroft von Yelp zum automatischen Laden von Daten in Amazon Redshift. Weitere Informationen finden Sie in diesem Blog-Beitrag. Hier herunterladen »

Framework für die Entwicklung von UDFs. Zum Vereinfachen der Entwicklung hat Periscope ein Framework für das Verwalten und Testen von UDFs erstellt. Beitrag von Periscope Data. Hier herunterladen »

re:Dash. Eine kostenlose Open Source-Plattform zur Zusammenarbeit und Datenvisualisierung, die den schnellen und einfachen Zugriff auf Milliarden von Datensätzen ermöglicht. Zu den Funktionen gehören ein Schema-Browser, verbesserte Planung, automatische Vervollständigung und die Möglichkeit zum Schreiben von Python-Abfragen. Von EverythingMe zur Verfügung gestellt. Hier herunterladen »

Das Amazon Redshift-Administrator-Dashboard von EverythingMe. Überwachen Sie mit diesem benutzerfreundlichen Tool ausgeführte Abfragen, WLM-Warteschlangen und Ihre Tabellen/Schemas. Von EverythingMe zur Verfügung gestellt. Hier herunterladen »

Spark-Redshift-Bibliothek. Verwenden Sie diese Bibliothek, um Daten aus Amazon Redshift in Apache Spark-SQL-DataFrames zu laden und Daten aus Apache Spark wieder in Amazon Redshift zu schreiben. Gutes Beispiel für die Verwendung er AVRO-Erfassung mit Amazon Redshift. Von Swiftkey zur Verfügung gestellt. Hier herunterladen »

Blog-Artikel

In unserem reichhaltigen Angebot an Blog-Artikeln stellen wir Anwendungsfälle und bewährte Methoden vor, die Ihnen dabei helfen, Amazon Redshift optimal zu nutzen. Rufen Sie eine vollständige Liste der Blog-Artikel über die nachstehenden Ressourcen auf.

Lesen Sie Artikel zu Amazon Redshift im AWS News-Blog.

Erfahren Sie mehr über bewährte Methoden, Funktionen und Anwendungsfälle bei Kunden im AWS Big Data-Blog.

Erfahren Sie im AWS-Datenbank-Blog u. a., wie Sie von einem lokalen Data Warehouse nach Amazon Redshift migrieren.

Webinare

Einführung in Amazon Redshift Spectrum: Rufen Sie nun Exabyte an Daten in S3 ab

Redshift Spectrum erweitert Amazon Redshift über die in Ihrem Data Warehouse gespeicherten Daten hinaus und ermöglicht die Abfrage Ihrer Daten in Amazon S3. Sie können Abfragen an S3-Daten ausführen oder S3- und Redshift-Daten verknüpfen, um einen besonderen Einblick zu erhalten, der bei einer Abfrage unabhängiger Datensilos nicht möglich ist.

Serverlose Analysen – Amazon Redshift Spectrum, AWS Glue und Amazon QuickSight

Erfahren Sie, wie Sie eine serverlose Big Data-Analyselösung mit Amazon Redshift Spectrum, AWS Glue und Amazon QuickSight erstellen, sodass Sie nicht mehr in Datenbanken, Data Warehouses, komplexe ETL-Lösungen und BI-Anwendungen investieren müssen.

Analysieren Sie Ihren Data Lake, schnell und im großen Maßstab

Erfahren Sie, wie SQL-Abfragen an offenen, in Amazon S3 gespeicherten Datenformaten und an Daten ausgeführt werden, die in Ihrem Amazon Redshift Data Warehouse gespeichert sind. Wir zeigen Ihnen auch, wie Sie Ihren Data Lake und Ihr Data Warehouse analysieren und schnelle Ergebnisse in großem Maßstab erhalten – von Gigabyte bis hin zu Exabyte.

Bleiben Sie mit AWS-Webinaren auf dem Laufenden.

Ausgewählte Ereignissitzungen

Migration Ihres herkömmlichen Data Warehouse in einen modernen Data Lake (ABD327)

Erfahren Sie mehr über die jüngste Verfügbarkeit, die aktuelle Leistung und die neuesten Managementerweiterungen und verfolgen Sie die Diskussion von 21st Century Fox über ihre Migration von einem lokalen Data Warehouse nach Amazon Redshift und einer Data-Lake-Architektur.

Entwicklung einer Insights-Plattform – Syscos Weg von ungleichen Systemen zu einem Data Lake (ABD303)

Sehen Sie sich an, wie das Business Intelligence- und Analyseteam von Sysco mithilfe von Amazon Redshift Spectrum, Amazon S3, Amazon EMR, AWS Glue, Amazon Elasticsearch Service und anderen AWS-Services einen Data Lake mit skalierbaren Analysen und Abfrage-Engines geschaffen hat, die AWS-Services nutzen.

Bewährte Verfahren für Data Warehousing mit Amazon Redshift (ABD304)

Hier erhalten Sie einen tiefen Einblick darüber, wie beim modernen Data Warehousing alle Ihre Daten innerhalb und außerhalb Ihres Data Warehouse analysiert werden, ohne die Daten zu verschieben. Verfolgen Sie die bewährten Methoden, wie Sie optimal Schemas entwickeln, Daten effizient laden und Ihre Abfragen optimieren, um einen hohen Durchsatz und eine hohe Leistung bereitzustellen.

Self-Service-Analyse mit AWS Big Data und Tableau (ARC217)

Hier erfahren Sie, wie die Gruppe Expedia Global Payments Business Intelligence mit AWS und Tableau eine komplette Cloud Data Mart-Lösung online neu entwickelte und erstellte. Sie erhalten Informationen über die bewährten Methoden, Optimierungstechniken und Erfahrungen.

Migration von Datenbanken und Data Warehouses in die Cloud (DAT317)

Hier lernen Sie, wie Sie mit AWS Database Migration Service (AWS DMS) und dem AWS Schema Conversion Tool (AWS SCT) Daten und prozeduralen Code einfach und sicher von bestehenden Datenbanken und Data Warehouses nach Amazon Redshift und anderen AWS-Services migrieren können.

GPS: Optimierungstipps: Amazon Redshift für Cloud Data Warehousing (GPSTEC315)

Hier finden Sie Tipps und Methoden, wie Sie Ihre Amazon Redshift-Bereitstellung optimieren, effizient skalieren und wachsende Anforderungen an Ihr Data Warehouse kosteneffizient erfüllen.

Weitere Informationen zu den Preisen von Amazon Glacier

Zur Seite mit den Preisen
Bereit zum Entwickeln?
Erste Schritte mit Amazon Redshift
Sind noch Fragen offen?
Kontakt