Hier erfahren Sie, wie Amazon Redshift-Cluster eingerichtet und verwaltet werden.  HTML | PDF | Kindle

Erläutert das Entwerfen, Erstellen, Abfragen und Warten der Datenbanken, aus denen das Data Warehouse besteht. Umfasst auch Syntax für SQL-Befehle und -Funktionen von Amazon Redshift.  HTML | PDF

Beschreibt sämtliche API-Vorgänge für Amazon Redshift im Detail. Darüber hinaus enthält dieser Leitfaden Beispiele für Anforderungen, Antworten und Fehler für die unterstützten Web-Service-Protokolle.  HTML | PDF

Bietet eine detaillierte Beschreibung der Befehlszeilen-Schnittstelle von Amazon Redshift. Hier finden Sie Basissyntax, Optionen und Verwendungsbeispiele für die einzelnen Befehle.  HTML


AWS-Webcast zu den bewährten Methoden für das Laden von Daten und das Optimieren der Abfrageleistung in Amazon Redshift.  Video ansehen (Teil 1) | Video ansehen (Teil 2)

Laden Sie Ihre Daten effizient mit COPY-Befehlen, Masseneinfügungen und Staging-Tabellen.  Weitere Informationen »

Entwerfen Sie Ihre Datenbank hinsichtlich einer hohen Abfrageleistung, geringen Speicher- und Arbeitsspeicheranforderungen und minimalen E/A-Vorgängen.  Weitere Informationen »

Optimieren Sie Ihre Abfragen mit diesen Tipps und Taktiken, um eine maximale Leistung zu erzielen.  Weitere Informationen »


SQL-Skripts für Diagnosemaßnahmen im Amazon Redshift-Cluster mithilfe von Systemtabellen.  Hier herunterladen »

Liste der Skripts:

  • top_queries.sql – gibt die 50 zeitaufwändigsten Anweisungen der letzten 7 Tage zurück
  • perf_alerts.sql – gibt die am häufigsten aufgetretenen Warnung zusammen mit Tabellenscans zurück
  • filter_used.sql – gibt einen Filter zurück, der auf Tabellen oder Scans angewendet wurde Hilfe bei der Sortierungsschlüsselauswahl
  • commit_stats.sql – zeigt Informationen zum Verbrauch von Cluster-Ressourcen durch COMMIT-Anweisungen an
  • current_session_info.sql – zeigt Informationen zu Sitzungen mit aktuell aktiven Abfragen an
  • missing_table_stats.sql – zeigt EXPLAIN-Pläne, die in den zugrunde liegenden Tabellen mit "missing statistics" markiert wurden
  • queuing_queries.sql – listet Abfragen auf, die auf einen WLM-Abfrageplatz warten
  • table_info.sql – gibt Tabellenspeicherinformationen (Größe, Versatz usw.) zurück

SQL-Ansichten für das Verwalten des Amazon Redshift Clusters und das Generieren einer Schema-DDL. Alle Ansichten setzen voraus, dass Sie ein Schema namens "Admin" haben.  Hier herunterladen »

Liste der Ansichten:

  • v_check_data_distribution.sql – Abrufen der Datenverteilung auf Slices
  • v_constraint_dependency.sql – Abrufen der Fremdschlüsselbeschränkungen zwischen Tabellen
  • v_generate_group_ddl.sql – Abrufen der DDL für eine Gruppe
  • v_generate_schema_ddl.sql – Abrufen der DDL für Schemas
  • v_generate_tbl_ddl.sql – Abrufen der DDL für eine Tabelle; enthält Verteilungsschlüssel, Sortierungsschlüssel und Einschränkungen
  • v_generate_unload_copy_cmd.sql – Generieren von Befehlen zum Entladen und Kopieren für ein Objekt
  • v_generate_user_object_permissions.sql – Abrufen der DDL für eine Benutzerberechtigung für Tabellen und Ansichten
  • v_generate_view_ddl.sql – Abrufen der DDL für eine Ansicht
  • v_get_obj_priv_by_user.sql – Abrufen der Tabelle/Ansichten, auf die ein Benutzer Zugriff hat
  • v_get_schema_priv_by_user.sql – Abrufen des Schemas, auf das Benutzer Zugriff hat
  • v_get_tbl_priv_by_user.sql – Abrufen der Tabellen, auf die ein Benutzer Zugriff hat
  • v_get_users_in_group.sql – Abrufen aller Benutzer in einer Gruppe
  • v_get_view_priv_by_user.sql – Abrufen der Ansichten, auf die ein Benutzer Zugriff hat
  • v_object_dependency.sql – Zusammenführen der verschiedenen Abhängigkeitsansichten
  • v_space_used_per_tbl.sql – pro Tabelle verwendeter Pull-Speicherplatz
  • v_view_dependency.sql – Abrufen der Namen von Ansichten, die von anderen Tabellen/Ansichten abhängen
  • v_check_transaction_locks.sql – Abrufen der Informationen zu Sperren durch offene Transaktionen
  • v_check_wlm_query_time.sql – Abrufen der WLM-Wartezeit und -Ausführungszeit der letzten 7 Tage
  • v_check_wlm_query_trend_daily.sql – Abrufen der WLM-Abfrageanzahl, -Wartezeit, -Ausführungszeit pro Tag
  • v_check_wlm_query_trend_hourly.sql – Abrufen der WLM-Abfrageanzahl, -Wartezeit, -Ausführungszeit pro Stunde
  • v_generate_cancel_query.sql – Abrufen der Abbruchabfrage
  • v_get_cluster_restart_ts.sql – Abrufen des Datums und der Uhrzeit des letzten Cluster-Neustarts
  • v_get_vacuum_details.sql – Abrufen von Vakuumdetails

Ermitteln Sie mit diesem Hilfsprogramm die optimale Komprimierung für Ihre Amazon Redshift-Daten.  Hier herunterladen »

Migrieren Sie problemlos Daten zwischen zwei Amazon Redshift-Tabellen, die sich in unterschiedlichen Datenbanken, Clustern oder Regionen befinden können. Alle exportierten Daten werden mit AWS Key Management Service (KMS) verschlüsselt. Sie können dieses Hilfsprogramm als Ergänzung von AWS Data Pipeline verwenden, um routinemäßig Daten zwischen Systemen zu verschieben, zum Beispiel zwischen Produktion und Test, oder um schreibgeschützte Kopien auf anderen Clustern aufzubewahren.  Hier herunterladen »


Häufig verwendete User-Defined Functions (UDF). Eine Sammlung hilfreicher UDFs für den täglichen Einsatz. Von Periscope zur Verfügung gestellt.  Weitere Informationen » | Hier herunterladen »

Framework für die Entwicklung von UDFs.Zum Vereinfachen der Entwicklung hat Periscope ein Framework für das Verwalten und Testen von UDFs erstellt. Von Periscope zur Verfügung gestellt.  Hier herunterladen »

re:Dash. Eine kostenlose Open Source-Plattform zur Zusammenarbeit und Datenvisualisierung, die den schnellen und einfachen Zugriff auf Milliarden von Datensätzen ermöglicht. Zu den Funktionen gehören ein Schema-Browser, verbesserte Planung, automatische Vervollständigung und die Möglichkeit zum Schreiben von Python-Abfragen. Von EverythingMe zur Verfügung gestellt.  Hier herunterladen »

Das Amazon Redshift-Administrator-Dashboard von EverythingMe. Überwachen Sie mit diesem benutzerfreundlichen Tool ausgeführte Abfragen, WLM-Warteschlangen und Ihre Tabellen/Schemas. Von EverythingMe zur Verfügung gestellt.  Hier herunterladen »

ETL-Tool von Yelp für Amazon Redshift. Verwenden Sie Mycroft von Yelp zum automatischen Laden von Daten in Amazon Redshift. Weitere Informationen finden Sie in diesem Blog-BeitragHier herunterladen »

Spark-Redshift-Bibliothek. Verwenden Sie diese Bibliothek, um Daten aus Amazon Redshift in Apache Spark-SQL-DataFrames zu laden und Daten aus Apache Spark wieder in Amazon Redshift zu schreiben. Gutes Beispiel für die Verwendung er AVRO-Erfassung mit Amazon Redshift. Von Swiftkey zur Verfügung gestellt.  Hier herunterladen »


In unserem reichhaltigen Angebot an Blog-Artikeln stellen wir Anwendungsfälle und bewährte Methoden vor, die Ihnen dabei helfen, Amazon Redshift optimal zu nutzen. Klicken Sie hier, um die vollständige Liste unserer Blog-Artikel anzuzeigen.