Neuerungen

Lesen Sie unsere Posts zu Neuerungen, um mehr über neue Funktionen und Ankündigungen für Amazon Redshift und Redshift Spectrum zu erfahren.

Workshops und Tutorials

Self-Service-Workshop – Erste Schritte mit Amazon Redshift

Amazon Redshift Deep Dive Self-Service-Workshop

Blogs

Zurzeit sind keine Blogbeiträge vorhanden. Weitere Ressourcen finden Sie im AWS-Blog.

Lesen Sie mehr Amazon Redshift Artikel im AWS News Blog.

Erfahren Sie mehr über bewährte Methoden, Funktionen und Anwendungsfälle bei Kunden im AWS Big Data-Blog.

Erfahren Sie im AWS-Datenbank-Blog u. a., wie Sie von einem On-Premises Data Warehouse nach Amazon Redshift migrieren.

Skripts und Tools optimieren und verwalten

Amazon Redshift – Administratorskripts

SQL-Skripts für Diagnosemaßnahmen im Amazon Redshift-Cluster mithilfe von Systemtabellen. Hier herunterladen »

Liste der Skripts:

  • top_queries.sql – gibt die 50 zeitaufwändigsten Anweisungen der letzten 7 Tage zurück
  • perf_alerts.sql – gibt die am häufigsten aufgetretenen Warnung zusammen mit Tabellenscans zurück
  • filter_used.sql – gibt den Filter zurück, der bei Scans auf Tabellen angewendet wird, um die Wahl eines Suchkriteriums zu erleichtern
  • commit_stats.sql – zeigt Informationen zum Verbrauch von Cluster-Ressourcen durch COMMIT-Anweisungen an
  • current_session_info.sql – zeigt Informationen zu Sitzungen mit aktuell aktiven Abfragen an
  • missing_table_stats.sql – zeigt EXPLAIN-Pläne, die in den zugrunde liegenden Tabellen mit "missing statistics" markiert wurden
  • queuing_queries.sql – listet Abfragen auf, die auf einen WLM-Abfrageplatz warten
    table_info.sql – gibt Informationen zum Tabellenspeicher (Größe, Versatz usw.) zurück 

SQL-Administratoransichten    

SQL-Ansichten für das Verwalten des Amazon Redshift Clusters und das Generieren einer Schema-DDL. Alle Ansichten setzen voraus, dass Sie ein Schema namens "Admin" haben. Hier herunterladen »

Liste der Ansichten:

  • v_check_data_distribution.sql – Abrufen der Datenverteilung auf Slices
  • v_constraint_dependency.sql – Abrufen der Fremdschlüsselbeschränkungen zwischen Tabellen
  • v_generate_group_ddl.sql – Abrufen der DDL für eine Gruppe
  • v_generate_schema_ddl.sql – Abrufen der DDL für Schemas
  • v_generate_tbl_ddl.sql – Abrufen der DDL für eine Tabelle; enthält Verteilungsschlüssel, Sortierungsschlüssel und Einschränkungen
  • v_generate_unload_copy_cmd.sql – Generieren von Befehlen zum Entladen und Kopieren für ein Objekt
  • v_generate_user_object_permissions.sql – Abrufen der DDL für eine Benutzerberechtigung für Tabellen und Ansichten
  • v_generate_view_ddl.sql – Abrufen der DDL für eine Ansicht
  • v_get_obj_priv_by_user.sql – Abrufen der Tabelle/Ansichten, auf die ein Benutzer Zugriff hat
  • v_get_schema_priv_by_user.sql – Abrufen des Schemas, auf das Benutzer Zugriff hat
  • v_get_tbl_priv_by_user.sql – Abrufen der Tabellen, auf die ein Benutzer Zugriff hat
  • v_get_users_in_group.sql – Abrufen aller Benutzer in einer Gruppe
  • v_get_view_priv_by_user.sql – Abrufen der Ansichten, auf die ein Benutzer Zugriff hat
  • v_object_dependency.sql – Zusammenführen der verschiedenen Abhängigkeitsansichten
  • v_space_used_per_tbl.sql – pro Tabelle verwendeter Pull-Speicherplatz
  • v_view_dependency.sql – Abrufen der Namen von Ansichten, die von anderen Tabellen/Ansichten abhängen
  • v_check_transaction_locks.sql – Abrufen der Informationen zu Sperren durch offene Transaktionen
  • v_check_wlm_query_time.sql – Abrufen der WLM-Wartezeit und -Ausführungszeit der letzten 7 Tage
  • v_check_wlm_query_trend_daily.sql – Abrufen der WLM-Abfrageanzahl, -Wartezeit, -Ausführungszeit pro Tag
  • v_check_wlm_query_trend_hourly.sql – Abrufen der WLM-Abfrageanzahl, -Wartezeit, -Ausführungszeit pro Stunde
  • v_generate_cancel_query.sql – Abrufen der Abbruchabfrage
  • v_get_cluster_restart_ts.sql – Abrufen des Datums und der Uhrzeit des letzten Cluster-Neustarts
  • v_get_vacuum_details.sql – Abrufen von Vakuumdetails

Hilfsprogramm für die Spaltencodierung

Ermitteln Sie mit diesem Hilfsprogramm die optimale Komprimierung für Ihre Amazon Redshift-Daten. Hier herunterladen »

Hilfsprogramm zum Entladen/Kopieren

Migrieren Sie problemlos Daten zwischen zwei Amazon Redshift-Tabellen, die sich in unterschiedlichen Datenbanken, Clustern oder Regionen befinden können. Alle exportierten Daten werden mit AWS Key Management Service (KMS) verschlüsselt. Sie können dieses Hilfsprogramm als Ergänzung von AWS Data Pipeline verwenden, um routinemäßig Daten zwischen Systemen zu verschieben, zum Beispiel zwischen Produktion und Test, oder um schreibgeschützte Kopien auf anderen Clustern aufzubewahren. Hier herunterladen »

Beitrag der Community: Funktionen und Tools

Tools für Analyse und Administration

Einfach  

Häufig verwendete User-Defined Functions (UDF). Eine Sammlung hilfreicher UDFs für den täglichen Einsatz. Von Periscope zur Verfügung gestellt. Weitere Informationen » | Hier herunterladen »

ETL-Tool von Yelp für Amazon Redshift. Verwenden Sie Mycroft von Yelp zum automatischen Laden von Daten in Amazon Redshift. Weitere Informationen finden Sie in diesem Blog-Beitrag. Hier herunterladen »

Framework für die Entwicklung von UDFs. Zum Vereinfachen der Entwicklung hat Periscope ein Framework für das Verwalten und Testen von UDFs erstellt. Beitrag von Periscope Data. Hier herunterladen »

re:Dash. Eine kostenlose Open Source-Plattform zur Zusammenarbeit und Datenvisualisierung, die den schnellen und einfachen Zugriff auf Milliarden von Datensätzen ermöglicht. Zu den Funktionen gehören ein Schema-Browser, verbesserte Planung, automatische Vervollständigung und die Möglichkeit zum Schreiben von Python-Abfragen. Von EverythingMe zur Verfügung gestellt. Hier herunterladen »

Das Amazon Redshift-Administrator-Dashboard von EverythingMe. Überwachen Sie mit diesem benutzerfreundlichen Tool ausgeführte Abfragen, WLM-Warteschlangen und Ihre Tabellen/Schemas. Von EverythingMe zur Verfügung gestellt. Hier herunterladen »

Spark-Redshift-Bibliothek. Verwenden Sie diese Bibliothek, um Daten aus Amazon Redshift in Apache Spark-SQL-DataFrames zu laden und Daten aus Apache Spark wieder in Amazon Redshift zu schreiben. Gutes Beispiel für die Verwendung er AVRO-Erfassung mit Amazon Redshift. Von Swiftkey zur Verfügung gestellt. Hier herunterladen »

Videos

Überblick über Amazon Redshift (2:07)
Amazon Redshift Serverless (1:28)