Neuerungen

Lesen Sie unsere Posts zu Neuerungen, um mehr über neue Funktionen und Ankündigungen für Amazon Redshift und Redshift Spectrum zu erfahren.

Brauchen Sie Hilfe bei Ihrer Machbarkeitsstudie?

Informationen zur Erstellung einer Lösung für einen Machbarkeitsnachweis mit Amazon Redshift finden Sie im Abschnitt Building a Proof of Concept for Amazon Redshift. Sollten Sie hierzu weitere Unterstützung benötigen, klicken Sie hier.

Dokumentation

Handbuch "Erste Schritte": Bietet eine Einführung in Amazon Redshift, eine Anleitung zur Einrichtung eines Kontos sowie ein einfaches Beispiel zur Veranschaulichung der erstmaligen Nutzung von Amazon Redshift. Bietet ferner Tipps und Links zu erweiterten Produktfunktionen und Ressourcen. HTML | PDF | Kindle

Amazon Redshift – Clusterverwaltungshandbuch: Zeigt Ihnen, wie Sie Amazon Redshift-Cluster erstellen und verwalten. HTML | PDF | Kindle

Amazon Redshift – Handbuch für Datenbankentwickler: Erläutert das Entwerfen, Erstellen, Abfragen und Pflegen der Datenbanken, aus denen das Data Warehouse besteht. Umfasst auch Syntax für SQL-Befehle und -Funktionen von Amazon Redshift. HTML | PDF

Amazon Redshift – API-Referenz: Beschreibt detailliert alle API-Operationen für Amazon Redshift. Darüber hinaus enthält dieser Leitfaden Beispiele für Anforderungen, Antworten und Fehler für die unterstützten Web-Service-Protokolle. HTML | PDF

Amazon Redshift – CLI Guide: Beschreibt ausführlich die Befehlszeilenschnittstelle für Amazon Redshift. Hier finden Sie Basissyntax, Optionen und Verwendungsbeispiele für die einzelnen Befehle. HTML

Videos zum Einstieg

Amazon Redshift anhalten und fortsetzen (2:26)
Materialisierte Ansichten in Amazon Redshift (4:39)
Einfaches Upgrade Ihres Knotentyps auf Amazon Redshift (2:45)
Amazon Redshift Data Lake Export
Amazon Redshift Federated Query
Erste Schritte mit Amazon Redshift (7:31)
Alle Videos zum Einstieg ansehen »

Bewährte Methoden

Laden von Daten: Laden Sie Ihre Daten effizient mit COPY-Befehlen, Masseneinfügungen und Staging-Tabellen. Weitere Informationen »

Entwerfen eines Data-Warehouse-Schemas: Entwerfen Sie Ihre Datenbank hinsichtlich einer hohen Abfrageleistung, geringen Speicher- und Arbeitsspeicheranforderungen und minimalen E/A-Vorgängen. Weitere Informationen »

Abfrageleistung optimieren: Optimieren Sie Ihre Abfragen mit diesen Tipps und Taktiken, um eine maximale Leistung zu erzielen. Weitere Informationen »

Skripts und Tools optimieren und verwalten

Amazon Redshift – Administratorskripts

SQL-Skripts für Diagnosemaßnahmen im Amazon Redshift-Cluster mithilfe von Systemtabellen. Hier herunterladen »

Liste der Skripts:

  • top_queries.sql – gibt die 50 zeitaufwändigsten Anweisungen der letzten 7 Tage zurück
  • perf_alerts.sql – gibt die am häufigsten aufgetretenen Warnung zusammen mit Tabellenscans zurück
  • filter_used.sql – gibt den Filter zurück, der bei Scans auf Tabellen angewendet wird, um die Wahl eines Suchkriteriums zu erleichtern
  • commit_stats.sql – zeigt Informationen zum Verbrauch von Cluster-Ressourcen durch COMMIT-Anweisungen an
  • current_session_info.sql – zeigt Informationen zu Sitzungen mit aktuell aktiven Abfragen an
  • missing_table_stats.sql – zeigt EXPLAIN-Pläne, die in den zugrunde liegenden Tabellen mit "missing statistics" markiert wurden
  • queuing_queries.sql – listet Abfragen auf, die auf einen WLM-Abfrageplatz warten
    table_info.sql – gibt Tabellenspeicherinformationen (Größe, Versatz usw.) zurück 

SQL-Administratoransichten    

SQL-Ansichten für das Verwalten des Amazon Redshift Clusters und das Generieren einer Schema-DDL. Alle Ansichten setzen voraus, dass Sie ein Schema namens "Admin" haben. Hier herunterladen »

Liste der Ansichten:

  • v_check_data_distribution.sql – Abrufen der Datenverteilung auf Slices
  • v_constraint_dependency.sql – Abrufen der Fremdschlüsselbeschränkungen zwischen Tabellen
  • v_generate_group_ddl.sql – Abrufen der DDL für eine Gruppe
  • v_generate_schema_ddl.sql – Abrufen der DDL für Schemas
  • v_generate_tbl_ddl.sql – Abrufen der DDL für eine Tabelle; enthält Verteilungsschlüssel, Sortierungsschlüssel und Einschränkungen
  • v_generate_unload_copy_cmd.sql – Generieren von Befehlen zum Entladen und Kopieren für ein Objekt
  • v_generate_user_object_permissions.sql – Abrufen der DDL für eine Benutzerberechtigung für Tabellen und Ansichten
  • v_generate_view_ddl.sql – Abrufen der DDL für eine Ansicht
  • v_get_obj_priv_by_user.sql – Abrufen der Tabelle/Ansichten, auf die ein Benutzer Zugriff hat
  • v_get_schema_priv_by_user.sql – Abrufen des Schemas, auf das Benutzer Zugriff hat
  • v_get_tbl_priv_by_user.sql – Abrufen der Tabellen, auf die ein Benutzer Zugriff hat
  • v_get_users_in_group.sql – Abrufen aller Benutzer in einer Gruppe
  • v_get_view_priv_by_user.sql – Abrufen der Ansichten, auf die ein Benutzer Zugriff hat
  • v_object_dependency.sql – Zusammenführen der verschiedenen Abhängigkeitsansichten
  • v_space_used_per_tbl.sql – pro Tabelle verwendeter Pull-Speicherplatz
  • v_view_dependency.sql – Abrufen der Namen von Ansichten, die von anderen Tabellen/Ansichten abhängen
  • v_check_transaction_locks.sql – Abrufen der Informationen zu Sperren durch offene Transaktionen
  • v_check_wlm_query_time.sql – Abrufen der WLM-Wartezeit und -Ausführungszeit der letzten 7 Tage
  • v_check_wlm_query_trend_daily.sql – Abrufen der WLM-Abfrageanzahl, -Wartezeit, -Ausführungszeit pro Tag
  • v_check_wlm_query_trend_hourly.sql – Abrufen der WLM-Abfrageanzahl, -Wartezeit, -Ausführungszeit pro Stunde
  • v_generate_cancel_query.sql – Abrufen der Abbruchabfrage
  • v_get_cluster_restart_ts.sql – Abrufen des Datums und der Uhrzeit des letzten Cluster-Neustarts
  • v_get_vacuum_details.sql – Abrufen von Vakuumdetails

Hilfsprogramm für die Spaltencodierung

Ermitteln Sie mit diesem Hilfsprogramm die optimale Komprimierung für Ihre Amazon Redshift-Daten. Hier herunterladen »

Hilfsprogramm zum Entladen/Kopieren

Migrieren Sie problemlos Daten zwischen zwei Amazon Redshift-Tabellen, die sich in unterschiedlichen Datenbanken, Clustern oder Regionen befinden können. Alle exportierten Daten werden mit AWS Key Management Service (KMS) verschlüsselt. Sie können dieses Hilfsprogramm als Ergänzung von AWS Data Pipeline verwenden, um routinemäßig Daten zwischen Systemen zu verschieben, zum Beispiel zwischen Produktion und Test, oder um schreibgeschützte Kopien auf anderen Clustern aufzubewahren. Hier herunterladen »

Beitrag der Community: Funktionen und Tools

Tools für Analyse und Administration

Einfach  

Häufig verwendete User-Defined Functions (UDF). Eine Sammlung hilfreicher UDFs für den täglichen Einsatz. Von Periscope zur Verfügung gestellt. Weitere Informationen » | Hier herunterladen »

ETL-Tool von Yelp für Amazon Redshift. Verwenden Sie Mycroft von Yelp zum automatischen Laden von Daten in Amazon Redshift. Weitere Informationen finden Sie in diesem Blog-Beitrag. Hier herunterladen »

Framework für die Entwicklung von UDFs. Zum Vereinfachen der Entwicklung hat Periscope ein Framework für das Verwalten und Testen von UDFs erstellt. Beitrag von Periscope Data. Hier herunterladen »

re:Dash. Eine kostenlose Open Source-Plattform zur Zusammenarbeit und Datenvisualisierung, die den schnellen und einfachen Zugriff auf Milliarden von Datensätzen ermöglicht. Zu den Funktionen gehören ein Schema-Browser, verbesserte Planung, automatische Vervollständigung und die Möglichkeit zum Schreiben von Python-Abfragen. Von EverythingMe zur Verfügung gestellt. Hier herunterladen »

Das Amazon Redshift-Administrator-Dashboard von EverythingMe. Überwachen Sie mit diesem benutzerfreundlichen Tool ausgeführte Abfragen, WLM-Warteschlangen und Ihre Tabellen/Schemas. Von EverythingMe zur Verfügung gestellt. Hier herunterladen »

Spark-Redshift-Bibliothek. Verwenden Sie diese Bibliothek, um Daten aus Amazon Redshift in Apache Spark-SQL-DataFrames zu laden und Daten aus Apache Spark wieder in Amazon Redshift zu schreiben. Gutes Beispiel für die Verwendung er AVRO-Erfassung mit Amazon Redshift. Von Swiftkey zur Verfügung gestellt. Hier herunterladen »

Blog-Beiträge

In unserem reichhaltigen Angebot an Blog-Artikeln stellen wir Anwendungsfälle und bewährte Methoden vor, die Ihnen dabei helfen, Amazon Redshift optimal zu nutzen. Rufen Sie eine vollständige Liste der Blog-Artikel über die nachstehenden Ressourcen auf.

Zurzeit sind keine Blog-Beiträge vorhanden. Weitere Ressourcen finden Sie im AWS-Blog.

Lesen Sie mehr Amazon Redshift Artikel im AWS News Blog.

Erfahren Sie mehr über bewährte Methoden, Funktionen und Anwendungsfälle bei Kunden im AWS Big Data-Blog.

Erfahren Sie im AWS-Datenbank-Blog u. a., wie Sie von einem lokalen Data Warehouse nach Amazon Redshift migrieren.

Webinare

Data-Warehousing Berichtsjahr 2019 und Prognose für 2020

Erfahren Sie mehr über die vier Bereiche, in die das Amazon Redshift-Team im Namen unserer Kunden 2019 investiert hat, sowie über Prognosen zu Erwartungen für 2020.

Video ansehen »

Data-Warehouse und Data Lake mit AWS vereinheitlichen

Erfahren Sie in dieser technischen Level-300-Diskussion, wie Sie Datensilos mit einem Lakehouse-Ansatz oder Data-Warehousing aufbrechen.

Video ansehen »

Praktische Tipps für die Migration Ihres IBM Netezza-Data-Warehouses in die Cloud

Erfahren Sie, wie Sie eine Migration von IBM Netezza auf Amazon Redshift vorbereiten und planen.

Video ansehen »

Bleiben Sie mit AWS-Webinaren auf dem Laufenden.

Ausgewählte Ereignissitzungen

AWS re:Invent 2019: Detaillierter Einblick und bewährte Methoden für Amazon Redshift ANT418 (57:36)
AWS re:Invent 2019: Neuigkeiten bei Amazon Redshift mit Yelp ANT320-R1 (57:13)
AWS re:Invent 2019: Migrieren Sie Ihr Data-Warehouse in die Cloud mit Nielsen ANT334-R1 (50:39)
AWS re:Invent 2019: So skalieren Sie Datenanalysen mit Amazon Redshift & Warner Bros ANT335-R1 (1:01:47)
AWS re:Invent 2019: [NEUSTART!] Amazon Redshift in neuer Form: RA3 und AQUA ANT230 (44:29)
AWS re:Invent 2019: Modernstes Cloud-Data-Warehousing mit Asurion ANT213-R1 (58:35)

Weitere Informationen zu den Preisen von Amazon Redshift

Zur Seite mit den Preisen
Bereit zum Entwickeln?
Erste Schritte mit Amazon Redshift
Haben Sie Fragen?
Kontakt