Beste Preisleistung in jeder Größenordnung

Erfüllen Sie Ihre Anforderungen an ein hochgradig skalierbares, leistungsstarkes und zuverlässiges modernes Cloud-Data Warehouse, das die wachsende Datenmenge für eine beliebige Anzahl gleichzeitiger Benutzer verarbeitet. Amazon Redshift bietet das beste Preis-Leistungs-Verhältnis für Ihre Workloads und läuft auf einer MPP-Architektur (Massively Parallel Processing) und RA3-Instances, die Rechenleistung und Speicher trennen. Mit Amazon Redshift Serverless können Sie jede Art von Analyse-Workloads kostengünstig ausführen und skalieren, ohne die Data-Warehouse-Infrastruktur verwalten zu müssen, komplett mit KI-gesteuerter Skalierung und Optimierung. Wenn Sie sich an die anspruchsvollen Analyseanforderungen Ihres Unternehmens anpassen, wird ein zuverlässiges Cloud-Data-Warehouse wie Amazon Redshift für Sie unverzichtbar, um Störungen zu minimieren, da seine Multi-AZ-Bereitstellungen 99,99 % SLAs erfüllen.

Vereinheitlichen Sie all Ihre Daten mit Null-ETL-Ansätzen

Durchbrechen Sie Datensilos in Ihrem Unternehmen und entwickeln Sie eine durchgängige Datenstrategie, um all Ihre Daten zu analysieren. Amazon Redshift verwendet einen Null-ETL-Ansatz, der die Interoperabilität und Integration zwischen dem Data Warehouse, Ihren Amazon-S3-Data-Lakes, operativen und NoSQL-Datenbanken wie Amazon Aurora, Amazon RDS und Amazon DynamoDB und sogar Ihren Streaming-Datendiensten ermöglicht, sodass die Daten einfach und automatisch für Sie in das Warehouse aufgenommen werden oder Sie auf die Daten vor Ort zugreifen können. Sie müssen nicht mehr Wochen oder Monate damit verbringen, umständliche und fehlerhafte Datenpipelines aufzubauen, um die Daten von einem System in ein anderes zu übertragen.

Maximieren Sie den Wert mit umfassenden Analysen und ML

Von der Ausführung von SQL-Abfragen über die Erstellung komplexer Dashboards bis hin zu nahezu Echtzeit- und KI-/Gen-AI-Anwendungen – Amazon Redshift macht es Ihnen leicht, all Ihre Daten zu analysieren und Ihr Unternehmen voranzubringen. Sie können in Sekundenschnelle einen Redshift-Serverless-Endpunkt einrichten und den Amazon Redshift Query Editor verwenden, um Ihre Daten datenquellenübergreifend zu laden, zu analysieren, zu visualisieren und gemeinsam daran zu arbeiten.  Senden Sie Abfrageanfragen in einfachem Englisch und erhalten Sie benutzerdefinierte SQL-Code-Empfehlungen, die auf den Schemametadaten Ihres Unternehmens basieren, mit generativem SQL von Amazon Q im Abfrage-Editor. Gehen Sie mit Amazon Redshift ML nahtlos von Daten zu prädiktiven Analysen über, das vertrautes SQL verwendet, um Modelle für Machine Learning oder Prognosen direkt im Warehouse zu erstellen, zu trainieren und bereitzustellen. 

Schnellere Innovationen mit sicherer Datenzusammenarbeit

Teilen Sie Daten sicher zwischen AWS-Regionen, Teams und Data Warehouses von Drittanbietern, ohne Daten verschieben oder Daten kopieren zu müssen. Mit nur wenigen Klicks können mehrere Teams gemeinsam genutzte Datensätze lesen und aktualisieren und gemeinsam an aktuellen Daten aus verschiedenen Regionen, Konten und sogar Data Warehouses von Drittanbietern arbeiten. Der Datenaustausch wird zentral von AWS Lake Formation gesteuert. Vertrauen Sie darauf, dass Ihre Daten sicher sind, unabhängig davon, wo Sie tätig sind oder wie stark Ihre Branchen reguliert sind. Amazon Redshift ermöglicht differenzierte Zugriffskontrollen wie rollenbasierte Zugriffskontrollen, Sicherheit auf Zeilen- und Spaltenebene und eine einfache Authentifizierung mit Single-Sign-On für Ihre Unternehmensidentität – alles ohne zusätzliche Kosten für Sie.

Analysieren aller Ihrer Daten

Erhalten Sie integrierte Einblicke, indem Sie Echtzeit- und Vorhersageanalysen für komplexe, skalierte Daten aus Ihren operativen Datenbanken, Data Lakes, Data Warehouses und Tausenden von Datensätzen durch Drittanbieter durchführen.

Verbundabfrage: Mit der neuen Funktion für Verbundabfragen in Amazon Redshift können Sie auf Ihre betriebliche relationale Datenbank zugreifen. Führen Sie Abfragen für Live-Daten in einer oder mehreren Datenbanken von Amazon Relational Database Service (RDS), Aurora-PostgreSQL-, RDS-MySQL- und Aurora-MySQL-Datenbanken aus, um sofortigen Einblick in volle Betriebsabläufe zu erhalten, ohne dass Daten verschoben werden müssen. Sie können Daten aus Ihrem Redshift Data Warehouses, Daten in Ihren Data Lakes und auch Daten in Ihren betrieblichen Speichern zusammenführen, um bessere datengestützte Entscheidungen zu treffen. Amazon Redshift bietet Optimierungen zur Reduzierung der Datenbewegungen über das Netzwerk und ergänzt diese durch seine massiv parallele Datenverarbeitung für Hochleistungsabfragen. Weitere Informationen.

Datenfreigabe: Mit der Amazon-Redshift-Datenfreigabe können Sie die Benutzerfreundlichkeit, die Leistung und die Kostenvorteile von Amazon Redshift in einem einzelnen Cluster auf Bereitstellungen mit mehreren Clustern ausweiten und dabei Daten freigeben. Die Datenfreigabe ermöglicht einen sofortigen, granularen und leistungsstarken Datenzugriff über Redshift-Cluster hinweg, ohne dass dabei Daten kopiert oder verschoben werden müssen. Die Datenfreigabe bietet einen Live-Zugriff auf die Daten, sodass Ihre Benutzer immer die aktuellsten und konsistentesten Informationen sehen, sobald diese im Data Warehouse aktualisiert werden. Sie können Live-Daten auf sichere Weise mit Redshift-Clustern im selben oder in anderen AWS Konten und zwischen Regionen freigeben. Weitere Informationen.

AWS Data Exchange für Amazon Redshift: Abfrage von Amazon-Redshift-Datensätzen aus Ihrem eigenen Redshift-Cluster ohne Extrahieren, Extract, Transform, Load (ETL) der Daten. Sie können in AWS Data Exchange Produkte von Redshift Cloud Data Warehouse abonnieren. Sobald ein Anbieter eine Aktualisierung vornimmt, wird die Änderung für die Abonnenten sichtbar. Wenn Sie ein Datenanbieter sind, wird der Zugang automatisch gewährt, wenn ein Abonnement beginnt, und aufgehoben, wenn es endet, Rechnungen werden automatisch erstellt, wenn Zahlungen fällig sind, und Zahlungen werden über AWS eingezogen. Sie können den Zugriff auf Flatfiles, Daten in Amazon Redshift und über APIs bereitgestellte Daten lizenzieren – und das alles mit einem einzigen Abonnement. Weitere Informationen.

Redshift ML: Redshift ML macht es Datenanalysten, Datenwissenschaftlern, BI-Experten und Datenbankentwicklern leicht, Amazon-SageMaker-Modelle mit SQL zu entwickeln, schulen und bereitzustellen. Mit Redshift ML können Sie mithilfe von SQL-Anweisungen Amazon-SageMaker-Modelle aus Ihren Daten in Amazon Redshift erstellen und schulen und diese Modelle dann für Vorhersagen wie Churn-Erkennung, Finanzprognorsen, Personalisierung und Risikobewertung direkt in Ihren Abfragen und Berichten verwenden. Weitere Informationen.

Amazon Redshift Integration für Apache Spark: Diese Funktion erleichtert die Erstellung und Ausführung von Apache-Spark-Anwendungen auf Amazon-Redshift-Daten und ermöglicht es Kunden, das Data Warehouse für ein breiteres Spektrum von Analyse- und Machine-Learning-Lösungen zu öffnen. Mit der Amazon-Redshift-Integration für Apache Spark können Entwickler, die AWS-Analyse- und ML-Services wie Amazon EMR, AWS Glue, Amazon Athena Spark und Amazon SageMaker verwenden, in Sekundenschnelle loslegen und mühelos Apache-Spark-Anwendungen erstellen, die von ihrem Amazon-Redshift-Data-Warehouse lesen und in dieses schreiben, ohne die Leistung der Anwendungen oder die transaktionale Konsistenz der Daten zu beeinträchtigen. Die Amazon-Redshift-Integration für Apache Spark erleichtert auch die Überwachung und Fehlerbehebung bei Leistungsproblemen von Apache-Spark-Anwendungen bei der Verwendung mit Amazon Redshift.

Amazon Aurora Zero-ETL zu Amazon Redshift: Dabei handelt es sich um eine No-Code-Integration zwischen Amazon Aurora und Amazon Redshift, die es Amazon-Aurora-Kunden ermöglicht, Amazon Redshift für nahezu Echtzeit-Analysen und Machine Learning auf Petabytes von Transaktionsdaten zu nutzen. Innerhalb von Sekunden, nachdem Transaktionsdaten in Amazon Aurora geschrieben wurden, stellt Amazon Aurora Zero-ETL zu Amazon Redshift die Daten nahtlos in Amazon Redshift zur Verfügung. Damit entfällt für die Kunden die Notwendigkeit, komplexe Datenpipelines für Extract, Transform, Load (ETL)-Vorgänge zu erstellen und zu pflegen. Diese Integration reduziert den operativen Aufwand und die Kosten und ermöglicht es den Kunden, sich auf die Verbesserung ihrer Anwendungen zu konzentrieren. Mit dem nahezu in Echtzeit erfolgenden Zugriff auf Transaktionsdaten können Kunden die Analyse- und Machine-Learning-Funktionen von Amazon Redshift nutzen, um Erkenntnisse aus Transaktions- und anderen Daten abzuleiten und effektiv auf kritische, zeitkritische Ereignisse zu reagieren.

Streaming Ingestion: Data Engineers, Datenanalysten und Big-Data-Entwickler verwenden Echtzeit-Streaming-Engines, um die Reaktionsfähigkeit ihrer Kunden zu verbessern. Mit der neuen Streaming-Aufnahme-Funktion in Amazon Redshift können Sie SQL (Structured Query Language) verwenden, um sich mit Daten aus Amazon Kinesis Data Streams und Amazon Managed Streaming for Apache Kafka (MSK) zu verbinden und diese direkt zu importieren. Streaming-Aufnahme von Amazon Redshift erleichtert auch die Erstellung und Verwaltung nachgelagerter Pipelines, da Sie direkt auf Streams materialisierte Ansichten erstellen können. Die materialisierten Ansichten können als Teil Ihrer ELT (Extract Load Transform)-Pipeline auch SQL-Transformationenen enthalten. Sie können definierte materialisierte Ansichten manuell aktualisieren, um die neuesten Streaming-Daten abzufragen. Dieser Ansatz ermöglicht es Ihnen, nachgelagerte Verarbeitungen und Transformationen von Streaming-Daten mit den vorhandenen vertrauten Tools ohne zusätzliche Kosten durchzuführen.

Abfrage und Export von Daten in und aus Ihrem Data Lake: Kein anderes Cloud-basiertes Data Warehouse gestaltet sowohl die Abfrage von Daten als auch das Schreiben von Daten in Ihren Data Lake in offenen Formaten so einfach. Sie können Abfragen mit offenen Dateiformaten wie Parquet, ORC, JSON, Avro, CSV und unmittelbar in Amazon S3 mithilfe der vertrauten ANSI SQL ausführen. Um Daten in Ihren Data Lake zu exportieren, verwenden Sie einfach den Amazon-Redshift-UNLOAD-Befehl in Ihrem SQL-Code und geben Parquet als Dateiformat an. Anschließend übernimmt Amazon Redshift automatisch die Datenformatierung und Datenverschiebung in S3. So können Sie ganz flexibel stark strukturierte, häufig aufgerufene Daten und halbstrukturierte Daten in einem Amazon Redshift Data Warehouse speichern und dabei gleichzeitig strukturierte, teilweise strukturierte und unstrukturierte Daten im Exabyte-Umfang in Amazon S3 beibehalten. Durch den Export von Daten aus Amazon Redshift zurück in Ihren Data Lake können Sie die Daten mit AWS-Services wie zum Beispiel Amazon Athena, Amazon EMR und Amazon SageMaker weiter analysieren.

AWS-Services-Integration: Die native Integration mit AWS-Services, Datenbanken und Machine-Learning-Services erleichtert die reibungslose Abwicklung vollständiger Analyse-Workflows. AWS Lake Formation ist zum Beispiel ein Service, der es Ihnen ermöglicht, innerhalb weniger Tage einen sicheren Data Lake einzurichten. AWS Glue kann Daten extrahieren, transformieren und in Amazon Redshift laden (ETL). Amazon Kinesis Data Firehose bietet die einfachste Methode, Streaming-Daten zu erfassen, zu transformieren und in Amazon Redshift zu laden, um dort Analysen nahezu in Echtzeit auszuführen. Sie können mit Amazon EMR Daten mithilfe von Hadoop/Spark verarbeiten und die Ausgabe in Amazon Redshift laden, um dort BI- und Analyseaufgaben durchzuführen. Amazon QuickSight ist der erste BI-Service mit sitzungbasierten Gebühren, mit dem Sie Berichte, Visualisierungen und Dashboards zu Redshift-Daten erstellen können. Mit Amazon Redshift können Sie Ihre Daten für die Ausführung von Machine-Learning (ML)-Workloads mit Amazon SageMaker vorbereiten. Um Migrationen zu Amazon Redshift zu beschleunigen, können Sie das AWS Schema Conversion Tool und den AWS Database Migration Service (DMS) verwenden. Amazon Redshift ist zudem eng in Amazon Key Management Service (KMS) und Amazon CloudWatch integriert und bietet so Sicherheit, Überwachung und Compliance. Sie können auch benutzerdefinierte Funktionen (UDFs) von Lambda verwenden, um eine Lambda-Funktion aus Ihren SQL-Abfragen abzurufen, wenn Sie eine benutzerdefinierte Funktion (User Defined Function, UDF) in Redshift aufrufen. Sie können Lambda UDFs schreiben, um sie mit AWS-Partnerservices zu integrieren und auf weitere beliebte AWS-Services zuzugreifen, wie zum Beispiel Amazon DynamoDB und Amazon SageMaker.

Integration der Partnerkonsole: Durch die Integration ausgewählter Partnerlösungen in die Amazon-Redshift-Konsole können Sie das Daten-Onboarding beschleunigen und in wenigen Minuten wertvolle Geschäftseinblicke gewinnen. Mit diesen Lösungen können Sie Daten aus Anwendungen wie Salesforce, Google Analytics, Facebook-Anzeigen, Slack, Jira, Splunk und Marketo auf effiziente und optimierte Weise in Ihr Redshift-Data-Warehouse bringen. Außerdem können Sie diese unterschiedlichen Datensätze zusammenführen und gemeinsam analysieren, um umsetzbare Erkenntnisse zu erhalten.

Automatisches Kopieren von Amazon S3: Amazon Redshift unterstützt das automatische Kopieren, um das Laden von Daten aus Amazon S3 zu vereinfachen und zu automatisieren und so den Zeit- und Arbeitsaufwand für die Entwicklung benutzerdefinierter Lösungen oder die Verwaltung von Drittanbieterservices zu reduzieren. Mit dieser Funktion macht Amazon Redshift die manuelle und wiederholte Ausführung von Kopiervorgängen überflüssig, indem es den Dateieintrag automatisiert und die kontinuierlichen Schritte zum Laden der Daten im Hintergrund abwickelt. Die Unterstützung für das automatische Kopieren macht es für Fachanwender und Datenanalysten ohne Kenntnisse in der Datentechnik einfach, Aufnahmeregeln zu erstellen und den Speicherort der Daten zu konfigurieren, die sie aus Amazon S3 laden möchten. Wenn neue Daten in bestimmten Amazon-S3-Ordnern landen, wird der Aufnahmeprozess automatisch auf der Grundlage benutzerdefinierter Konfigurationen ausgelöst. Der Redshift-Kopierbefehl unterstützt alle Dateiformate, einschließlich CSV, JSON, Parquet und Avro. 

Nativer Support für fortgeschrittene Analysen: Amazon Redshift unterstützt die standardmäßigen skalaren Datentypen wie NUMBER, VARCHAR und DATETIME und bietet native Unterstützung für die folgenden fortgeschrittenen Analysevorgänge:

  • Raumbezogene Datenverarbeitung: Amazon Redshift umfasst den polymorphen Datentyp GEOMETRY, der mehrere geometrische Formen wie zum Beispiel Punkte, Linien und Polygone unterstützt. Außerdem bietet Amazon-Redshift-SQL-Funktionen, mit denen geometrische Formen erstellt und raumbezogene Daten importiert, exportiert, abgerufen und verarbeitet werden können. Sie können GEOMETRY-Spalten in Redshift hinzufügen und SQL-Abfragen schreiben, die räumliche und nicht räumliche Daten enthalten. Mithilfe dieser Funktion können Sie raumbezogene Daten speichern, abrufen und verarbeiten. Wenn Sie diese raumbezogenen Daten in Ihre Analyseabfragen integrieren, können Sie nahtlos neue geschäftliche Erkenntnisse gewinnen. Sie können die nahtlosen Data-Lake-Abfragen von Amazon Redshift verwenden, um externe Tabellen in raumbezogene Abfragen einzubinden und die Verarbeitung räumlicher Daten dadurch einfach auf Data Lakes zu erweitern. Weitere Informationen finden Sie in der Dokumentation.
  • HyperLogLog-Skizzen: HyperLogLog ist ein neuartiger Algorithmus, der effizient die ungefähre Anzahl eindeutiger Werte in einem Datensatz einschätzt. Die HLL-Skizze fasst die Informationen über die eindeutigen Werte im Datensatz zusammen. Sie können dank HLL-Skizzen deutliche Leistungsvorteile für Abfragen erzielen, welche die ungefähre Kardinalität über große Datensätze berechnen, und zwar mit einem durchschnittlichen relativen Fehler zwischen 0,01–0,6 %. Amazon Redshift bietet einen erstklassigen Datentyp HLLSKETCH und zugehörige SQL-Funktionen, um HyperLogLog-Skizzen zu erzeugen, aufzubewahren und zu kombinieren. Die HyperLogLog-Funktion von Amazon Redshift setzt Verfahren zur Verzerrungskorrektur ein und bietet hohe Genauigkeit bei geringem Speicherbedarf. Weitere Informationen finden Sie in der Dokumentation.
  • DATE- und TIME-Datentypen: Amazon Redshift bietet mehrere Datentypen DATE, TIME, TIMETZ, TIMESTAMP und TIMESTAMPTZ für die native Speicherung und Verarbeitung von Datums- und Uhrzeitdaten. Die Typen TIME und TIMESTAMP speichern die Uhrzeitdaten ohne die Informationen zur Zeitzone. Die Typen TIMETZ und TIMESTAMPTZ hingegen speichern die Uhrzeitdaten mit den Informationen zur Zeitzone. Sie können verschiedene Datums-/Uhrzeit-SQL-Funktionen verwenden, um die Datums/- und Zeitwerte in Redshift-Abfragen zu verarbeiten. Weitere Informationen finden Sie in der Dokumentation.
  • Verarbeitung halbstrukturierter Daten: Der SUPER-Datentyp von Amazon Redshift speichert JSON und andere nativ halbstrukturierte Daten in Redshift-Tabellen und nutzt die Abfragesprache PartiQL zur nahtlosen Verarbeitung der halbstrukturierten Daten. Der Datentyp SUPER ist schemaloser Natur und ermöglicht die Speicherung verschachtelter Werte, die aus Redshift-Skalarwerten, verschachtelten Arrays oder anderen verschachtelten Strukturen bestehen können. PartiQL ist eine Erweiterung von SQL und bietet leistungsstarke Abfragefunktionen, wie zum Beispiel die Objekt- und Arraynavigation, das Unnesting von Arrays, dynamische Eingabe und schemalose Semantik. Damit können Sie fortgeschrittene Analysen durchführen, die klassischen strukturierten SQL-Daten mit den halbstrukturierten SUPER-Daten kombinieren und dabei überlegene Leistung, Flexibilität und Benutzerfreundlichkeit bieten. Weitere Informationen finden Sie in der Dokumentation.
  • Integration in Tools von Drittanbietern: Es stehen viele Optionen zur Optimierung von Amazon Redshift zur Verfügung, indem Sie mit branchenführenden Tools und Experten, die Ihnen beim Laden, Umwandeln und Visualisieren Ihrer Daten helfen, arbeiten. Die Lösungen unserer zahlreichen und in verschiedenen Bereichen qualifizierten Partner sind für Amazon Redshift zertifiziert.
  • Laden und transformieren Sie Ihre Daten mit Datenintegrationspartnern.
  • Datenanalyse und Weitergabe von Erkenntnissen in Ihrem Unternehmen mit Business-Intelligence-Partnern.
  • Planen und Implementieren Ihrer Analyseplattform mit Systemintegrations- und Beratungspartnern.
  • Nutzen Sie die Tools und Serviceprogramme von Abfrage- und Datenmodellierungspartnern, um Ihre Daten abzufragen, zu untersuchen und zu modellieren.

Preis-Leistung für jede Größe

Erzielen Sie eine bis zu 5x bessere Preisleistung als andere Cloud-Data-Warehouses, mit automatiserten Optimierungen für eine erhöhte Abfrage-Geschwindigkeit.

RA3-Instances: RA3-Instances liefern ein 5x besseres Preis-Leistungs-Verhältnis als andere Cloud-basierte Data Warehouse-Services. Diese Amazon-Redshift-Instances maximieren die Geschwindigkeit für leistungsintensive Workloads, die große Mengen an Rechenkapazität erfordern, und bieten dabei gleichzeitig eine flexible separate Abrechnung von Rechenressourcen unabhängig von den Speicherressourcen, indem die Anzahl der von Ihnen benötigten Instances angegeben wird. Weitere Informationen.

Effizienter Speicher und leistungsstarke Abfrageverarbeitung: Amazon Redshift liefert eine hohe Abfrageleistung für Datensätze von Gigabyte- bis Petabyte-Volumen. Spaltenbasierte Speicherung, Datenkomprimierung und Zonenzuordnungen verringern den E/A-Aufwand bei der Ausführung von Abfragen. Neben den Branchenstandards für die Codierung wie LZO und Zstandard ermöglicht Amazon Redshift auch die speziell entwickelte Komprimierungscodierung AZ64 für numerische und Datums-/Uhrzeitdaten und schafft somit sowohl Speichereinsparungen als auch eine optimierte Abfrageleistung.

Beispiellose Parallelität: Amazon Redshift bietet eine konsistent schnelle Leistung, sogar bei Tausenden gleichzeitiger Abfragen, und zwar unabhängig davon, ob Abfragen in einem Redshift-Data-Warehouse oder direkt im Amazon-S3-Data-Lake durchgeführt werden. Amazon Redshift Concurrency Scaling unterstützt eine nahezu unbegrenzte Anzahl gleichzeitiger Benutzer und gleichzeitiger Abfragen mit konsistenten Serviceleveln, indem transiente Kapazität bei zunehmender Nebenläufigkeit in nur wenigen Sekunden hinzugefügt wird. Weitere Informationen.

Materialisierte Ansichten: Die materialisierten Ansichten von Amazon Redshift ermöglichen Ihnen eine erheblich höhere Abfrageleistung für wiederholte oder vorhersagbare analytische Workloads wie Dashboarding, Abfragen von Business-Intelligence-Tools (BI) und Extract-, Transform- und Load-ELT-Datenverarbeitungsaufgaben. Mit materialisierten Ansichten können Sie vorberechnete Ergebnisse einer SELECT-Anweisung, die sich auf eine oder mehrere (auch externe) Tabellen beziehen kann, einfach speichern und verwalten. Nachfolgende Abfragen, die auf die materialisierten Ansichten verweisen, können viel schneller ausgeführt werden, indem die vorberechneten Ergebnisse wiederverwendet werden. Amazon Redshift kann die materialisierten Ansichten effizient und inkrementell beibehalten, um weiterhin die Leistungsvorteile geringer Latenz bieten zu können. Weitere Informationen.

Automated Materialized Views: Unternehmen erstellen mehr datenabhängige Anwendungen, Dashboards, Berichte und Ad-hoc-Abfragen als je zuvor. Jede Anwendung muss abgestimmt und optimiert werden, was Zeit, Ressourcen und Geld erfordert. Materialized Views ist ein leistungsstarkes Tool zur Verbesserung der Abfrageleistung, das Sie einrichten können, wenn Ihre Workloads klar definiert sind. Sie können aber auch wachsende und sich ändernde Workloads haben, deren Abfragemuster nicht vorhersehbar sind. Automatied Materialized Views verbessern den Durchsatz von Abfragen, senken die Abfragelatenz und verkürzen die Ausführungszeit durch automatische Aktualisierung, automatisches Umschreiben von Abfragen, inkrementelle Aktualisierung und kontinuierliche Überwachung von Amazon-Redshift-Clustern. Amazon Redshift gleicht die Erstellung und Verwaltung von AutoMVs mit minimaler Ressourcenauslastung aus. Weitere Informationen.

Machine Learning zur Maximierung von Durchsatz und Leistung: Fortgeschrittene ML-Funktionen in Amazon Redshift liefern hohen Durchsatz und hohe Leistung, selbst bei schwankenden Workloads oder gleichzeitiger Benutzeraktivität. Amazon Redshift nutzt hochentwickelte Algorithmen zur Prognose und Klassifizierung eingehender Abfragen auf Basis ihrer Laufzeiten und Ressourcenanforderungen, um die Leistung und Nebenläufigkeit dynamisch zu verwalten und Sie dabei gleichzeitig bei der Priorisierung Ihrer geschäftskritischen Workloads zu unterstützen. Short Query Acceleration (SQA) sendet kurze Abfragen von Anwendungen wie Dashboards an eine Express-Warteschlange zur sofortigen Verarbeitung, sodass sich diese nicht hinter umfangreichen Abfragen einreihen müssen. Automatic Workload Management (WLM) nutzt ML zur dynamischen Verwaltung von Speicher und Nebenläufigkeit, wodurch der Abfragedurchsatz maximiert werden kann. Darüber hinaus können Sie jetzt ganz einfach die Priorität Ihrer wichtigsten Abfragen festlegen, selbst wenn Hunderte von Abfragen übermittelt werden. Amazon Redshift ist zudem ein System mit Selbstlernfunktion, das den Benutzer-Workload überwacht, die Möglichkeiten zur Leistungsoptimierung bei zunehmender Nutzung festlegt, Optimierungen nahtlos anwendet und Empfehlungen über Redshift Advisor ausgibt, wenn eine bestimmte Benutzeraktion erforderlich ist, um die Leistung von Redshift noch weiter zu steigern.

Ergebnis-Caching: Amazon Redshift legt Ergebnisse in einem Cache ab, um bei wiederholten Abfragen Reaktionszeiten von unter einer Sekunde zu erreichen. Dashboard-, Visualisierungs- und BI-Tools, bei denen die Wiederholung gleicher Abfragen gang und gäbe ist, erzielen so bedeutende Leistungssteigerungen. Wenn eine Abfrage ausgeführt wird, durchsucht Amazon Redshift den Cache nach zwischengespeicherten Ergebnissen aus einer vorherigen Ausführung. Wenn ein gecachtes Ergebnis gefunden wird und sich die Daten nicht geändert haben, wird das gecachte Ergebnis sofort zurückgegeben, ohne die Abfrage erneut auszuführen.

Data Warehousing auf Petabyte-Ebene: Mit nur wenigen Klicks in der Konsole oder einem einfachen API-Aufruf können Sie die Anzahl oder den Typ der Knoten Ihres Data Warehouse ändern und in jede Richtung skalieren, sollten sich Ihre Anforderungen ändern. Dank des verwalteten Speichers wird automatisch Kapazität hinzugefügt und es können so Workloads von bis zu 8 PB komprimierter Daten unterstützt werden. Sie können ebenfalls Abfragen an Petabyte von Daten in Amazon S3 mit der Amazon-Redshift-Spectrum-Funktion ausführen, ohne Daten laden oder umwandeln zu müssen. Amazon S3 können Sie als hoch verfügbaren, sicheren und kostengünstigen Data Lake zum Speichern unbegrenzter Datenmengen in offenen Datenformaten verwenden. Redshift Spectrum führt Abfragen parallel an Tausenden Knoten aus und liefert so extrem schnelle Ergebnisse, unabhängig von der Komplexität der Abfrage oder der Menge der gescannten Daten.

Flexible Preisoptionen: Amazon Redshift ist das kostengünstigste Data Warehouse und Sie können wählen, wie Sie bezahlen möchten. Sie können schon ab 0,25 USD pro Stunde ohne Verpflichtung anfangen und für nur 1,000 USD pro Terabyte und Jahr skalieren. Amazon Redshift ist das einzige Cloud-basierte Data Warehouse, das On-Demand-Preise ohne Vorabkosten, Reserved Instances mit Kosteneinsparungen von bis zu 75 % bei langfristiger Bindung für ein Jahr oder drei Jahre und Zahlung pro Abfrage nach der Menge der in Ihrem Amazon S3 Data Lake gescannten Daten anbietet. Die Preise von Amazon Redshift umfassen integrierte Sicherheit, Datenkomprimierung, Sicherungsspeicher und Datenübertragung. Bei zunehmender Datenmenge verwenden Sie verwalteten Speicher in den RA3-Instances, um Daten kostengünstig für nur 0,024 USD pro GB und Monat zu speichern.

Vorhersehbare Kosten, auch bei unvorhersehbaren Workloads: Amazon Redshift ermöglicht Ihnen die Skalierung mit niedrigen Kosten, da jeder Cluster täglich bis zu eine Stunde an kostenlosen Credits für die Nebenläufigkeitsskalierung verdient. Diese kostenlosen Credits reichen für die Nebenläufigkeitsanforderungen von 97 % der Kunden aus. Dadurch sind die monatlichen Kosten für Sie vorhersehbar und das sogar in Zeiträumen mit schwankendem Analysebedarf.

Wählen Sie Ihren Knotentyp, um daraus den größten Nutzen für Ihre Workloads zu ziehen: Sie haben die Wahl zwischen drei Instance-Typen, um Amazon Redshift für Ihre Data-Warehousing-Anforderungen zu optimieren: RA3-Knoten, Dense-Compute-Knoten und Dense-Storage-Knoten.

Mit RA3-Knoten können Sie Speicher unabhängig von der Datenverarbeitung skalieren. Dank RA3 erhalten Sie ein hochleistungsfähiges Data Warehouse, das Daten in einer separaten Speicherebene speichert. Sie müssen lediglich die Größe des Data Warehouse an die von Ihnen benötigte Abfrageleistung anpassen.

Dense-Compute (DC)-Knoten ermöglichen das Einrichten besonders leistungsstarker Data Warehouses unter Verwendung von schnellen CPUs, großen Arbeitsspeichermengen und SSD-Festplatten (Solid-State Disks) und sind bei weniger als 500 GB an Daten die beste Wahl.

Dense-Storage (DS2)-Knoten ermöglichen das Erstellen großer Data Warehouses unter Verwendung von Festplattenlaufwerken (HDDs) zum niedrigen Preis, wenn Sie Reserved Instances mit einer Laufzeit von drei Jahren kaufen. Die meisten Kunden mit DS2-Clustern können ihre Workloads zu RA3-Clustern migrieren und damit im Vergleich zu DS2-Clustern von einer bis zu zweifachen Leistung und mehr Speicher zum selben Preis profitieren.

Das Vergrößern oder Verkleinern Ihres Clusters oder Wechseln zwischen Knotentypen erfordert nur einen einzelnen API-Aufruf bzw. einige wenige Klicks in der AWS-Managementkonsole. Auf der Seite mit den Preisen finden Sie weitere Informationen.

Einfach, sicher und zuverlässig

Konzentrieren Sie sich darauf, in wenigen Sekunden von Daten zu Erkenntnissen zu gelangen und Ihre Geschäftsergebnisse zu erzielen, ohne sich um die Verwaltung Ihres Data Warehouse kümmern zu müssen.

Amazon Redshift Serverless: Amazon Redshift Serverless ist eine serverlose Option von Amazon Redshift, mit der sich Analysen in wenigen Sekunden ausführen und skalieren lassen, ohne eine Data-Warehouse-Infrastruktur einrichten und verwalten zu müssen. Mit Amazon Redshift Serverless kann jeder Benutzer - einschließlich Datenanalysten, Entwickler, Geschäftsexperten und Datenwissenschaftler - durch einfaches Laden und Abfragen von Daten im Data Warehouse Einblicke in die Daten erhalten. Weitere Informationen.

Query Editor v2: Verwenden Sie SQL, um Ihre Amazon-Redshift-Daten und Ihren Data Lake für Datenanalysten, Dateningenieure und andere SQL-Benutzer mit einer webbasierten Analysten-Workbench für die Datenexploration und -analyse zugänglicher zu machen. Mit dem Query Editor v2 können Sie Abfrageergebnisse mit einem einzigen Klick visualisieren, Schemata und Tabellen erstellen, Daten visuell laden und Datenbankobjekte durchsuchen. Darüber hinaus bietet es einen intuitiven Editor für die Erstellung und Freigabe von SQL-Abfragen, Analysen, Visualisierungen und Anmerkungen, die Sie sicher mit Ihrem Team teilen können.

Automatisches Tabellendesign: Amazon Redshift prüft Nutzer-Workloads und nutzt fortschrittliche Algorithmen, die das physische Layout von Daten verbessern, um die Abfragegeschwindigkeit zu erhöhen. Bei Automatic Table Optimization werden die besten Sortier- und Verteilungsschlüssel ausgewählt, um die Leistung des Cluster-Workloads zu verbessern. Wenn Amazon Redshift feststellt, dass das Anwenden eines Schlüssels die Clusterleistung verbessert, werden Tabellen automatisch geändert, ohne dass ein Administrator eingreifen muss. Weitere Funktionen wie Automatic Vacuum Delete, Automatic Table Sort und Automatic Analyze machen die manuelle Wartung und die Optimierung von Redshift-Clustern überflüssig. So erzielen Sie die beste Leistung für neue Cluster und Produktionsworkloads.

Abfragen mit eigenen Tools: Amazon Redshift bietet Ihnen die Flexibilität, Abfragen innerhalb der Konsole auszuführen oder SQL-Client-Tools, Bibliotheken oder Datenwissenschafts-Tools wie Amazon QuickSight, Tableau, PowerBI, QueryBook und Jupyter Notebook zu verbinden.

Einfache API zur Interaktion mit Amazon Redshift: Amazon Redshift ermöglicht Ihnen problemlosen Zugriff auf Daten mit allen Arten von herkömmlichen, cloudnativen und containerisierten, auf Serverless-Webservices basierten und ereignisgesteuerten Anwendungen. Die Amazon-Redshift-Daten-API vereinfacht den Zugriff, den Eingang und den Ausgang von Daten durch Programmiersprachen und Plattformen, die vom AWS SDK unterstützt werden, beispielsweise Python, Go, Java, Node.js, PHP, Ruby und C++. Die Daten-API macht es überflüssig, Treiber zu konfigurieren und Datenbankverbindungen zu verwalten. Stattdessen können Sie SQL-Befehle für einen Amazon Redshift-Cluster ausführen, indem Sie einfach einen gesicherten API-Endpunkt aufrufen, der von der Daten-API bereitgestellt wird. Die Daten-API kümmert sich um die Verwaltung von Datenbankverbindungen und das Puffern von Daten. Die Daten-API ist asynchron gestaltet, sodass Sie Ihre Ergebnisse später abrufen können. Die Abfrageergebnisse werden 24 Stunden lang aufbewahrt.

Fehlertolerant: Mit verschiedenen Funktionen kann die Zuverlässigkeit Ihres Clusters aus Data Warehouses gesteigert werden. Amazon Redshift überwacht zum Beispiel kontinuierlich den Clusterstatus, repliziert Daten ausgefallener Laufwerke erneut automatisch und ersetzt Knoten bei Bedarf absolut fehlertolerant. Cluster können in alternative Availability Zones (AZs) verschoben werden, ohne dass es zu Datenverlust und Anwendungsänderungen kommt.

AWS verfügt über umfassende Sicherheitsfunktionen, die höchsten Ansprüchen gerecht werden, und Amazon Redshift bietet sofort einsatzbereite Datensicherheit ohne zusätzliche Kosten.

Präzise Zugriffskontrollen: Mit präzisen Sicherheitskontrollen auf Zeilen- und Spaltenebene wird sichergestellt, dass Benutzern nur die Daten angezeigt werden, auf die sie Zugriff haben sollen. Amazon Redshift ist in AWS Lake Formation integriert. Dadurch wird sichergestellt, dass die Zugriffskontrollen auf Spaltenebene von Lake Formation auch für Redshift-Abfragen für die Daten im Data Lake angewendet werden.

Die gemeinsame Nutzung von Amazon-Redshift-Daten unterstützt die zentralisierte Zugriffskontrolle mit AWS Lake Formation, um die Verwaltung der von Amazon Redshift freigegebenen Daten zu vereinfachen. AWS Lake Formation (LF) ist ein Service, mit dem Sie ganz einfach sichere Data Lakes einrichten, den granularen Zugriff auf Daten über alle nutzenden Services hinweg zentral verwalten und Kontrollen auf Zeilen- und Spaltenebene anwenden können.

Dynamic Data Masking: Mit Dynamic Data Masking können Kunden ihre sensiblen Daten ganz einfach schützen, indem sie einschränken, wie viele identifizierbare Daten für die Benutzer sichtbar sind. Außerdem können sie mehrere Berechtigungsstufen für diese Felder definieren, so dass verschiedene Benutzer und Gruppen unterschiedliche Zugriffsrechte auf die Daten haben, ohne dass mehrere Datenkopien erstellt werden müssen – alles über die vertraute SQL-Schnittstelle von Redshift.

Multi AZ: Die neue Redshift Multi-AZ-Konfiguration erweitert die Wiederherstellungsmöglichkeiten, indem sie die Wiederherstellungszeit verkürzt und die Kapazität zur automatischen Wiederherstellung ohne Datenverlust garantiert. Ein Redshift Multi-AZ-Data-Warehouse maximiert die Leistung und den Wert, indem es hohe Verfügbarkeit bietet, ohne Standby-Ressourcen nutzen zu müssen.

End-to-End-Verschlüsselung: Mit nur wenigen Parametereinstellungen können Sie Amazon Redshift für die Verwendung von SSL zum Absichern der Daten während der Übertragung und für die hardwarebeschleunigte AES-256-Verschlüsselung zum Absichern der Daten im Ruhezustand konfigurieren. Wenn Sie die Verschlüsselung für Daten bei der Speicherung aktivieren, werden alle auf einen Datenträger geschriebenen sowie sämtliche Backups verschlüsselt. Amazon Redshift übernimmt standardmäßig die Schlüsselverwaltung für Sie.

Netzwerkisolierung: In Amazon Redshift können Sie den Netzwerkzugriff auf Ihren Data Warehouse-Cluster mit Firewall-Regeln steuern. Sie können Amazon Redshift auch in Amazon Virtual Private Cloud (VPC) ausführen, um Ihren Data-Warehouse-Cluster in Ihrem eigenen virtuellen Netzwerk zu isolieren und die Verbindung zur vorhandenen IP-Infrastruktur über dem Branchenstandard entsprechende verschlüsselte IPsec-VPNs herzustellen.

Prüfung und Compliance: Zur Überwachung sämtlicher Redshift-API-Aufrufe ist Amazon Redshift in AWS CloudTrail integriert. Redshift protokolliert alle SQL-Vorgänge, so zum Beispiel Verbindungsversuche, Abfragen und Änderungen am Data Warehouse. Sie können auf diese Protokolle über SQL-Abfragen an Systemtabellen zugreifen oder die Protokolle in einen sicheren Speicherort in Amazon S3 herunterladen. Amazon Redshift erfüllt die Vorgaben von SOC1, SOC2, SOC3 und PCI DSS Level 1. Weitere Informationen erhalten Sie unter AWS Cloud Compliance.

Tokenisierung: Mit den benutzerdefinierten Funktionen (UDFs) von Amazon Lambda können Sie eine AWS-Lambda-Funktion als UDF in Amazon Redshift verwenden und sie aus Redshift-SQL-Abfragen heraus abrufen. Diese Funktionalität ermöglicht es Ihnen, benutzerdefinierte Erweiterungen für Ihre SQL-Abfrage zu schreiben, um eine engere Integration in andere Services oder Produkte von Drittanbietern zu erreichen. Sie können Lambda-UDFs schreiben, um in Abfragezeit externe Tokenisierung, Data Masking und die Identifizierung oder Deidentifizierung von Daten zu ermöglichen, indem Sie Anbieter wie Protegrity integrieren, und den Schutz vertraulicher Daten je nach den Berechtigungen und Gruppen eines Nutzers einschalten oder aufheben.

Informieren Sie sich über die Neuerungen.

Sehen Sie sich die Amazon Redshift-Dokumentation an, um ausführlichere Produktinformationen zu erhalten.