AWS Clean Rooms bringt die Spark SQL-Unterstützung mit konfigurierbarer Rechengröße auf den Markt
AWS kündigte heute die Markteinführung von AWS Clean Rooms Spark SQL an, die Kunden in die Lage versetzt, benutzerdefinierte Abfragen unter Verwendung von Spark SQL auszuführen. Mit der Markteinführung können Kunden eine Zusammenarbeit in AWS Clean Rooms mithilfe der Spark-Analyse-Engine erstellen und Workloads unterschiedlicher Größe mit konfigurierbaren Instance-Typen zur Abfragelaufzeit unterstützen.
Mit AWS Clean Rooms Spark SQL können Sie große Datensätze mit dem gängigen Spark-SQL-Dialekt abfragen. AWS Clean Rooms Spark SQL bietet größere Flexibilität bei der Anpassung und Zuordnung von Ressourcen für die Ausführung von SQL-Abfragen auf der Grundlage Ihrer Leistungs-, Skalierungs- und Kostenanforderungen. Kunden können zum Beispiel große Instance-Konfigurationen verwenden, um die Leistungsanforderungen für ihre komplexen Datensätze und Abfragen zu erfüllen, oder kleinere Instances, um die Kosten zu optimieren. Dies ist die neueste Erweiterung der vielfältigen Analysefunktionen von AWS Clean Rooms, einschließlich SQL-Aggregations-, Listen- und benutzerdefinierten Analyseregeln, Clean Rooms ML, Differential Privacy und No-Code Analysis Builder.
AWS Clean Rooms Spark SQL ist in diesen AWS-Regionen allgemein verfügbar und nur für die benutzerdefinierte Analyseregel verfügbar. AWS Clean Rooms hilft Unternehmen und ihren Partnern, ihre kollektiven Datensätze leichter zu analysieren und unter Verwendung dieser Datensätze zusammenzuarbeiten, ohne die zugrunde liegenden Daten preiszugeben oder zu kopieren. Unternehmen können ihre eigenen Clean Rooms bereitstellen, ohne eigene Lösungen entwickeln, verwalten oder warten zu müssen und ohne Daten außerhalb ihrer AWS-Umgebung zu verschieben. Weitere Informationen erhalten Sie unter AWS Clean Rooms.