AWS Clean Rooms führt erweiterte Konfigurationen zur Optimierung der SQL-Leistung ein

Veröffentlicht am: 30. Okt. 2025

Heute kündigt AWS Clean Rooms die Unterstützung für erweiterte Konfigurationen zur Verbesserung der Leistung von Spark SQL-Abfragen an. Mit dieser Einführung können Sie Spark-Eigenschaften und Rechengrößen für SQL-Abfragen zur Laufzeit anpassen und so Ihre Anforderungen an Leistung, Skalierung und Kosten noch flexibler erfüllen.

Mit AWS Clean Rooms können Sie Spark-Eigenschaften konfigurieren, z. B. Shuffle-Partitionseinstellungen für die parallele Verarbeitung und autoBroadcastJoinThreshold für die Optimierung von Join-Operationen, damit Sie das Verhalten und die Abstimmung von SQL-Abfragen in einer Clean Rooms-Zusammenarbeit besser kontrollieren können. Außerdem können Sie wählen, ob Sie die Daten einer bestehenden Tabelle mit den Ergebnissen einer SQL-Abfrage zwischenspeichern oder eine neue Tabelle erstellen und zwischenspeichern möchten. Dies verbessert die Leistung und reduziert die Kosten für komplexe Abfragen mit großen Datensätzen. So kann ein Werbetreibender, der Lift-Analysen für seine Werbekampagnen durchführt, eine benutzerdefinierte Anzahl von Workern für einen Instance-Typ festlegen und die Spark-Eigenschaften konfigurieren – ohne seine SQL-Abfrage zu bearbeiten –, um die Kosten zu optimieren.

Mit AWS Clean Rooms können Kunden innerhalb weniger Minuten einen sicheren Daten-Clean-Room einrichten und mit jedem anderen Unternehmen in AWS oder Snowflake zusammenarbeiten, um einzigartige Erkenntnisse über Werbekampagnen, Investitionsentscheidungen sowie Forschung und Entwicklung zu gewinnen. Weitere Informationen zu den AWS-Regionen, in denen AWS Clean Rooms verfügbar ist, finden Sie in der Tabelle der AWS-Regionen. Weitere Informationen zur Zusammenarbeit in AWS Clean Rooms finden Sie unter AWS Clean Rooms.