AWS Clean Rooms unterstützt konfigurierbare Berechnungsgrößen für PySpark-Aufträge

Veröffentlicht am: 4. Sept. 2025

AWS Clean Rooms unterstützt jetzt die konfigurierbare Rechengröße für PySpark und bietet Kunden die Flexibilität, Ressourcen für die Ausführung von PySpark-Aufträgen auf der Grundlage ihrer Leistungs-, Skalen- und Kostenanforderungen anzupassen und zuzuweisen. Mit dieser Einführung können Kunden den Instance-Typ und die Clustergröße zur Laufzeit des Auftrags für jede Analyse festlegen, die PySpark, die Python-API für Apache Spark, verwendet. Kunden können zum Beispiel große Instance-Konfigurationen verwenden, um die Leistungsanforderungen für ihre komplexen Datensätze und Analysen zu erreichen, oder kleinere Instances, um die Kosten zu optimieren.

AWS Clean Rooms hilft Unternehmen und ihren Partnern, ihre kollektiven Datensätze leichter zu analysieren und unter Verwendung dieser Datensätze zusammenzuarbeiten, ohne die zugrunde liegenden Daten des anderen preiszugeben oder zu kopieren. Weitere Informationen zu den AWS-Regionen, in denen AWS Clean Rooms verfügbar ist, finden Sie in der Tabelle der AWS-Regionen. Weitere Informationen zur Zusammenarbeit in AWS Clean Rooms finden Sie unter AWS Clean Rooms.