AWS Clean Rooms unterstützt jetzt konfigurierbare Spark-Eigenschaften für PySpark
AWS Clean Rooms unterstützt jetzt konfigurierbare Spark-Eigenschaften für PySpark-Jobs und bietet Kunden so die Möglichkeit, ihre Workloads auf der Grundlage ihrer Leistungs- und Skalierungsanforderungen zu optimieren. Mit diesem Launch können Kunden Spark-Einstellungen wie Speicher-Overhead, Nebenläufigkeit von Aufgaben und Netzwerk-Timeouts für jede Analyse anpassen, die PySpark, die Python-API für Apache Spark, verwendet. Beispielsweise kann ein Pharmaforschungsunternehmen, das mit Gesundheitsorganisationen zusammenarbeitet, um reale klinische Studiendaten zu erhalten, eine spezifische Speicheroptimierung für große Workloads einrichten, um die Leistung zu verbessern und die Kosten zu optimieren.
AWS Clean Rooms hilft Unternehmen und ihren Partnern, ihre kollektiven Datensätze leichter zu analysieren und unter Verwendung dieser Datensätze zusammenzuarbeiten, ohne die zugrunde liegenden Daten des anderen preiszugeben oder zu kopieren. Weitere Informationen zu den AWS-Regionen, in denen AWS Clean Rooms verfügbar ist, finden Sie in der Tabelle der AWS-Regionen. Weitere Informationen zur Zusammenarbeit in AWS Clean Rooms finden Sie unter AWS Clean Rooms.