AWS Clean Rooms 支援 PySpark 工作的可設定運算大小
張貼日期:
2025年9月4日
AWS Clean Rooms 現在支援 PySpark 的可設定運算大小,為客戶提供靈活性,使其能根據效能、規模與成本需求,自訂並分配資源以執行 PySpark 工作。在此版本推出後,客戶可以針對每個使用 PySpark (Apache Spark 的 Python API) 進行分析的作業,在執行時期指定執行個體類型與叢集大小。例如,客戶可以使用大型執行個體組態來滿足其複雜資料集和分析的所需效能,或使用較小的執行個體來最佳化成本。
AWS Clean Rooms 可協助公司及其合作夥伴輕鬆地分析集體資料集並就此展開協作,無需揭露或複製彼此的基礎資料。如需有關提供 AWS Clean Rooms 之 AWS 區域的詳細資訊,請參閱 AWS 區域表。若要進一步了解透過 AWS Clean Rooms 協作的資訊,請參閱 AWS Clean Rooms。