AWS Clean Rooms 现已支持为 PySpark 配置 Spark 属性
发布于:
2026年4月17日
AWS Clean Rooms 现在支持为 PySpark 任务配置 Spark 属性,使客户能够根据其性能和规模要求优化工作负载。此次发布后,客户可以为每个使用 PySpark(适用于 Apache Spark 的 Python API)的分析任务自定义 Spark 设置,例如内存开销、任务并发和网络超时。例如,一家与医疗保健组织合作获取真实临床试验数据的制药研究公司可以为大规模工作负载设置特定的内存优化,以提升性能并优化成本。
AWS Clean Rooms 可以帮助公司及其合作伙伴轻松地分析他们的汇总数据集并进行协作,而无需透露或复制彼此的底层数据。有关提供 AWS Clean Rooms 的 AWS 区域的更多信息,请参阅 AWS 区域表。要了解有关通过 AWS Clean Rooms 进行协作的更多信息,请访问 AWS Clean Rooms。