AWS Clean Rooms ahora admite propiedades configurables de Spark para PySpark

Publicado en: 17 de abr de 2026

AWS Clean Rooms ahora admite las propiedades configurables de Spark para los trabajos de PySpark, lo que ofrece a los clientes la posibilidad de optimizar sus cargas de trabajo en función de sus requisitos de rendimiento y escala. Con este lanzamiento, los clientes pueden personalizar la configuración de Spark, como la sobrecarga de memoria, la concurrencia de tareas y los tiempos de espera de la red, para cada análisis que utilice PySpark, la API de Python para Apache Spark. Por ejemplo, una empresa de investigación farmacéutica que colabora con organizaciones sanitarias para obtener datos de ensayos clínicos del mundo real puede establecer ajustes de memoria específicos para cargas de trabajo a gran escala a fin de mejorar el rendimiento y optimizar los costos. 

AWS Clean Rooms ayuda a las empresas y a sus socios a realizar análisis y colaborar de manera fácil en los conjuntos de datos colectivos, sin necesidad de revelar ni copiar los datos subyacentes entre sí. Para obtener más información sobre las regiones de AWS en las que está disponible AWS Clean Rooms, consulte la tabla de regiones de AWS. Para obtener más información sobre la colaboración con este servicio, visite AWS Clean Rooms.