AWS Clean Rooms admite un tamaño de computación configurable para los trabajos de PySpark
AWS Clean Rooms ahora admite un tamaño de computación configurable para PySpark, lo que ofrece a los clientes la flexibilidad de personalizar y asignar recursos para ejecutar trabajos de PySpark en función de sus requisitos de rendimiento, escala y costo. Con este lanzamiento, los clientes pueden especificar el tipo de instancia y el tamaño del clúster en tiempo de ejecución del trabajo para cada análisis que utilice PySpark, la API de Python para Apache Spark. Por ejemplo, los clientes pueden usar configuraciones de instancias grandes para lograr el rendimiento necesario para análisis y conjuntos de datos complejos, o bien, instancias más pequeñas para optimizar los costos.
AWS Clean Rooms ayuda a las empresas y a sus socios a realizar análisis y colaborar de manera fácil en los conjuntos de datos colectivos, sin necesidad de revelar ni copiar los datos subyacentes entre sí. Para obtener más información sobre las regiones en las que está disponible AWS Clean Rooms, consulte la tabla de regiones de AWS. Para obtener más información sobre la colaboración con este servicio, visite AWS Clean Rooms.