AWS Clean Rooms kini mendukung properti Spark yang dapat dikonfigurasi untuk PySpark
AWS Clean Rooms kini mendukung properti Spark yang dapat dikonfigurasi untuk pekerjaan PySpark sehingga pelanggan dapat mengoptimalkan beban kerja mereka sesuai dengan kebutuhan performa dan skala. Dengan peluncuran ini, pelanggan dapat menyesuaikan pengaturan Spark seperti overhead memori, konkurensi tugas, dan batas waktu jaringan untuk setiap analisis yang menggunakan PySpark, API Python untuk Apache Spark. Misalnya, perusahaan riset farmasi yang bekerja sama dengan organisasi perawatan kesehatan untuk data uji klinis dunia nyata dapat mengatur penyetelan memori khusus untuk beban kerja skala besar guna meningkatkan kinerja dan mengoptimalkan biaya.
AWS Clean Rooms membantu perusahaan dan mitranya menganalisis dan berkolaborasi dengan mudah pada set data kolektif mereka tanpa mengungkapkan atau menyalin data dasar satu sama lain. Untuk informasi lebih lanjut tentang AWS Region di mana AWS Clean Rooms tersedia, lihat tabel AWS Region. Untuk mempelajari lebih lanjut tentang kolaborasi dengan AWS Clean Rooms, kunjungi AWS Clean Rooms.