AWS Clean Rooms mendukung ukuran komputasi yang dapat dikonfigurasi untuk pekerjaan PySpark

Dikirim di: 4 Sep 2025

AWS Clean Rooms sekarang mendukung ukuran komputasi yang dapat dikonfigurasi untuk PySpark, menawarkan pelanggan fleksibilitas untuk menyesuaikan dan mengalokasikan sumber daya untuk menjalankan pekerjaan PySpark berdasarkan persyaratan kinerja, skala, dan biaya mereka. Dengan peluncuran ini, pelanggan dapat menentukan jenis instans dan ukuran klaster pada runtime pekerjaan untuk setiap analisis yang menggunakan PySpark, API Python untuk Apache Spark. Misalnya, pelanggan dapat menggunakan konfigurasi instans besar untuk mencapai kinerja yang dibutuhkan untuk kumpulan data dan analisis kompleks mereka, atau instans yang lebih kecil untuk mengoptimalkan biaya.

AWS Clean Rooms membantu perusahaan dan mitranya menganalisis dan berkolaborasi dengan mudah pada set data kolektif mereka tanpa mengungkapkan atau menyalin data dasar satu sama lain. Untuk informasi lebih lanjut tentang AWS Region tempat AWS Clean Rooms tersedia, lihat tabel AWS Region. Untuk mempelajari lebih lanjut tentang kolaborasi dengan AWS Clean Rooms, kunjungi AWS Clean Rooms.