AWS Clean Rooms, PySpark işleri için yapılandırılabilir işlem boyutunu destekler

Yayınlanma Tarihi: 4 Eyl 2025

AWS Clean Rooms artık PySpark için yapılandırılabilir işlem boyutunu destekleyerek müşterilere performans, ölçek ve maliyet gereksinimlerine göre PySpark işlerini çalıştırmak için kaynakları özelleştirme ve tahsis etme esnekliği sunuyor. Bu lansmanla müşteriler, Apache Spark için Python API'si olan PySpark'ı kullanan her analizde iş çalışma zamanında bulut sunucusu türünü ve küme boyutunu belirtebilir. Örneğin, müşteriler karmaşık veri kümeleri ve analizleri için gereken performansı karşılamak amacıyla büyük bulut sunucusu yapılandırmalarını veya maliyetleri optimize etmek üzere daha küçük bulut sunucularını kullanabilir.

AWS Clean Rooms, şirketlerin ve çözüm ortaklarının birbirlerinin temel verilerini paylaşmadan veya kopyalamadan ortak veri kümelerini kolay analiz etmelerine ve bunlar üzerinde iş birliği yapmalarına yardımcı olur. AWS Clean Rooms'un kullanılabildiği AWS Bölgeleri hakkında daha fazla bilgi için AWS Bölgeleri tablosuna bakın. AWS Clean Rooms ile iş birliği yapma hakkında daha fazla bilgi için AWS Clean Rooms bölümünü ziyaret edin.