AWS Clean Rooms prend en charge une taille de calcul configurable pour les tâches PySpark

Publié le: 4 sept. 2025

AWS Clean Rooms prend désormais en charge une taille de calcul configurable pour PySpark, offrant ainsi aux clients la flexibilité de personnaliser et d'allouer des ressources pour exécuter des tâches PySpark en fonction de leurs exigences en matière de performances, d'évolutivité et de coûts. Grâce à ce lancement, les clients peuvent spécifier le type d'instance et la taille du cluster lors de l'exécution de la tâche pour chaque analyse utilisant PySpark, l'API Python pour Apache Spark. Par exemple, les clients peuvent utiliser des configurations d'instances de grande taille pour atteindre les performances requises pour leurs jeux de données et leurs analyses complexes, ou des instances plus petites pour optimiser les coûts.

AWS Clean Rooms aide les entreprises et leurs partenaires à analyser facilement leurs jeux de données collectifs et à collaborer sans révéler ni copier les données sous-jacentes des autres. Pour en savoir plus sur les régions AWS dans lesquelles AWS Clean Rooms est disponible, consultez le tableau des régions AWS. Pour en savoir plus sur la collaboration avec AWS Clean Rooms, rendez-vous sur AWS Clean Rooms.