AWS Clean Rooms prend désormais en charge les propriétés Spark configurables pour PySpark
AWS Clean Rooms prend désormais en charge les propriétés Spark configurables pour les tâches PySpark, offrant ainsi aux clients la possibilité d’optimiser leurs charges de travail en fonction de leurs exigences en matière de performances et de mise à l’échelle. Avec ce lancement, les clients peuvent personnaliser les paramètres de Spark tels que la surcharge de mémoire, la simultanéité des tâches et les délais d’expiration du réseau pour chaque analyse utilisant PySpark, l’API Python pour Apache Spark. Par exemple, une société de recherche pharmaceutique collaborant avec des organisations de santé pour obtenir des données d’essais cliniques réelles peut définir un réglage de mémoire spécifique pour les charges de travail à grande échelle afin d’améliorer les performances et d’optimiser les coûts.
AWS Clean Rooms aide les entreprises et leurs partenaires à analyser facilement leurs jeux de données collectifs et à collaborer sans révéler ni copier les données sous-jacentes des autres. Pour en savoir plus sur les régions AWS dans lesquelles AWS Clean Rooms est disponible, consultez le tableau des régions AWS. Pour en savoir plus sur la collaboration avec AWS Clean Rooms, rendez-vous sur AWS Clean Rooms.