AWS Clean Rooms supporta ora proprietà Spark configurabili per PySpark

Inserito il: 17 apr 2026

AWS Clean Rooms supporta ora le proprietà Spark configurabili per i job PySpark, offrendo ai clienti la possibilità di ottimizzare i propri carichi di lavoro in base ai requisiti di prestazioni e scalabilità. Con questo lancio, i clienti possono personalizzare le impostazioni Spark come il sovraccarico di memoria, la concorrenza delle attività e i timeout di rete, per ogni analisi che utilizza PySpark, l'API Python per Apache Spark. Ad esempio, un'azienda farmaceutica di ricerca che collabora con organizzazioni sanitarie sui dati provenienti da sperimentazioni cliniche nel mondo reale può impostare un'ottimizzazione della memoria specifica per i carichi di lavoro su larga scala, migliorando le prestazioni e ottimizzando i costi. 

AWS Clean Rooms aiuta le aziende e i loro partner ad analizzare e collaborare facilmente su set di dati collettivi senza rivelare o copiare reciprocamente i dati principali. Per ulteriori informazioni sulle regioni AWS in cui è disponibile AWS Clean Rooms, consulta la tabella delle Regioni AWS. Per maggiori informazioni sulla collaborazione con AWS Clean Rooms, vai alla pagina di AWS Clean Rooms.