AWS Clean Rooms introduce il supporto a dimensioni di calcolo configurabili per i processi PySpark

Inserito il: 4 set 2025

AWS Clean Rooms ora supporta dimensioni di calcolo configurabili per PySpark, consentendo ai clienti di personalizzare e assegnare le risorse necessarie per eseguire i processi PySpark in base alle esigenze di prestazioni, scalabilità e costo. Con questa novità i clienti possono specificare il tipo di istanza e la dimensione del cluster al momento dell'esecuzione del processo per ogni analisi che utilizza PySpark, l'API Python per Apache Spark. Ad esempio, i clienti possono utilizzare configurazioni di istanze di grandi dimensioni per ottenere le prestazioni necessarie su set di dati complessi e analisi, oppure istanze più piccole per ottimizzare i costi.

AWS Clean Rooms aiuta le aziende e i loro partner ad analizzare e collaborare facilmente su set di dati collettivi senza rivelare o copiare reciprocamente i dati principali. Per ulteriori informazioni sulle regioni AWS in cui è disponibile AWS Clean Rooms, consulta la tabella delle regioni AWS. Per maggiori informazioni sulla collaborazione con AWS Clean Rooms, consulta la pagina di AWS Clean Rooms.