AWS Clean Rooms поддерживает настраиваемый размер вычислительных ресурсов для заданий PySpark
AWS Clean Rooms теперь поддерживает настраиваемый размер вычислительных ресурсов для PySpark, что позволяет клиентам гибко настраивать и распределять ресурсы для выполнения заданий PySpark в зависимости от требований к производительности, масштабируемости и стоимости. Благодаря этому запуску клиенты могут указывать тип инстанса и размер кластера во время выполнения задания для каждого анализа, использующего PySpark, API Python для Apache Spark. Например, клиенты могут использовать конфигурации с крупными инстансами, чтобы достичь необходимой производительности для обработки сложных наборов данных и сложного анализа, или же использовать инстансы меньшего размера для оптимизации затрат.
Решение AWS Clean Rooms помогает компаниям и их партнерам легко анализировать общие наборы данных и работать над ними вместе, не раскрывая и не копируя собственные данные друг друга. Дополнительные сведения о регионах AWS, в которых доступен сервис AWS Clean Rooms, приведены в таблице регионов AWS. Чтобы узнать больше о совместной работе посредством AWS Clean Rooms, посетите страницу продукта.