AWS Clean Rooms oferece suporte a um tamanho de computação configurável para trabalhos do PySpark
Agora, o AWS Clean Rooms oferece suporte a tamanhos de computação configuráveis para o PySpark, proporcionando aos clientes a flexibilidade de personalizar e alocar recursos para executar trabalhos do PySpark com base em requisitos de performance, escala e custo. Com esse lançamento, os clientes podem especificar o tipo de instância e o tamanho do cluster no runtime do trabalho para cada análise que usa o PySpark, a API do Python para o Apache Spark. Por exemplo, os clientes podem usar configurações de instâncias grandes para alcançar a performance necessária para suas análises e conjuntos de dados complexos ou instâncias menores para otimizar custos.
O AWS Clean Rooms ajuda empresas e seus parceiros a analisar e colaborar com facilidade em conjuntos de dados coletivos, sem revelar ou copiar os dados subjacentes de outras pessoas. Para obter mais informações sobre todas as regiões da AWS nas quais o AWS Clean Rooms está disponível, consulte a tabela de regiões da AWS. Para saber mais sobre como colaborar com o AWS Clean Rooms, acesse o AWS Clean Rooms.