AWS Clean Rooms, PySpark 작업을 위한 구성 가능한 컴퓨팅 크기 지원

게시된 날짜: 2025년 9월 4일

AWS Clean Rooms가 이제 PySpark 작업을 위한 구성 가능한 컴퓨팅 크기를 지원합니다. 이를 통해 고객은 성능, 규모, 비용 요구 사항에 맞춰 PySpark 작업 실행 시 필요한 리소스를 유연하게 조정하고 할당할 수 있습니다. 이번 출시로 고객은 PySpark(Python API for Apache Spark)를 사용하는 각 분석에서 런타임 시 인스턴스 유형과 클러스터 크기를 지정할 수 있습니다. 예를 들어, 복잡한 데이터세트와 분석에 필요한 성능을 확보하기 위해 대형 인스턴스 구성을 사용할 수도 있고, 비용 최적화를 위해 소형 인스턴스를 선택할 수도 있습니다.

AWS Clean Rooms는 기업과 파트너가 상대방의 기본 데이터를 공개하거나 복사하지 않고도 공동 데이터세트를 쉽게 분석 및 협업할 수 있도록 지원합니다. AWS Clean Rooms가 제공되는 AWS 리전에 대한 추가 정보는 AWS 리전 표에서 확인하세요. AWS Clean Rooms를 통한 협업에 대해 자세히 알아보려면 AWS Clean Rooms로 이동하세요.