AWS Clean Rooms รองรับขนาดการประมวลผลที่กำหนดค่าได้สำหรับงาน PySpark

โพสต์บน: 4 ก.ย. 2025

ขณะนี้ AWS Clean Rooms รองรับขนาดการประมวลผลที่กำหนดค่าได้สำหรับ PySpark แล้ว ซึ่งจะมอบความยืดหยุ่นให้กับลูกค้าในการปรับแต่งและจัดสรรทรัพยากรเพื่อดำเนินงาน PySpark ตามข้อกำหนดด้านประสิทธิภาพ การปรับขนาด และค่าใช้จ่าย ด้วยการเปิดตัวในครั้งนี้ ลูกค้าจะสามารถระบุประเภทอินสแตนซ์และขนาดคลัสเตอร์ในรันไทม์ของงานเพื่อทำการวิเคราะห์แต่ละครั้งที่ใช้ PySpark ซึ่งเป็น Python API สำหรับ Apache Spark ตัวอย่างเช่น ลูกค้าสามารถใช้การกำหนดค่าอินสแตนซ์ขนาดใหญ่เพื่อตอบสนองความต้องการด้านประสิทธิภาพสำหรับชุดข้อมูลและการวิเคราะห์ข้อมูลที่ซับซ้อน หรืออินสแตนซ์ที่ขนาดเล็กกว่าเพื่อปรับค่าใช้จ่ายให้เหมาะสม

AWS Clean Rooms ช่วยให้บริษัทและพาร์ทเนอร์สามารถวิเคราะห์และทำงานร่วมกันบนชุดข้อมูลรวมได้อย่างง่ายดาย โดยไม่ต้องเปิดเผยหรือคัดลอกข้อมูลพื้นฐานของกันและกัน ดูข้อมูลเพิ่มเติมเกี่ยวกับ AWS Region ที่สามารถใช้ AWS Clean Rooms ได้ที่ตาราง AWS Region เรียนรู้เพิ่มเติมเกี่ยวกับการทำงานร่วมกันกับ AWS Clean Rooms ได้ที่ AWS Clean Rooms