AWS Clean Rooms รองรับคุณสมบัติ Spark ที่กำหนดค่าได้สำหรับ PySpark แล้ว
AWS Clean Rooms รองรับคุณสมบัติ Spark ที่กำหนดค่าได้สำหรับงาน PySparkแล้ว ช่วยลูกค้าสามารถปรับเวิร์กโหลดให้เหมาะสมตามความต้องการด้านประสิทธิภาพและขนาดของตน ในการเปิดตัวครั้งนี้ ลูกค้าสามารถปรับแต่งการตั้งค่า Spark เช่น หน่วยความจำส่วนเกิน การทำงานพร้อมกัน และการหมดเวลาของเครือข่ายสำหรับการวิเคราะห์แต่ละครั้งที่ใช้ PySpark ซึ่งเป็น Python API สำหรับ Apache Spark ตัวอย่างเช่น บริษัทวิจัยทางเภสัชกรรมที่ร่วมมือกับองค์กรด้านการดูแลสุขภาพเพื่อเก็บข้อมูลการทดลองทางคลินิกในโลกแห่งความเป็นจริง สามารถตั้งค่าการปรับแต่งหน่วยความจำเฉพาะสำหรับเวิร์กโหลดขนาดใหญ่เพื่อปรับปรุงประสิทธิภาพและใช้ต้นทุนให้คุ้มค่ายิ่งขึ้น
AWS Clean Rooms ช่วยให้บริษัทและพาร์ทเนอร์สามารถวิเคราะห์และทำงานร่วมกันบนชุดข้อมูลรวมได้อย่างง่ายดาย โดยไม่ต้องเปิดเผยหรือคัดลอกข้อมูลพื้นฐานของกันและกัน ดูข้อมูลเพิ่มเติมเกี่ยวกับ AWS Region ที่สามารถใช้ AWS Clean Rooms ได้ที่ตาราง AWS Region หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับการทำงานร่วมกันกับ AWS Clean Rooms โปรดไปที่ AWS Clean Rooms