การเพิ่มการฝึกแบบยืดหยุ่นบน Amazon SageMaker HyperPod

โพสต์บน: 3 ธ.ค. 2025

ตอนนี้ Amazon SageMaker HyperPod รองรับรองรับการฝึกแบบยืดหยุ่นแล้ว ช่วยให้องค์กรเร่งความเร็วการฝึกโมเดลพื้นฐานด้วยการปรับขนาดเวิร์กโหลดการฝึกโดยอัตโนมัติ ตาม ความพร้อมของทรัพยากรและลำดับความสำคัญของเวิร์กโหลด ซึ่งถือเป็นการเปลี่ยนแปลงเชิงพื้นฐานจากการฝึกด้วยชุดทรัพยากรคงที่ เพราะช่วยประหยัดเวลาทำงานของทีมวิศวกรได้หลายชั่วโมง ที่เดิมต้องคอยปรับตั้งค่างานการฝึกให้สอดคล้องกับความพร้อมของทรัพยากรประมวลผล

ก่อนหน้านี้ การเปลี่ยนแปลงความพร้อมของทรัพยากรประมวลผลก็จำเป็นจะต้อง หยุดการฝึกแบบแมนวล ปรับค่าพารามิเตอร์การฝึกใหม่ และเริ่มงานใหม่ ซึ่งกระบวนการที่ต้องใช้ความเชี่ยวชาญในการฝึกแบบกระจาย และทำให้ตัวเร่งการประมวลผล AI ราคาสูงว่างงานระหว่างขั้นตอนปรับตั้งค่างานการฝึก การฝึกแบบยืดหยุ่นจะขยายงานการฝึกโดยอัตโนมัติ เพื่อรับโหลดจากตัวเร่งการประมวลผล AI ที่ไม่ได้ใช้งานและจะปรับลดลงอย่างราบรื่น เมื่อเวิร์กโหลดที่มี ลำดับความสำคัญสูงกว่าต้องใช้ทรัพยากร โดยไม่จำเป็นต้องหยุดการฝึกทั้งระบบ

ด้วยการตัดภาระการปรับตั้งค่าแบบแมนวลและทำให้มีการใช้ทรัพยากรประมวลผลที่มีอยู่อย่างต่อเนื่อง การฝึกแบบยืดหยุ่นช่วยจะช่วยให้ประหยัดเวลาที่เคยใช้ไปกับการดูแลจัดการโครงสร้างพื้นฐาน ลดต้นทุนด้วยการใช้คลัสเตอร์ให้คุ้มค่าสูงสุด และเร่งเวลาออกสู่ตลาด การฝึกสามารถเริ่มได้ทันทีโดยใช้ทรัพยากรเพียงเล็กน้อย และสามารถขยายการใช้งานได้ตามโอกาสเมื่อมีทรัพยากรเพิ่มขึ้น

SageMaker HyperPod พร้อมให้ใช้งานในรีเจี้ยนทุกแห่งที่มี Amazon SageMaker HyperPod ให้บริการในขณะนี้ องค์กรสามารถเปิดใช้การฝึกแบบยืดหยุ่น ได้ โดยไม่ต้องแก้ไขโค้ดใด ๆ ผ่านสูตร HyperPod สำหรับโมเดลที่เปิดใช้สาธารณะ เช่น Llama และ GPT OSS สำหรับสถาปัตยกรรมโมเดลที่ปรับแต่งเอง ลูกค้าสามารถผสานความสามารถการฝึกแบบยืดหยุ่นได้ด้วยการปรับตั้งค่าเพียงเล็กน้อย และแก้ไขโค้ดเพียงน้อยนิด ทำให้ทีมสามารถเข้าถึงได้โดยไม่จำเป็นต้องมีความเชี่ยวชาญด้านระบบแบบกระจาย

หากต้องการเริ่มต้นใช้งาน โปรดไปที่หน้าผลิตภัณฑ์ Amazon SageMaker HyperPod และดูเอกสารประกอบของการฝึกแบบยืดหยุ่นเพื่อดูคำแนะนำการใช้งาน