ประกาศสูตร Amazon SageMaker HyperPod
สูตร Amazon SageMaker HyperPod ช่วยให้คุณเริ่มฝึกอบรมและปรับแต่งโมเดลพื้นฐาน (FM) ที่มีให้บริการแบบสาธารณะได้ในไม่กี่นาที โดยมีประสิทธิภาพที่ล้ำสมัย SageMaker HyperPod ช่วยให้ลูกค้าปรับขนาดการพัฒนาโมเดล AI ช่วยสร้างผ่านตัวเร่ง AI หลายร้อยหรือหลายพันตัวที่มาพร้อมความยืดหยุ่นในตัว และการเพิ่มประสิทธิภาพการทำงานและลดเวลาในการฝึกโมเดลลงถึง 40% แต่เนื่องจากขนาด FM ยังคงเพิ่มขึ้นถึงหลายร้อยพันล้านพารามิเตอร์ กระบวนการปรับแต่งโมเดลเหล่านี้อาจใช้เวลาหลายสัปดาห์ในการทดลองและการแก้ไขข้อบกพร่องอย่างครอบคลุม นอกจากนี้ การเพิ่มประสิทธิภาพการฝึกอบรม เพื่อปลดล็อกประสิทธิภาพค่าบริการที่ดีขึ้นมักเป็นไปไม่ได้สำหรับลูกค้า เนื่องจากพวกเขามักต้องการความเชี่ยวชาญด้านแมชชีนเลิร์นนิงอย่างลึกซึ้ง ซึ่งอาจทำให้เกิดความล่าช้าในเวลาออกสู่ตลาด
สูตรของ SageMaker HyperPod ทำให้ลูกค้าชุดทักษะทุกคนได้รับประโยชน์จากประสิทธิภาพที่ล้ำสมัย ในขณะที่เริ่มต้นการฝึกอบรมและปรับแต่ง FM สาธารณะยอดนิยมได้อย่างรวดเร็ว ซึ่งรวมถึง Llama 3.1 405B, Mixtral 8x22B และ Mistral 7B สูตร SageMaker HyperPod ประกอบด้วยสแต็กการฝึกอบรมที่ทดสอบโดย AWS ซึ่งช่วยลดความน่าเบื่อของงานตลอดทั้งสัปดาห์ พร้อมด้วยการทดลองกับการกำหนดค่าโมเดลรูปแบบใหม่ คุณยังสามารถสลับระหว่างอินสแตนซ์ที่ใช้ GPU และ AWS Trainium ได้อย่างรวดเร็วด้วยการเปลี่ยนสูตรบรรทัดเดียว และเปิดใช้งานการตรวจสอบโมเดลอัตโนมัติ เพื่อความยืดหยุ่นในการฝึกอบรมที่ดีขึ้น และท้ายที่สุด คุณสามารถเรียกใช้เวิร์กโหลดเพื่อใช้งานจริงบนบริการฝึกอบรม SageMaker AI ที่คุณเลือกได้
สูตร SageMaker HyperPod มีให้บริการในทุก AWS Region ที่รองรับการฝึกอบรม SageMaker HyperPod และ SageMaker ไปที่หน้า SageMaker HyperPod และบล็อก เพื่อเรียนรู้เพิ่มเติมและเริ่มต้นใช้งาน