ขณะนี้ Amazon EKS รองรับ Worker Node ได้สูงสุดถึง 100,000 โหนดต่อคลัสเตอร์แล้ว

โพสต์บน: 15 ก.ค. 2025

วันนี้ Amazon EKS ประกาศรองรับ Worker Node ได้สูงสุดถึง 100,000 โหนดในหนึ่งคลัสเตอร์ ทำให้คุณสามารถเรียกใช้เวิร์กโหลดการฝึกและการอนุมาน AI/ML ขนาดใหญ่พิเศษได้ในคลัสเตอร์เดียว ด้วยประเภทอินสแตนซ์การประมวลผลแบบเร่งความเร็วรุ่นใหม่ของ Amazon EC2 มอบ Worker Node จำนวน 100,000 โหนดที่สามารถรองรับชิป Trainium ได้สูงสุด 1.6 ล้านชิปด้วยอินสแตนซ์ Trn2 และ GPU NVIDIA 800,000 ตัวด้วยอินสแตนซ์ P5 และ P6 ในคลัสเตอร์เดียว สิ่งนี้ช่วยให้คุณสามารถเรียกใช้เวิร์กโหลด AI/ML ขนาดใหญ่พิเศษที่ต้องการตัวเร่งการประมวลผลทั้งหมดให้พร้อมใช้งานภายในคลัสเตอร์เดียว เนื่องจากเวิร์กโหลดเหล่านี้ไม่สามารถกระจายไปยังหลายคลัสเตอร์ได้อย่างง่ายดาย

โมเดล AI ที่ล้ำสมัยที่สุด ซึ่งมีพารามิเตอร์หลายล้านล้านตัว แสดงให้เห็นถึงความสามารถที่เพิ่มขึ้นอย่างมีมากในการทำความเข้าใจบริบท การใช้เหตุผล และการแก้ไขงานที่ซับซ้อน ในการสร้างและใช้งานโมเดลที่มีประสิทธิภาพเพิ่มขึ้นเหล่านี้ องค์กรต่าง ๆ จำเป็นต้องเข้าถึงตัวเร่งการประมวลผลจำนวนมหาศาลในคลัสเตอร์เดียว การเข้าถึงตัวเร่งการประมวลผลจำนวนมหาศาลที่รวมศูนย์กันนี้ มอบประโยชน์ที่สำคัญหลายประการ ได้แก่ ช่วยให้องค์กรสามารถสร้างและปรับใช้โมเดล AI ที่ทรงพลังยิ่งขึ้นกว่าเดิม ลดต้นทุนด้วยการแบ่งใช้ตัวเร่งการประมวลผลระหว่างเวิร์กโหลดการฝึกและการอนุมานได้อย่างมีประสิทธิภาพ และช่วยให้สามารถใช้งานเครื่องมือและเฟรมเวิร์ก AI/ML ที่มีอยู่ได้อย่างราบรื่น แม้ว่าจะไม่ได้ออกแบบมาให้ทำงานข้ามคลัสเตอร์ก็ตาม

หากต้องการเรียนรู้เพิ่มเติม โปรดดูบล็อกการเปิดตัว