อินสแตนซ์ Amazon EC2 P5e พร้อมใช้งานโดยทั่วไปผ่าน EC2 Capacity Blocks

โพสต์บน: 9 ก.ย. 2024

วันนี้ AWS ประกาศความพร้อมใช้งานโดยทั่วไปของอินสแตนซ์ Amazon Elastic Compute Cloud (Amazon EC2) P5e ซึ่งขับเคลื่อนโดย Tensor Core GPU รุ่นล่าสุด NVIDIA H200 อินสแตนซ์เหล่านี้พร้อมใช้งานผ่าน EC2 Capacity Blocks และส่งมอบประสิทธิภาพสูงสุดใน Amazon EC2 สำหรับดีปเลิร์นนิงและการอนุมานโดย AI ช่วยสร้าง

คุณสามารถใช้อินสแตนซ์ Amazon EC2 P5e สําหรับการฝึกและการติดตั้งใช้งานโมเดลภาษาขนาดใหญ่ (LLM) ที่ซับซ้อนมากขึ้นๆ และโมเดลการแพร่กระจายที่ขับเคลื่อนแอปพลิเคชัน AI ช่วยสร้างที่มีความต้องการมากที่สุด นอกจากนี้ คุณยังสามารถใช้อินสแตนซ์ P5e เพื่อนำแอปพลิเคชัน HPC ที่มีความต้องการสูงไปใช้จริงในทุกขนาดในการค้นพบทางเภสัชกรรม การวิเคราะห์แผ่นดินไหว การพยากรณ์อากาศ และการสร้างแบบจําลองทางการเงิน

อินสแตนซ์ P5e มี GPU H200 8 ตัว ซึ่งมีขนาดหน่วยความจำ GPU 1.7 เท่า และมีแบนวิดท์หน่วยความจำ GPU 1.5 เท่า มากกว่า GPU H100 ที่มีอยู่ในอินสแตนซ์ P5 ซึ่งมอบความสามารถระดับชั้นนำตลาดในการเพิ่มจำนวนอินสแตนซ์สำหรับการฝึกแบบกระจายตัวและเวิร์กโหลด HPC ที่ทำงานควบคู่กันอย่างใกล้ชิดด้วยระบบเครือข่ายความเร็วสูงสุด 3,200 Gbps ที่ใช้เทคโนโลยี Elastic Fabric Adapter (EFA) รุ่นที่สอง มีการนำอินสแตนซ์ P5e ไปใช้จริงใน Amazon EC2 UltraClusters เพื่อตอบสนองความต้องการของลูกค้าในสเกลขนาดใหญ่ที่มีเวลาแฝงต่ำ

ตอนนี้ อินสแตนซ์ P5e พร้อมใช้งานแล้วใน AWS Region สหรัฐอเมริกาฝั่งตะวันออก (โอไฮโอ) ในขนาด p5e.48xlarge ผ่าน EC2 Capacity Blocks สำหรับ ML

หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับอินสแตนซ์ P5e โปรดดูอินสแตนซ์ Amazon EC2 P5e