เหตุใดจึงควรเลือกใช้อินสแตนซ์ Amazon EC2 P4
อินสแตนซ์ P4d ของ Amazon Elastic Compute Cloud (Amazon EC2) มอบประสิทธิภาพสูงสำหรับการฝึกแมชชีนเลิร์นนิง (ML) และแอปพลิเคชันการประมวลผลประสิทธิภาพสูง (HPC) ในระบบคลาวด์ อินสแตนซ์ P4d ขับเคลื่อนโดย GPU NVIDIA A100 Tensor Core และส่งมอบปริมาณงานสูงชั้นนำของอุตสาหกรรมและเครือข่ายล่าช้าต่ำ อินสแตนซ์เหล่านี้รองรับเครือข่ายอินสแตนซ์ 400 Gbps อินสแตนซ์ P4d ช่วยลดต้นทุนในการฝึกโมเดล ML ได้ถึง 60% รวมถึงประสิทธิภาพที่ดีขึ้นโดยเฉลี่ย 2.5 เท่าสำหรับโมเดลดีปเลิร์นนิงเมื่อเปรียบเทียบกับอินสแตนซ์ P3 และ P3dn รุ่นก่อนหน้า
อินสแตนซ์ P4d ถูกปรับใช้ในคลัสเตอร์ไฮเปอร์สเกลที่เรียกว่า Amazon EC2 UltraClusters ซึ่งประกอบด้วยการประมวลผลประสิทธิภาพสูง เครือข่าย และพื้นที่เก็บข้อมูลในระบบคลาวด์ EC2 UltraCluster แต่ละเครื่องถือเป็นซูเปอร์คอมพิวเตอร์ที่มีประสิทธิภาพสูงสุดเครื่องหนึ่งในโลก ช่วยให้คุณสามารถรันการฝึกอบรม ML แบบมัลติโหนดที่ซับซ้อนที่สุดและเวิร์กโหลด HPC แบบกระจายได้ คุณสามารถปรับขนาดได้อย่างง่ายดายตั้งแต่ไม่กี่ตัวไปจนถึงหลายพัน GPU NVIDIA A100 ใน EC2 UltraClusters ตามความต้องการของโครงการ ML หรือ HPC ของคุณ
นักวิจัย นักวิทยาศาสตร์ข้อมูล และนักพัฒนาสามารถใช้อินสแตนซ์ P4d เพื่อฝึกโมเดล ML สำหรับกรณีการใช้งานเช่นการประมวลผลภาษาธรรมชาติ การตรวจจับและการจำแนกวัตถุ และกลไกการแนะนำ นอกจากนี้ยังสามารถใช้เพื่อรันแอปพลิเคชัน HPC เช่น การค้นพบยา การวิเคราะห์แผ่นดินไหว และการสร้างแบบจำลองทางการเงิน ต่างจากระบบภายในสถานที่ คุณสามารถเข้าถึงการประมวลผลและความจุจัดเก็บข้อมูลที่แทบไม่มีขีดจำกัด ปรับขนาดโครงสร้างพื้นฐานของคุณตามความต้องการทางธุรกิจ และสร้างงานฝึกอบรม ML แบบหลายโหนดหรือแอปพลิเคชัน HPC แบบกระจายที่เชื่อมโยงกันอย่างแน่นหนาได้ในเวลาไม่กี่นาที โดยไม่ต้องมีค่าใช้จ่ายในการตั้งค่าหรือบำรุงรักษาใดๆ
ประกาศเปิดตัวอินสแตนซ์ Amazon EC2 P4d ใหม่
ประโยชน์
คุณสมบัติ
คำชมเชยจากลูกค้า
นี่คือตัวอย่างบางส่วนของวิธีที่ลูกค้าและพันธมิตรบรรลุเป้าหมายทางธุรกิจด้วยอินสแตนซ์ Amazon EC2 P4
-
Toyota Research Institute (TRI)
สถาบันวิจัยโตโยต้า (TRI) ก่อตั้งในปี 2015 โดยทำงานเพื่อพัฒนาระบบขับขี่อัตโนมัติ หุ่นยนต์ และเทคโนโลยีขยายเสียงของมนุษย์อื่นๆ สำหรับโตโยต้า
ที่ TRI เรากำลังทำงานเพื่อสร้างอนาคตที่ทุกคนมีอิสระในการเดินทาง อินสแตนซ์ P3 รุ่นก่อนหน้าช่วยให้เราลดเวลาในการฝึกโมเดล ML จากหลายวันเหลือเพียงไม่กี่ชั่วโมง และเรามุ่งหวังที่จะใช้อินสแตนซ์ P4d เนื่องจากหน่วยความจำ GPU เพิ่มเติมและรูปแบบลอยตัวที่มีประสิทธิภาพยิ่งขึ้นจะช่วยให้ทีมแมชชีนเลิร์นนิงของเราสามารถฝึกด้วยโมเดลที่ซับซ้อนมากขึ้นด้วยความเร็วที่เร็วยิ่งขึ้น
Mike Garrison หัวหน้าฝ่ายเทคนิค วิศวกรรมโครงสร้างพื้นฐาน TRI -
TRI-AD
ที่ TRI-AD เรากำลังทำงานเพื่อสร้างอนาคตที่ทุกคนมีอิสระในการสัญจรและสำรวจ โดยเน้นที่การลดการบาดเจ็บและเสียชีวิตจากยานพาหนะโดยใช้การขับขี่แบบปรับตัวและเมืองอัจฉริยะ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดเวลาการฝึกอบรมสำหรับการจดจำวัตถุลงได้ 40% เมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้าโดยไม่ต้องปรับเปลี่ยนโค้ดที่มีอยู่แต่อย่างใด
Junya Inada ผู้อำนวยการฝ่ายการขับขี่อัตโนมัติ (การรับรู้) TRI-AD -
TRI-AD
ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดต้นทุนในการฝึกอบรมได้ทันทีเมื่อเปรียบเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้า ทำให้เราเพิ่มจำนวนทีมงานที่ดำเนินการฝึกโมเดลได้ การปรับปรุงการทำงานเครือข่ายใน P4d ทำให้เราปรับขนาดให้เหมาะสมกับอินสแตนซ์ต่างๆ ได้อย่างมีประสิทธิภาพถึงหลายสิบอินสแตนซ์ ซึ่งทำให้เรามีความคล่องตัวอย่างมากในการเพิ่มประสิทธิภาพ ฝึกอบรมใหม่ และปรับใช้โมเดลต่างๆ ในรถทดสอบหรือสภาพแวดล้อมจำลองสำหรับการทดสอบเพิ่มเติมได้อย่างรวดเร็ว
Jack Yan ผู้อำนวยการอาวุโสฝ่ายวิศวกรรมโครงสร้างพื้นฐาน TRI-AD -
GE Healthcare
GE Healthcare เป็นผู้นำด้านเทคโนโลยีทางการแพทย์และผู้คิดค้นโซลูชันดิจิทัลระดับโลก GE Healthcare ช่วยให้แพทย์สามารถตัดสินใจได้อย่างรวดเร็วและมีข้อมูลมากขึ้นผ่านอุปกรณ์อัจฉริยะ การวิเคราะห์ข้อมูล แอปพลิเคชัน และบริการ ซึ่งได้รับการสนับสนุนจากแพลตฟอร์มอัจฉริยะ Edison Intelligence
ที่ GE Healthcare เรามอบเครื่องมือต่างๆ ให้กับแพทย์เพื่อช่วยรวบรวมข้อมูล นำ AI และการวิเคราะห์ไปใช้กับข้อมูลเหล่านั้น และค้นพบข้อมูลเชิงลึกที่จะช่วยปรับปรุงผลลัพธ์สำหรับผู้ป่วย ขับเคลื่อนประสิทธิภาพ และขจัดข้อผิดพลาด อุปกรณ์ถ่ายภาพทางการแพทย์ของเราสร้างข้อมูลจำนวนมากที่นักวิทยาศาสตร์ข้อมูลของเราต้องประมวลผล หากใช้คลัสเตอร์ GPU ก่อนหน้านี้ จะต้องใช้เวลาหลายวันในการฝึกโมเดล AI ที่ซับซ้อน เช่น Progressive GAN สำหรับการจำลองและดูผลลัพธ์ การใช้อินสแตนซ์ P4d ใหม่ช่วยลดเวลาในการประมวลผลจากวันเป็นชั่วโมง เราพบว่าความเร็วเพิ่มขึ้นสองถึงสามเท่าในการฝึกโมเดลด้วยขนาดภาพต่างๆ ในขณะที่บรรลุประสิทธิภาพที่ดียิ่งขึ้นด้วยขนาดชุดที่เพิ่มขึ้นและผลผลิตที่สูงขึ้นด้วยรอบการพัฒนาโมเดลที่เร็วขึ้น
Karley Yoder รองประธานและผู้จัดการทั่วไป ฝ่ายปัญญาประดิษฐ์ GM Healthcare -
HEAVY.AI
HEAVY.AI เป็นผู้บุกเบิกในการวิเคราะห์แบบเร่งด่วน แพลตฟอร์ม HEAVY.AI ใช้ในธุรกิจและรัฐบาลเพื่อค้นหาข้อมูลเชิงลึกที่เกินขีดจำกัดของเครื่องมือวิเคราะห์หลัก
ที่ HEAVY.AI เรากำลังทำงานเพื่อสร้างอนาคตที่วิทยาศาสตร์ข้อมูลและการวิเคราะห์มาบรรจบกันเพื่อทำลายและรวมไซโลข้อมูลเข้าด้วยกัน ลูกค้าใช้ประโยชน์จากข้อมูลจำนวนมากซึ่งอาจรวมถึงตำแหน่งและเวลาเพื่อสร้างภาพเต็มไม่เพียง แต่สิ่งที่เกิดขึ้น แต่เมื่อใดและที่ไหนผ่านการสร้างภาพเชิงละเอียดของข้อมูลชั่วคราวเชิงพื้นที่ เทคโนโลยีของเราทำให้สามารถมองเห็นทั้งป่าและต้นไม้ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดต้นทุนในการปรับใช้แพลตฟอร์มของเราได้อย่างมีนัยสำคัญเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้า ทำให้เราสามารถปรับขนาดชุดข้อมูลขนาดใหญ่ได้อย่างคุ้มค่า การปรับปรุงเครือข่ายใน A100 ได้เพิ่มประสิทธิภาพของเราในการปรับขนาดข้อมูลหลายพันล้านแถว และช่วยให้ลูกค้าของเราสามารถรวบรวมข้อมูลเชิงลึกได้เร็วขึ้น
Ray Falcione, รองประธานฝ่ายภาครัฐของสหรัฐอเมริกา HEAVY.AI -
Zenotech Ltd.
Zenotech Ltd. กำลังกำหนดวิศวกรรมออนไลน์ใหม่ผ่านการใช้ HPC Clouds ที่ส่งมอบโมเดลใบอนุญาตตามความต้องการพร้อมประโยชน์ด้านประสิทธิภาพสูงสุดโดยการใช้ประโยชน์จากGPU
ที่ Zenotech เรากำลังพัฒนาเครื่องมือเพื่อให้นักออกแบบสามารถสร้างผลิตภัณฑ์ที่มีประสิทธิภาพและเป็นมิตรต่อสิ่งแวดล้อมมากขึ้น เราทำงานในทุกอุตสาหกรรม และเครื่องมือของเราให้ข้อมูลเชิงลึกเกี่ยวกับประสิทธิภาพของผลิตภัณฑ์ที่ดียิ่งขึ้นผ่านการใช้การจำลองขนาดใหญ่ การใช้อินสแตนซ์ AWS P4d ช่วยให้เราสามารถเรียกใช้การจำลองของเราได้เร็วขึ้น 3.5 เท่าเมื่อเทียบกับ GPU รุ่นก่อนหน้า การเพิ่มความเร็วนี้ช่วยลดเวลาของเราในการแก้ปัญหาอย่างมีนัยสำคัญ ทำให้ลูกค้าของเราสามารถนำการออกแบบมาสู่ตลาดได้เร็วขึ้นหรือทำการจำลองความเที่ยงตรงสูงกว่าที่เคยเป็นไปได้
Jamil Appa ผู้อำนวยการและผู้ร่วมก่อตั้ง Zenotech -
Aon
Aon เป็นบริษัทให้บริการระดับมืออาชีพชั้นนำระดับโลกที่ให้บริการโซลูชันด้านความเสี่ยง การเกษียณอายุและสุขภาพที่หลากหลาย Aon PathWise เป็นโซลูชันการจัดการความเสี่ยง HPC ที่ใช้ GPU และปรับขนาดได้ซึ่งผู้ประกันภัยและผู้ประกันภัย ธนาคาร และกองทุนบำเหน็จบำนาญสามารถใช้เพื่อจัดการกับความท้าทายที่สำคัญในปัจจุบัน เช่น การทดสอบกลยุทธ์การป้องกันความเสี่ยง การคาดการณ์ทางกฎระเบียบและเศรษฐกิจ และการจัดทำงบประมาณ
ที่ PathWise Solutions Group LLC ผลิตภัณฑ์ของเราช่วยให้บริษัทประกันภัย ผู้ประกันภัย และกองทุนบำเหน็จบำนาญสามารถเข้าถึงเทคโนโลยีรุ่นต่อไปเพื่อแก้ปัญหาความท้าทายด้านการประกันภัยที่สำคัญในปัจจุบันได้อย่างรวดเร็ว เช่น แมชชีนเลิร์นนิง การทดสอบกลยุทธ์การป้องกันความเสี่ยง การรายงานด้านกฎระเบียบและการเงิน การวางแผนธุรกิจ และการคาดการณ์ทางเศรษฐกิจ และการพัฒนาผลิตภัณฑ์ใหม่ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถนำเสนอการปรับปรุงความเร็วที่น่าทึ่งสำหรับการคำนวณที่มีความแม่นยำเดียวและสองเท่าเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้าสำหรับการคำนวณที่ต้องการมากที่สุด ทำให้ลูกค้าสามารถทำการคำนวณและการคาดการณ์ช่วงใหม่ได้เป็นครั้งแรก ความเร็วมีความสำคัญ และเรายังคงส่งมอบคุณค่าที่มีความหมายและเทคโนโลยีล่าสุดให้กับลูกค้าของเราด้วยอินสแตนซ์ใหม่จาก AWS
Van Beach หัวหน้าแผนกโซลูชันด้านประกันชีวิตระดับสากลของ Aon Pathwise Strategy and Technology Group -
Rad AI
Rad AI ประกอบด้วยผู้เชี่ยวชาญด้านรังสีวิทยาและ AI สร้างผลิตภัณฑ์ที่เพิ่มประสิทธิภาพสูงสุดของนักรังสีวิทยา ทำให้การดูแลสุขภาพสามารถเข้าถึงได้อย่างกว้างขวางและปรับปรุงผลลัพธ์ของผู้ป่วย อ่านกรณีศึกษาเพื่อเรียนรู้เพิ่มเติม
ที่ Rad AI ภารกิจของเราคือการเพิ่มการเข้าถึงและคุณภาพของการดูแลสุขภาพสำหรับทุกคน Rad AI เน้นที่เวิร์กโฟลว์การถ่ายภาพทางการแพทย์ ช่วยให้แพทย์ด้านรังสีวิทยาประหยัดเวลา ลดภาวะหมดไฟ และเพิ่มความแม่นยำ เราใช้ AI เพื่อทำงานรังสีวิทยาโดยอัตโนมัติและช่วยปรับปรุงการรายงานรังสีวิทยา ด้วยอินสแตนซ์ EC2 P4d ใหม่ เราได้เห็นการอนุมานที่เร็วขึ้นและความสามารถในการฝึกโมเดลเร็วกว่า 2.4 เท่า ด้วยความแม่นยำสูงกว่าอินสแตนซ์ P3 รุ่นก่อนหน้า สิ่งนี้ช่วยให้การวินิจฉัยที่รวดเร็วและแม่นยำยิ่งขึ้น และเข้าถึงบริการรังสีวิทยาคุณภาพสูงที่ให้บริการโดยลูกค้าของเราทั่วสหรัฐอเมริกาได้มากขึ้น
Doktor Gurson, ผู้ร่วมก่อตั้ง Rad AI
รายละเอียดผลิตภัณฑ์
ขนาดของอินสแตนซ์ | vCPU | หน่วยความจำของอินสแตนซ์ (GiB) | GPU – A100 | หน่วยความจำ GPU | แบนวิดท์เครือข่าย (Gbps) | GPUDirect RDMA | GPU แบบ Peer to Peer | พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) | แบนด์วิดท์ EBS (Gbps) | ค่าบริการตามความต้องการ/ชม. | การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 1 ปี * | การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 3 ปี * |
---|---|---|---|---|---|---|---|---|---|---|---|---|
p4d.24xlarge | 96 | 1152 | 8 | 320 GB HBM2 |
400 ENA และ EFA | ใช่ | NVSwitch 600 GB/วินาที | 8 x 1000 NVMe SSD | 19 | 32.77 USD | 19.22 USD | 11.57 USD |
p4de.24xlarge (ตัวอย่าง) | 96 | 1152 | 8 | 640 GB HBM2e |
400 ENA และ EFA | ใช่ | NVSwitch 600 GB/วินาที | 8 x 1000 NVMe SSD | 19 | 40.96 USD | 24.01 USD | 14.46 USD |
อินสแตนซ์ P4d สามารถใช้งานได้ในรีเจี้ยนสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือและโอไฮโอ) สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน) เอเชียแปซิฟิก (โซลและโตเกียว) และยุโรป (แฟรงก์เฟิร์ตและไอร์แลนด์) อินสแตนซ์ P4de สามารถใช้งานได้ในรีเจี้ยนสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือ) และสหรัฐอเมริกาฝั่งตะวันตก (ออริกอน)
ลูกค้าสามารถซื้ออินสแตนซ์ P4d และ P4de มาใช้เป็น On-Demand Instance, Reserved Instance, Spot Instance, Dedicated Host หรือใช้เป็นส่วนหนึ่งของ Savings Plan ก็ได้