เหตุใดจึงควรเลือกใช้อินสแตนซ์ Amazon EC2 P4
อินสแตนซ์ P4d ของ Amazon Elastic Compute Cloud (Amazon EC2) มอบประสิทธิภาพสูงสำหรับการฝึกแมชชีนเลิร์นนิง (ML) และแอปพลิเคชันการประมวลผลประสิทธิภาพสูง (HPC) ในระบบคลาวด์ อินสแตนซ์ P4d ขับเคลื่อนโดย GPU NVIDIA A100 Tensor Core และส่งมอบปริมาณงานสูงชั้นนำของอุตสาหกรรมและเครือข่ายล่าช้าต่ำ อินสแตนซ์เหล่านี้รองรับเครือข่ายอินสแตนซ์ 400 Gbps อินสแตนซ์ P4d ช่วยลดต้นทุนในการฝึกโมเดล ML ได้ถึง 60% รวมถึงประสิทธิภาพที่ดีขึ้นโดยเฉลี่ย 2.5 เท่าสำหรับโมเดลดีปเลิร์นนิงเมื่อเปรียบเทียบกับอินสแตนซ์ P3 และ P3dn รุ่นก่อนหน้า
อินสแตนซ์ P4d ถูกปรับใช้ในคลัสเตอร์ไฮเปอร์สเกลที่เรียกว่า Amazon EC2 UltraClusters ซึ่งประกอบด้วยการประมวลผลประสิทธิภาพสูง เครือข่าย และพื้นที่เก็บข้อมูลในระบบคลาวด์ EC2 UltraCluster แต่ละเครื่องถือเป็นซูเปอร์คอมพิวเตอร์ที่มีประสิทธิภาพสูงสุดเครื่องหนึ่งในโลก ช่วยให้คุณสามารถรันการฝึกอบรม ML แบบมัลติโหนดที่ซับซ้อนที่สุดและเวิร์กโหลด HPC แบบกระจายได้ คุณสามารถปรับขนาดได้อย่างง่ายดายตั้งแต่ไม่กี่ตัวไปจนถึงหลายพัน GPU NVIDIA A100 ใน EC2 UltraClusters ตามความต้องการของโครงการ ML หรือ HPC ของคุณ
นักวิจัย นักวิทยาศาสตร์ข้อมูล และนักพัฒนาสามารถใช้อินสแตนซ์ P4d เพื่อฝึกโมเดล ML สำหรับกรณีการใช้งานเช่นการประมวลผลภาษาธรรมชาติ การตรวจจับและการจำแนกวัตถุ และกลไกการแนะนำ นอกจากนี้ยังสามารถใช้เพื่อรันแอปพลิเคชัน HPC เช่น การค้นพบยา การวิเคราะห์แผ่นดินไหว และการสร้างแบบจำลองทางการเงิน ต่างจากระบบภายในสถานที่ คุณสามารถเข้าถึงการประมวลผลและความจุจัดเก็บข้อมูลที่แทบไม่มีขีดจำกัด ปรับขนาดโครงสร้างพื้นฐานของคุณตามความต้องการทางธุรกิจ และสร้างงานฝึกอบรม ML แบบหลายโหนดหรือแอปพลิเคชัน HPC แบบกระจายที่เชื่อมโยงกันอย่างแน่นหนาได้ในเวลาไม่กี่นาที โดยไม่ต้องมีค่าใช้จ่ายในการตั้งค่าหรือบำรุงรักษาใดๆ
ประกาศเปิดตัวอินสแตนซ์ Amazon EC2 P4d ใหม่
ประโยชน์
คุณสมบัติ
คำชมเชยจากลูกค้า
นี่คือตัวอย่างบางส่วนของวิธีที่ลูกค้าและพันธมิตรบรรลุเป้าหมายทางธุรกิจด้วยอินสแตนซ์ Amazon EC2 P4
-
Toyota Research Institute (TRI)
สถาบันวิจัยโตโยต้า (TRI) ก่อตั้งในปี 2015 โดยทำงานเพื่อพัฒนาระบบขับขี่อัตโนมัติ หุ่นยนต์ และเทคโนโลยีขยายเสียงของมนุษย์อื่นๆ สำหรับโตโยต้า
ที่ TRI เรากำลังทำงานเพื่อสร้างอนาคตที่ทุกคนมีอิสระในการเดินทาง อินสแตนซ์ P3 รุ่นก่อนหน้าช่วยให้เราลดเวลาในการฝึกโมเดล ML จากหลายวันเหลือเพียงไม่กี่ชั่วโมง และเรามุ่งหวังที่จะใช้อินสแตนซ์ P4d เนื่องจากหน่วยความจำ GPU เพิ่มเติมและรูปแบบลอยตัวที่มีประสิทธิภาพยิ่งขึ้นจะช่วยให้ทีมแมชชีนเลิร์นนิงของเราสามารถฝึกด้วยโมเดลที่ซับซ้อนมากขึ้นด้วยความเร็วที่เร็วยิ่งขึ้น
Mike Garrison หัวหน้าฝ่ายเทคนิค วิศวกรรมโครงสร้างพื้นฐาน TRI -
TRI-AD
ที่ TRI-AD เรากำลังทำงานเพื่อสร้างอนาคตที่ทุกคนมีอิสระในการสัญจรและสำรวจ โดยเน้นที่การลดการบาดเจ็บและเสียชีวิตจากยานพาหนะโดยใช้การขับขี่แบบปรับตัวและเมืองอัจฉริยะ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดเวลาการฝึกอบรมสำหรับการจดจำวัตถุลงได้ 40% เมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้าโดยไม่ต้องปรับเปลี่ยนโค้ดที่มีอยู่แต่อย่างใด
Junya Inada ผู้อำนวยการฝ่ายการขับขี่อัตโนมัติ (การรับรู้) TRI-AD -
TRI-AD
ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดต้นทุนในการฝึกอบรมได้ทันทีเมื่อเปรียบเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้า ทำให้เราเพิ่มจำนวนทีมงานที่ดำเนินการฝึกโมเดลได้ การปรับปรุงการทำงานเครือข่ายใน P4d ทำให้เราปรับขนาดให้เหมาะสมกับอินสแตนซ์ต่างๆ ได้อย่างมีประสิทธิภาพถึงหลายสิบอินสแตนซ์ ซึ่งทำให้เรามีความคล่องตัวอย่างมากในการเพิ่มประสิทธิภาพ ฝึกอบรมใหม่ และปรับใช้โมเดลต่างๆ ในรถทดสอบหรือสภาพแวดล้อมจำลองสำหรับการทดสอบเพิ่มเติมได้อย่างรวดเร็ว
Jack Yan ผู้อำนวยการอาวุโสฝ่ายวิศวกรรมโครงสร้างพื้นฐาน TRI-AD -
GE Healthcare
GE Healthcare เป็นผู้นำด้านเทคโนโลยีทางการแพทย์และผู้คิดค้นโซลูชันดิจิทัลระดับโลก GE Healthcare ช่วยให้แพทย์สามารถตัดสินใจได้อย่างรวดเร็วและมีข้อมูลมากขึ้นผ่านอุปกรณ์อัจฉริยะ การวิเคราะห์ข้อมูล แอปพลิเคชัน และบริการ ซึ่งได้รับการสนับสนุนจากแพลตฟอร์มอัจฉริยะ Edison Intelligence
ที่ GE Healthcare เรามอบเครื่องมือต่างๆ ให้กับแพทย์เพื่อช่วยรวบรวมข้อมูล นำ AI และการวิเคราะห์ไปใช้กับข้อมูลเหล่านั้น และค้นพบข้อมูลเชิงลึกที่จะช่วยปรับปรุงผลลัพธ์สำหรับผู้ป่วย ขับเคลื่อนประสิทธิภาพ และขจัดข้อผิดพลาด อุปกรณ์ถ่ายภาพทางการแพทย์ของเราสร้างข้อมูลจำนวนมากที่นักวิทยาศาสตร์ข้อมูลของเราต้องประมวลผล หากใช้คลัสเตอร์ GPU ก่อนหน้านี้ จะต้องใช้เวลาหลายวันในการฝึกโมเดล AI ที่ซับซ้อน เช่น Progressive GAN สำหรับการจำลองและดูผลลัพธ์ การใช้อินสแตนซ์ P4d ใหม่ช่วยลดเวลาในการประมวลผลจากวันเป็นชั่วโมง เราพบว่าความเร็วเพิ่มขึ้นสองถึงสามเท่าในการฝึกโมเดลด้วยขนาดภาพต่างๆ ในขณะที่บรรลุประสิทธิภาพที่ดียิ่งขึ้นด้วยขนาดชุดที่เพิ่มขึ้นและผลผลิตที่สูงขึ้นด้วยรอบการพัฒนาโมเดลที่เร็วขึ้น
Karley Yoder รองประธานและผู้จัดการทั่วไป ฝ่ายปัญญาประดิษฐ์ GM Healthcare -
HEAVY.AI
HEAVY.AI เป็นผู้บุกเบิกในการวิเคราะห์แบบเร่งด่วน แพลตฟอร์ม HEAVY.AI ใช้ในธุรกิจและรัฐบาลเพื่อค้นหาข้อมูลเชิงลึกที่เกินขีดจำกัดของเครื่องมือวิเคราะห์หลัก
ที่ HEAVY.AI เรากำลังทำงานเพื่อสร้างอนาคตที่วิทยาศาสตร์ข้อมูลและการวิเคราะห์มาบรรจบกันเพื่อทำลายและรวมไซโลข้อมูลเข้าด้วยกัน ลูกค้าใช้ประโยชน์จากข้อมูลจำนวนมากซึ่งอาจรวมถึงตำแหน่งและเวลาเพื่อสร้างภาพเต็มไม่เพียง แต่สิ่งที่เกิดขึ้น แต่เมื่อใดและที่ไหนผ่านการสร้างภาพเชิงละเอียดของข้อมูลชั่วคราวเชิงพื้นที่ เทคโนโลยีของเราทำให้สามารถมองเห็นทั้งป่าและต้นไม้ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดต้นทุนในการปรับใช้แพลตฟอร์มของเราได้อย่างมีนัยสำคัญเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้า ทำให้เราสามารถปรับขนาดชุดข้อมูลขนาดใหญ่ได้อย่างคุ้มค่า การปรับปรุงเครือข่ายใน A100 ได้เพิ่มประสิทธิภาพของเราในการปรับขนาดข้อมูลหลายพันล้านแถว และช่วยให้ลูกค้าของเราสามารถรวบรวมข้อมูลเชิงลึกได้เร็วขึ้น
Ray Falcione, รองประธานฝ่ายภาครัฐของสหรัฐอเมริกา HEAVY.AI -
Zenotech Ltd.
Zenotech Ltd. กำลังกำหนดวิศวกรรมออนไลน์ใหม่ผ่านการใช้ HPC Clouds ที่ส่งมอบโมเดลใบอนุญาตตามความต้องการพร้อมประโยชน์ด้านประสิทธิภาพสูงสุดโดยการใช้ประโยชน์จากGPU
ที่ Zenotech เรากำลังพัฒนาเครื่องมือเพื่อให้นักออกแบบสามารถสร้างผลิตภัณฑ์ที่มีประสิทธิภาพและเป็นมิตรต่อสิ่งแวดล้อมมากขึ้น เราทำงานในทุกอุตสาหกรรม และเครื่องมือของเราให้ข้อมูลเชิงลึกเกี่ยวกับประสิทธิภาพของผลิตภัณฑ์ที่ดียิ่งขึ้นผ่านการใช้การจำลองขนาดใหญ่ การใช้อินสแตนซ์ AWS P4d ช่วยให้เราสามารถเรียกใช้การจำลองของเราได้เร็วขึ้น 3.5 เท่าเมื่อเทียบกับ GPU รุ่นก่อนหน้า การเพิ่มความเร็วนี้ช่วยลดเวลาของเราในการแก้ปัญหาอย่างมีนัยสำคัญ ทำให้ลูกค้าของเราสามารถนำการออกแบบมาสู่ตลาดได้เร็วขึ้นหรือทำการจำลองความเที่ยงตรงสูงกว่าที่เคยเป็นไปได้
Jamil Appa ผู้อำนวยการและผู้ร่วมก่อตั้ง Zenotech -
Aon
Aon เป็นบริษัทให้บริการระดับมืออาชีพชั้นนำระดับโลกที่ให้บริการโซลูชันด้านความเสี่ยง การเกษียณอายุและสุขภาพที่หลากหลาย Aon PathWise เป็นโซลูชันการจัดการความเสี่ยง HPC ที่ใช้ GPU และปรับขนาดได้ซึ่งผู้ประกันภัยและผู้ประกันภัย ธนาคาร และกองทุนบำเหน็จบำนาญสามารถใช้เพื่อจัดการกับความท้าทายที่สำคัญในปัจจุบัน เช่น การทดสอบกลยุทธ์การป้องกันความเสี่ยง การคาดการณ์ทางกฎระเบียบและเศรษฐกิจ และการจัดทำงบประมาณ
ที่ PathWise Solutions Group LLC ผลิตภัณฑ์ของเราช่วยให้บริษัทประกันภัย ผู้ประกันภัย และกองทุนบำเหน็จบำนาญสามารถเข้าถึงเทคโนโลยีรุ่นต่อไปเพื่อแก้ปัญหาความท้าทายด้านการประกันภัยที่สำคัญในปัจจุบันได้อย่างรวดเร็ว เช่น แมชชีนเลิร์นนิง การทดสอบกลยุทธ์การป้องกันความเสี่ยง การรายงานด้านกฎระเบียบและการเงิน การวางแผนธุรกิจ และการคาดการณ์ทางเศรษฐกิจ และการพัฒนาผลิตภัณฑ์ใหม่ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถนำเสนอการปรับปรุงความเร็วที่น่าทึ่งสำหรับการคำนวณที่มีความแม่นยำเดียวและสองเท่าเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้าสำหรับการคำนวณที่ต้องการมากที่สุด ทำให้ลูกค้าสามารถทำการคำนวณและการคาดการณ์ช่วงใหม่ได้เป็นครั้งแรก ความเร็วมีความสำคัญ และเรายังคงส่งมอบคุณค่าที่มีความหมายและเทคโนโลยีล่าสุดให้กับลูกค้าของเราด้วยอินสแตนซ์ใหม่จาก AWS
Van Beach หัวหน้าแผนกโซลูชันด้านประกันชีวิตระดับสากลของ Aon Pathwise Strategy and Technology Group -
Rad AI
Rad AI ประกอบด้วยผู้เชี่ยวชาญด้านรังสีวิทยาและ AI สร้างผลิตภัณฑ์ที่เพิ่มประสิทธิภาพสูงสุดของนักรังสีวิทยา ทำให้การดูแลสุขภาพสามารถเข้าถึงได้อย่างกว้างขวางและปรับปรุงผลลัพธ์ของผู้ป่วย อ่านกรณีศึกษาเพื่อเรียนรู้เพิ่มเติม
ที่ Rad AI ภารกิจของเราคือการเพิ่มการเข้าถึงและคุณภาพของการดูแลสุขภาพสำหรับทุกคน Rad AI เน้นที่เวิร์กโฟลว์การถ่ายภาพทางการแพทย์ ช่วยให้แพทย์ด้านรังสีวิทยาประหยัดเวลา ลดภาวะหมดไฟ และเพิ่มความแม่นยำ เราใช้ AI เพื่อทำงานรังสีวิทยาโดยอัตโนมัติและช่วยปรับปรุงการรายงานรังสีวิทยา ด้วยอินสแตนซ์ EC2 P4d ใหม่ เราได้เห็นการอนุมานที่เร็วขึ้นและความสามารถในการฝึกโมเดลเร็วกว่า 2.4 เท่า ด้วยความแม่นยำสูงกว่าอินสแตนซ์ P3 รุ่นก่อนหน้า สิ่งนี้ช่วยให้การวินิจฉัยที่รวดเร็วและแม่นยำยิ่งขึ้น และเข้าถึงบริการรังสีวิทยาคุณภาพสูงที่ให้บริการโดยลูกค้าของเราทั่วสหรัฐอเมริกาได้มากขึ้น
Doktor Gurson, ผู้ร่วมก่อตั้ง Rad AI
รายละเอียดผลิตภัณฑ์
ขนาดของอินสแตนซ์ | vCPU | หน่วยความจำของอินสแตนซ์ (GiB) | GPU – A100 | หน่วยความจำ GPU | แบนวิดท์เครือข่าย (Gbps) | GPUDirect RDMA | GPU แบบ Peer to Peer | พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) | แบนด์วิดท์ EBS (Gbps) | ค่าบริการตามความต้องการ/ชม. | การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 1 ปี * | การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 3 ปี * |
---|---|---|---|---|---|---|---|---|---|---|---|---|
p4d.24xlarge | 96 | 1152 | 8 | 320 GB HBM2 |
400 ENA และ EFA | ใช่ | NVSwitch 600 GB/วินาที | 8 x 1000 NVMe SSD | 19 | 32.77 USD | 19.22 USD | 11.57 USD |
p4de.24xlarge (ตัวอย่าง) | 96 | 1152 | 8 | 640 GB HBM2e |
400 ENA และ EFA | ใช่ | NVSwitch 600 GB/วินาที | 8 x 1000 NVMe SSD | 19 | 40.96 USD | 24.01 USD | 14.46 USD |
อินสแตนซ์ P4d สามารถใช้งานได้ในรีเจี้ยนสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือและโอไฮโอ) สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน) เอเชียแปซิฟิก (โซลและโตเกียว) และยุโรป (แฟรงก์เฟิร์ตและไอร์แลนด์) อินสแตนซ์ P4de สามารถใช้งานได้ในรีเจี้ยนสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือ) และสหรัฐอเมริกาฝั่งตะวันตก (ออริกอน)
ลูกค้าสามารถซื้ออินสแตนซ์ P4d และ P4de มาใช้เป็น On-Demand Instance, Reserved Instance, Spot Instance, Dedicated Host หรือใช้เป็นส่วนหนึ่งของ Savings Plan ก็ได้
การเริ่มต้นใช้งานอินสแตนซ์ P4d สําหรับ ML
การเริ่มต้นใช้งานอินสแตนซ์ P4d สําหรับ HPC
อินสแตนซ์ P4d เหมาะอย่างยิ่งสำหรับการรันการจำลองทางวิศวกรรม การเงินเชิงคำนวณ การวิเคราะห์แผ่นดินไหว การสร้างแบบจำลองโมเลกุล จีโนมิกส์ การเรนเดอร์ และเวิร์กโหลด HPC ที่ใช้ GPU อื่นๆ การใช้งาน HPC มักต้องการเครือข่ายที่มีประสิทธิภาพสูง การจัดเก็บที่รวดเร็ว หน่วยความจำปริมาณมาก ความสามารถในการประมวลผลสูง หรือทั้งหมดที่กล่าวมา อินสแตนซ์ P4d รองรับ EFA ที่ทำให้แอปพลิเคชัน HPC ที่ใช้ Message Passing Interface (MPI) สามารถปรับขนาดให้รองรับ GPU หลายพันตัวได้ AWS Batch และ AWS ParallelCluster ช่วยให้นักพัฒนา HPC สร้างและปรับขนาดแอปพลิเคชัน HPC แบบกระจายได้อย่างรวดเร็ว