ข้ามไปที่เนื้อหาหลัก

Amazon EC2

อินสแตนซ์ P4 ของ Amazon EC2

ประสิทธิภาพสูงสำหรับการฝึกอบรม ML และแอปพลิเคชัน HPC บนคลาวด์

เหตุใดจึงควรเลือกใช้อินสแตนซ์ Amazon EC2 P4

อินสแตนซ์ P4d ของ Amazon Elastic Compute Cloud (Amazon EC2) มอบประสิทธิภาพสูงสำหรับการฝึกแมชชีนเลิร์นนิง (ML) และแอปพลิเคชันการประมวลผลประสิทธิภาพสูง (HPC) ในระบบคลาวด์ อินสแตนซ์ P4d ขับเคลื่อนโดย GPU NVIDIA A100 Tensor Core และส่งมอบปริมาณงานสูงชั้นนำของอุตสาหกรรมและเครือข่ายล่าช้าต่ำ อินสแตนซ์เหล่านี้รองรับเครือข่ายอินสแตนซ์ 400 Gbps อินสแตนซ์ P4d ช่วยลดต้นทุนในการฝึกโมเดล ML ได้ถึง 60% รวมถึงประสิทธิภาพที่ดีขึ้นโดยเฉลี่ย 2.5 เท่าสำหรับโมเดลดีปเลิร์นนิงเมื่อเปรียบเทียบกับอินสแตนซ์ P3 และ P3dn รุ่นก่อนหน้า

อินสแตนซ์ P4d ถูกนำไปใช้ในคลัสเตอร์ที่เรียกว่า Amazon EC2 UltraClusters ซึ่งประกอบด้วยการประมวลผล เครือข่าย และการจัดเก็บข้อมูลในระบบคลาวด์ประสิทธิภาพสูง EC2 UltraCluster แต่ละเครื่องถือเป็นซูเปอร์คอมพิวเตอร์ที่มีประสิทธิภาพสูงสุดเครื่องหนึ่งในโลก ช่วยให้คุณสามารถรันการฝึกอบรม ML แบบมัลติโหนดที่ซับซ้อนที่สุดและเวิร์กโหลด HPC แบบกระจายได้ คุณสามารถปรับขนาดได้อย่างง่ายดายตั้งแต่ไม่กี่ตัวไปจนถึงหลายพัน GPU NVIDIA A100 ใน EC2 UltraClusters ตามความต้องการของโครงการ ML หรือ HPC ของคุณ

นักวิจัย นักวิทยาศาสตร์ข้อมูล และนักพัฒนาสามารถใช้อินสแตนซ์ P4d เพื่อฝึกโมเดล ML สำหรับกรณีการใช้งานเช่นการประมวลผลภาษาธรรมชาติ การตรวจจับและการจำแนกวัตถุ และกลไกการแนะนำ นอกจากนี้ยังสามารถใช้เพื่อรันแอปพลิเคชัน HPC เช่น การค้นพบยา การวิเคราะห์แผ่นดินไหว และการสร้างแบบจำลองทางการเงิน ต่างจากระบบภายในสถานที่ คุณสามารถเข้าถึงการประมวลผลและความจุจัดเก็บข้อมูลที่แทบไม่มีขีดจำกัด ปรับขนาดโครงสร้างพื้นฐานของคุณตามความต้องการทางธุรกิจ และสร้างงานฝึกอบรม ML แบบหลายโหนดหรือแอปพลิเคชัน HPC แบบกระจายที่เชื่อมโยงกันอย่างแน่นหนาได้ในเวลาไม่กี่นาที โดยไม่ต้องมีค่าใช้จ่ายในการตั้งค่าหรือบำรุงรักษาใดๆ

ประกาศเปิดตัวอินสแตนซ์ Amazon EC2 P4d ใหม่

ประโยชน์

    ด้วย GPU NVIDIA A100 Tensor Core รุ่นล่าสุด อินสแตนซ์ P4d แต่ละอินสแตนซ์ ให้ประสิทธิภาพ DL ที่ดีขึ้นโดยเฉลี่ย 2.5 เท่าเมื่อเทียบกับอินสแตนซ์ P3 รุ่นก่อนหน้า EC2 UltraClusters ของอินสแตนซ์ P4d ช่วยให้นักพัฒนา นักวิทยาศาสตร์ข้อมูล และนักวิจัยทั่วไปสามารถรันเวิร์กโหลด ML และ HPC ที่ซับซ้อนที่สุดได้ โดยให้สิทธิ์เข้าถึงประสิทธิภาพระดับซูเปอร์คอมพิวเตอร์โดยไม่ต้องมีค่าใช้จ่ายล่วงหน้าหรือภาระผูกพันในระยะยาว เวลาในการฝึกอบรมที่ลดลงด้วยอินสแตนซ์ P4d ช่วยเพิ่มประสิทธิภาพการทำงาน ช่วยให้นักพัฒนามุ่งเน้นไปที่ภารกิจหลักในการสร้างอัจฉริยะ ML ลงในแอปพลิเคชันทางธุรกิจ

    นักพัฒนาสามารถปรับขนาดได้ถึง GPU มากถึงหลายพันรายการได้อย่างราบรื่นด้วยอินสแตนซ์ EC2 UltraClusters ของ P4d เครือข่ายความเร็วสูงและหน่วงแฝงต่ำพร้อมรองรับเครือข่ายอินสแตนซ์ 400 Gbps, Elastic Fabric Adapter (EFA) และเทคโนโลยี GPUDirect RDMA ช่วยฝึกโมเดล ML อย่างรวดเร็วโดยใช้เทคนิคการสเกลเอาต์/กระจาย EFA ใช้ NVIDIA Collective Communications Library (NCCL) เพื่อปรับขนาดเป็น GPU หลายพันตัว และเทคโนโลยี GPUDirect RDMA ช่วยให้การสื่อสาร GPU-to-GPU ความหน่วงต่ำระหว่างอินสแตนซ์ P4d

    อินสแตนซ์ P4d ให้ต้นทุนในการฝึกโมเดล ML ลดลงถึง 60% เมื่อเทียบกับอินสแตนซ์ P3 นอกจากนี้ อินสแตนซ์ P4d ยังสามารถซื้อเป็น Spot Instance ได้ Spot Instance ใช้ประโยชน์จากความจุอินสแตนซ์ EC2 ที่ไม่ได้ใช้งาน และสามารถลดต้นทุน EC2 ของคุณได้อย่างมาก โดยมีส่วนลดมากถึง 90% จากราคาแบบตามความต้องการ ด้วยต้นทุนที่ลดลงของการฝึกอบรม ML ด้วยอินสแตนซ์ P4d จึงสามารถจัดสรรงบประมาณเพื่อสร้างระบบอัจฉริยะ ML ให้มากขึ้นในแอปพลิเคชันทางธุรกิจ

    AWS Deep Learning AMI (DLAMI) และ Amazon Deep Learning Containers ช่วยให้ปรับใช้สภาพแวดล้อม P4d DL ได้ง่ายขึ้นในไม่กี่นาทีเนื่องจากมีไลบรารีและเครื่องมือเฟรมเวิร์ก DL ที่จำเป็น คุณยังสามารถเพิ่มไลบรารีและเครื่องมือของคุณเองลงในภาพเหล่านี้ได้ง่ายขึ้น อินสแตนซ์ P4d รองรับเฟรมเวิร์ก ML ยอดนิยม เช่น TensorFlow, PyTorch และ MXnet นอกจากนี้ อินสแตนซ์ P4d ยังได้รับการสนับสนุนโดยบริการ AWS หลักสำหรับ ML การจัดการ และการจัดระเบียบ เช่น Amazon SageMaker, Amazon Elastic Kubernetes Service (Amazon EKS), Amazon Elastic Container Service (Amazon ECS), AWS Batch และ AWS ParallelCluster

คุณสมบัติ

    NVIDIA A100 Tensor Core GPU ให้การเร่งความเร็วที่ไม่เคยมีมาก่อนในระดับสำหรับ ML และ HPC Tensor Cores รุ่นที่สามของ NVIDIA A100 ช่วยเร่งเวิร์กโหลดที่แม่นยำทุกครั้ง เร่งเวลาในการสร้างข้อมูลเชิงลึกและเวลาในการวางตลาด GPU A100 แต่ละตัวมีประสิทธิภาพในการคำนวณมากกว่า 2.5 เท่าเมื่อเทียบกับ GPU V100 รุ่นก่อนหน้าและมาพร้อมกับหน่วยความจำ GPU ที่มีประสิทธิภาพสูง 40 GB HBM2 (ในอินสแตนซ์ P4d) หรือ 80 GB HBM2e (ในอินสแตนซ์ P4de) หน่วยความจำ GPU ที่สูงขึ้นเป็นประโยชน์โดยเฉพาะอย่างยิ่งสำหรับการฝึกอบรมเวิร์กโหลดบนชุดข้อมูลขนาดใหญ่ของข้อมูลความละเอียดสูง GPU NVIDIA A100 ใช้ปริมาณการเชื่อมต่อระหว่างกัน NVSwitch GPU เพื่อให้ GPU แต่ละตัวสามารถสื่อสารกับ GPU อื่นๆ ในอินสแตนซ์เดียวกันที่ปริมาณงานสองทิศทางเดียวกัน 600 Gb/s และด้วยความล่าช้าแบบฮอปแบบเดียว

    อินสแตนซ์ P4d ให้บริการเครือข่าย 400 Gbps เพื่อช่วยให้ลูกค้าปรับขนาดเวิร์กโหลดแบบกระจายได้ดีขึ้น เช่น การฝึกอบรมมัลติโนดอย่างมีประสิทธิภาพมากขึ้นด้วยเครือข่ายปริมาณสูงระหว่างอินสแตนซ์ P4d รวมถึงระหว่างอินสแตนซ์ P4d และบริการจัดเก็บข้อมูล เช่น Amazon Simple Storage Service (Amazon S3) และ FSx for Lustre EFA เป็นอินเทอร์เฟซเครือข่ายที่กำหนดเองที่ออกแบบโดย AWS เพื่อช่วยปรับขนาดแอปพลิเคชัน ML และ HPC ไปยัง GPU หลายพันตัว เพื่อลดเวลาแฝงเพิ่มเติม EFA ยังทำงานร่วมกับ NVIDIA GPUDirect RDMA เพื่อเปิดใช้งานการสื่อสารระหว่าง GPU กับ GPU ที่มีค่าหน่วงเวลาต่ำระหว่างเซิร์ฟเวอร์โดยมีการบายพาสระบบปฏิบัติการ

    เข้าถึงพื้นที่จัดเก็บข้อมูลสูงขนาดเพตาไบต์และหน่วงเวลาต่ำด้วย FSx for Lustre หรือพื้นที่จัดเก็บข้อมูลที่คุ้มค่าแทบไม่ จำกัด ด้วย Amazon S3 ที่ความเร็ว 400 Gbps สำหรับเวิร์กโหลดที่ต้องการเข้าถึงชุดข้อมูลขนาดใหญ่ได้อย่างรวดเร็ว อินสแตนซ์ P4d แต่ละอินสแตนซ์ยังรวมถึงพื้นที่จัดเก็บ SSD ที่ใช้ NVME ขนาด 8 TB พร้อมปริมาณการอ่าน 16 GB/s

    อินสแตนซ์ P4d สร้างขึ้นบน AWS Nitro System ซึ่งเป็นคอลเลกชันบล็อกการสร้างที่ครบถ้วนซึ่งถ่ายโอนฟังก์ชันการจำลองระบบเสมือนแบบดั้งเดิมจำนวนมากไปยังฮาร์ดแวร์และซอฟต์แวร์เฉพาะเพื่อมอบประสิทธิภาพสูง ความพร้อมใช้งานสูง และความปลอดภัยสูง ในขณะที่ลดค่าโสหุ้ยในการจำลองระบบเสมือน

คำชมเชยจากลูกค้า

นี่คือตัวอย่างบางส่วนของวิธีที่ลูกค้าและพันธมิตรบรรลุเป้าหมายทางธุรกิจด้วยอินสแตนซ์ Amazon EC2 P4

Toyota Research Institute (TRI)

 

สถาบันวิจัยโตโยต้า (TRI) ก่อตั้งในปี 2015 โดยทำงานเพื่อพัฒนาระบบขับขี่อัตโนมัติ หุ่นยนต์ และเทคโนโลยีขยายเสียงของมนุษย์อื่นๆ สำหรับโตโยต้า 
 
“ที่ TRI เรากำลังทำงานเพื่อสร้างอนาคตที่ทุกคนมีอิสระในการเคลื่อนไหว อินสแตนซ์ P3 รุ่นก่อนหน้าช่วยให้เราลดเวลาในการฝึกโมเดล ML จากหลายวันเป็นชั่วโมง และเรารอคอยที่จะใช้อินสแตนซ์ P4d เนื่องจากหน่วยความจำ GPU เพิ่มเติมและรูปแบบfloat ที่มีประสิทธิภาพมากขึ้นจะช่วยให้ทีมแมชชีนเลิร์นนิงของเราสามารถฝึกด้วยโมเดลที่ซับซ้อนมากขึ้นด้วยความเร็วที่เร็วขึ้น“
Mike Garrison หัวหน้าฝ่ายเทคนิค วิศวกรรมโครงสร้างพื้นฐาน TRI
Missing alt text value

สามโฆษณา

 

“ที่ TRI-AD เรากำลังทำงานเพื่อสร้างอนาคตที่ทุกคนมีอิสระในการเคลื่อนย้ายและสำรวจโดยมุ่งเน้นไปที่การลดการบาดเจ็บและเสียชีวิตจากยานพาหนะโดยใช้การขับขี่แบบปรับตัวและเมืองอัจฉริยะ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดเวลาการฝึกอบรมสำหรับการจดจำวัตถุได้ 40% เมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้าโดยไม่ต้องปรับเปลี่ยนรหัสที่มีอยู่ใด ๆ“
 
Junya Inada ผู้อำนวยการฝ่ายการขับขี่อัตโนมัติ (การรับรู้) TRI-AD
Missing alt text value

สามโฆษณา

 

“ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดต้นทุนในการฝึกอบรมได้ทันทีเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้า ทำให้เราสามารถเพิ่มจำนวนทีมที่ทำงานในการฝึกอบรมแบบจำลอง การปรับปรุงเครือข่ายใน P4d ช่วยให้เราสามารถปรับขนาดได้อย่างมีประสิทธิภาพไปยังหลายสิบหน้าจอ ซึ่งทำให้เรามีความคล่องตัวอย่างมีนัยสำคัญในการเพิ่มประสิทธิภาพ ฝึกอบรม และปรับใช้โมเดลในรถทดสอบหรือสภาพแวดล้อมการจำลองเพื่อทดสอบต่อไป“
 
Jack Yan ผู้อำนวยการอาวุโสฝ่ายวิศวกรรมโครงสร้างพื้นฐาน TRI-AD
Missing alt text value

GE Healthcare

 

GE Healthcare เป็นผู้นำด้านเทคโนโลยีทางการแพทย์และผู้คิดค้นโซลูชันดิจิทัลระดับโลก GE Healthcare ช่วยให้แพทย์สามารถตัดสินใจได้อย่างรวดเร็วและมีข้อมูลมากขึ้นผ่านอุปกรณ์อัจฉริยะ การวิเคราะห์ข้อมูล แอปพลิเคชัน และบริการ ซึ่งได้รับการสนับสนุนจากแพลตฟอร์มอัจฉริยะ Edison Intelligence 
 
“ที่ GE Healthcare เราจัดหาเครื่องมือแก่แพทย์ที่ช่วยรวบรวมข้อมูล ใช้ AI และการวิเคราะห์กับข้อมูลนั้น และค้นพบข้อมูลเชิงลึกที่ปรับปรุงผลลัพธ์ของผู้ป่วย ขับเคลื่อนประสิทธิภาพ และกำจัดข้อผิดพลาด อุปกรณ์ถ่ายภาพทางการแพทย์ของเราสร้างข้อมูลจำนวนมากที่นักวิทยาศาสตร์ข้อมูลของเราต้องประมวลผล หากใช้คลัสเตอร์ GPU ก่อนหน้านี้ จะต้องใช้เวลาหลายวันในการฝึกโมเดล AI ที่ซับซ้อน เช่น Progressive GAN สำหรับการจำลองและดูผลลัพธ์ การใช้อินสแตนซ์ P4d ใหม่ช่วยลดเวลาในการประมวลผลจากวันเป็นชั่วโมง เราเห็นความเร็วสูงขึ้นสองถึงสามเท่าในโมเดลการฝึกอบรมที่มีขนาดภาพต่างๆ ในขณะที่บรรลุประสิทธิภาพที่ดีขึ้นด้วยขนาดแบทช์ที่เพิ่มขึ้นและผลผลิตที่สูงขึ้นด้วยวงจรการพัฒนาแบบจำลองที่เร็วขึ้น“
 
Karley Yoder รองประธานและผู้จัดการทั่วไป ฝ่ายปัญญาประดิษฐ์ GM Healthcare
Missing alt text value

HEAVY.AI

 

HEAVY.AI เป็นผู้บุกเบิกในการวิเคราะห์แบบเร่งด่วน แพลตฟอร์ม HEAVY.AI ใช้ในธุรกิจและรัฐบาลเพื่อค้นหาข้อมูลเชิงลึกที่เกินขีดจำกัดของเครื่องมือวิเคราะห์หลัก
 
“ที่ HEAVY.AI เรากำลังทำงานเพื่อสร้างอนาคตที่วิทยาศาสตร์ข้อมูลและการวิเคราะห์มาบรรจบกันเพื่อทำลายและรวมไซโลข้อมูล ลูกค้าใช้ประโยชน์จากข้อมูลจำนวนมากซึ่งอาจรวมถึงตำแหน่งและเวลาเพื่อสร้างภาพเต็มไม่เพียง แต่สิ่งที่เกิดขึ้น แต่เมื่อใดและที่ไหนผ่านการสร้างภาพเชิงละเอียดของข้อมูลชั่วคราวเชิงพื้นที่ เทคโนโลยีของเราทำให้สามารถมองเห็นทั้งป่าและต้นไม้ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถลดต้นทุนในการปรับใช้แพลตฟอร์มของเราได้อย่างมีนัยสำคัญเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้า ทำให้เราสามารถปรับขนาดชุดข้อมูลขนาดใหญ่ได้อย่างคุ้มค่า การปรับปรุงเครือข่ายใน A100 ได้เพิ่มประสิทธิภาพของเราในการปรับขนาดข้อมูลหลายพันล้านแถว และช่วยให้ลูกค้าของเราสามารถรวบรวมข้อมูลเชิงลึกได้เร็วขึ้น“
 
Ray Falcione, รองประธานฝ่ายภาครัฐของสหรัฐอเมริกา HEAVY.AI
Missing alt text value

บริษัท ซีโนเทค จำกัด

 

Zenotech Ltd. กำลังกำหนดวิศวกรรมออนไลน์ใหม่ผ่านการใช้ HPC Clouds ที่ส่งมอบโมเดลใบอนุญาตตามความต้องการพร้อมประโยชน์ด้านประสิทธิภาพสูงสุดโดยการใช้ประโยชน์จากGPU 
 
“ที่ Zenotech เรากำลังพัฒนาเครื่องมือเพื่อให้นักออกแบบสามารถสร้างผลิตภัณฑ์ที่มีประสิทธิภาพและเป็นมิตรกับสิ่งแวดล้อมมากขึ้น เราทำงานในทุกอุตสาหกรรม และเครื่องมือของเราให้ข้อมูลเชิงลึกเกี่ยวกับประสิทธิภาพของผลิตภัณฑ์ที่ดียิ่งขึ้นผ่านการใช้การจำลองขนาดใหญ่ การใช้อินสแตนซ์ AWS P4d ช่วยให้เราสามารถเรียกใช้การจำลองของเราได้เร็วขึ้น 3.5 เท่าเมื่อเทียบกับ GPU รุ่นก่อนหน้า การเพิ่มความเร็วนี้ช่วยลดเวลาของเราในการแก้ปัญหาอย่างมีนัยสำคัญ ทำให้ลูกค้าของเราสามารถนำการออกแบบมาสู่ตลาดได้เร็วขึ้นหรือทำการจำลองความเที่ยงตรงสูงกว่าที่เคยเป็นไปได้“
 
Jamil Appa ผู้อำนวยการและผู้ร่วมก่อตั้ง Zenotech
Missing alt text value

ออน

 

Aon เป็นบริษัทให้บริการระดับมืออาชีพชั้นนำระดับโลกที่ให้บริการโซลูชันด้านความเสี่ยง การเกษียณอายุและสุขภาพที่หลากหลาย Aon PathWise เป็นโซลูชันการจัดการความเสี่ยง HPC ที่ใช้ GPU และปรับขนาดได้ซึ่งผู้ประกันภัยและผู้ประกันภัย ธนาคาร และกองทุนบำเหน็จบำนาญสามารถใช้เพื่อจัดการกับความท้าทายที่สำคัญในปัจจุบัน เช่น การทดสอบกลยุทธ์การป้องกันความเสี่ยง การคาดการณ์ทางกฎระเบียบและเศรษฐกิจ และการจัดทำงบประมาณ 
 
“ที่ PathWise Solutions Group LLC ผลิตภัณฑ์ของเราช่วยให้บริษัทประกันภัย ผู้ประกันภัย และกองทุนบำเหน็จบำนาญสามารถเข้าถึงเทคโนโลยีรุ่นต่อไปเพื่อแก้ปัญหาความท้าทายด้านการประกันภัยที่สำคัญในปัจจุบันอย่างรวดเร็ว เช่น แมชชีนเลิร์นนิ่ง การทดสอบกลยุทธ์การป้องกันความเสี่ยง การรายงานด้านกฎระเบียบและการเงิน การวางแผนธุรกิจ และการคาดการณ์ทางเศรษฐกิจ และการพัฒนาผลิตภัณฑ์ใหม่ ด้วยการใช้อินสแตนซ์ Amazon EC2 P4d เราสามารถนำเสนอการปรับปรุงความเร็วที่น่าทึ่งสำหรับการคำนวณที่มีความแม่นยำเดียวและสองเท่าเมื่อเทียบกับอินสแตนซ์ GPU รุ่นก่อนหน้าสำหรับการคำนวณที่ต้องการมากที่สุด ทำให้ลูกค้าสามารถทำการคำนวณและการคาดการณ์ช่วงใหม่ได้เป็นครั้งแรก ความเร็วมีความสำคัญ และเรายังคงส่งมอบคุณค่าที่มีความหมายและเทคโนโลยีล่าสุดให้กับลูกค้าของเราด้วยอินสแตนซ์ใหม่จาก AWS“
 
Van Beach หัวหน้าแผนกโซลูชันด้านประกันชีวิตระดับสากลของ Aon Pathwise Strategy and Technology Group
Missing alt text value

Rad AI

 

Rad AI ประกอบด้วยผู้เชี่ยวชาญด้านรังสีวิทยาและ AI สร้างผลิตภัณฑ์ที่เพิ่มประสิทธิภาพสูงสุดของนักรังสีวิทยา ทำให้การดูแลสุขภาพสามารถเข้าถึงได้อย่างกว้างขวางและปรับปรุงผลลัพธ์ของผู้ป่วย  อ่านกรณีศึกษาเพื่อเรียนรู้เพิ่มเติม
 
“ที่ Rad AI ภารกิจของเราคือการเพิ่มการเข้าถึงและคุณภาพการดูแลสุขภาพสำหรับทุกคน Rad AI เน้นที่เวิร์กโฟลว์การถ่ายภาพทางการแพทย์ ช่วยให้แพทย์ด้านรังสีวิทยาประหยัดเวลา ลดภาวะหมดไฟ และเพิ่มความแม่นยำ เราใช้ AI เพื่อทำงานรังสีวิทยาโดยอัตโนมัติและช่วยปรับปรุงการรายงานรังสีวิทยา ด้วยอินสแตนซ์ EC2 P4d ใหม่ เราได้เห็นการอนุมานที่เร็วขึ้นและความสามารถในการฝึกโมเดลเร็วกว่า 2.4 เท่า ด้วยความแม่นยำสูงกว่าอินสแตนซ์ P3 รุ่นก่อนหน้า สิ่งนี้ช่วยให้การวินิจฉัยที่รวดเร็วและแม่นยำยิ่งขึ้น และเข้าถึงบริการรังสีวิทยาคุณภาพสูงที่ให้บริการโดยลูกค้าของเราทั่วสหรัฐอเมริกาได้มากขึ้น“
 
Doktor Gurson, ผู้ร่วมก่อตั้ง Rad AI
Missing alt text value

รายละเอียดผลิตภัณฑ์

ขนาดของอินสแตนซ์
vCPU
หน่วยความจำของอินสแตนซ์ (GiB)
GPU – A100
หน่วยความจำ GPU
แบนวิดท์เครือข่าย (Gbps)
GPUDirect RDMA
GPU แบบ Peer to Peer
พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB)
แบนด์วิดท์ EBS (Gbps)
p4d.24xlarge
96
1152
8
320 GB
HBM2
400 ENA และ EFA
ใช่
NVSwitch 600 GB/วินาที
8 x 1000 NVMe SSD
19
p4de.24xlarge
96
1152
8
640 GB
HBM2e
400 ENA และ EFA
ใช่
NVSwitch 600 GB/วินาที
8 x 1000 NVMe SSD
19

การเริ่มต้นใช้งานอินสแตนซ์ P4d สําหรับ ML

    Amazon SageMaker เป็นบริการที่มีการจัดการอย่างสมบูรณ์สำหรับการสร้าง ฝึกอบรม และการปรับใช้โมเดล ML เมื่อใช้งานร่วมกับอินสแตนซ์ P4d ลูกค้าจะสามารถปรับขนาด GPU นับสิบ ร้อย และพันหน่วย เพื่อฝึกฝนโมเดลในทุกขนาดได้อย่างรวดเร็วโดยไม่ต้องเป็นกังวลเกี่ยวกับการตั้งค่าคลัสเตอร์และไปป์ไลน์ของข้อมูล

    DLAMI มอบ โครงสร้างพื้นฐานและเครื่องมือให้กับผู้ปฏิบัติงานและนักวิจัย ML เพื่อเร่งความเร็ว DL ในระบบคลาวด์ในทุกขนาด Deep Learning Contain ers เป็นภาพ Docker ที่ติดตั้งไว้ล่วงหน้าด้วยเฟรมเวิร์ก DL เพื่อให้ใช้งานสภาพแวดล้อม ML ที่กำหนดเองได้อย่างง่ายดายโดยให้คุณข้ามกระบวนการที่ซับซ้อนในการสร้างและเพิ่มประสิทธิภาพสภาพแวดล้อมของคุณตั้งแต่เริ่มต้น

การเริ่มต้นใช้งานอินสแตนซ์ P4d สําหรับ HPC

อินสแตนซ์ P4d เหมาะอย่างยิ่งสำหรับการรันการจำลองทางวิศวกรรม การเงินเชิงคำนวณ การวิเคราะห์แผ่นดินไหว การสร้างแบบจำลองโมเลกุล จีโนมิกส์ การเรนเดอร์ และเวิร์กโหลด HPC ที่ใช้ GPU อื่นๆ การใช้งาน HPC มักต้องการเครือข่ายที่มีประสิทธิภาพสูง การจัดเก็บที่รวดเร็ว หน่วยความจำปริมาณมาก ความสามารถในการประมวลผลสูง หรือทั้งหมดที่กล่าวมา อินสแตนซ์ P4d รองรับ EFA ที่ทำให้แอปพลิเคชัน HPC ที่ใช้ Message Passing Interface (MPI) สามารถปรับขนาดให้รองรับ GPU หลายพันตัวได้ AWS Batch และ AWS ParallelCluster ช่วยให้นักพัฒนา HPC สร้างและปรับขนาดแอปพลิเคชัน HPC แบบกระจายได้อย่างรวดเร็ว

เรียนรู้เพิ่มเติม