อินสแตนซ์ Amazon EC2 P3

เร่งความเร็ว Machine Learning และแอปพลิเคชันที่มีการประมวลผลประสิทธิภาพสูงด้วย GPU ที่ทรงพลัง

อินสแตนซ์ Amazon EC2 P3 มอบการประมวลผลที่มีประสิทธิภาพสูงในระบบคลาวด์ด้วย NVIDIA® V100 Tensor Core GPU จำนวนสูงสุด 8 หน่วยและอัตราการส่งข้อมูลผ่านเครือข่ายสูงสุด 100 Gbps สำหรับแอปพลิเคชัน Machine Learning และ HPC อินสแตนซ์เหล่านี้มอบประสิทธิภาพที่มีความแม่นยำแบบผสมสูงสุด 1 เพตะฟล็อบต่ออินสแตนซ์ เพื่อเร่งความเร็วให้กับ Machine Learning และแอปพลิเคชันที่มีการประมวลผลประสิทธิภาพสูงได้เป็นอย่างมาก อินสแตนซ์ Amazon EC2 P3 ได้รับการพิสูจน์แล้วว่าสามารถลดเวลาในการฝึกฝน Machine Learning จากหลายวันให้เหลือเพียงไม่กี่นาที รวมทั้งเพิ่มจำนวนการจำลองที่ทำสำเร็จสำหรับการประมวลผลประสิทธิภาพสูงประมาณ 3-4 เท่า
ด้วยแบนด์วิธเครือข่ายสูงสุด 4 เท่าของอินสแตนซ์ P3.16xlarge ทำให้อินสแตนซ์ Amazon EC2 P3dn.24xlarge เป็นผลิตภัณฑ์ใหม่ล่าสุดของตระกูล P3 ที่เหมาะสำหรับการกระจายแอปพลิเคชัน Machine Learning และ HPC อินสแตนซ์เหล่านี้มอบอัตราการส่งข้อมูลผ่านเครือข่ายสูงสุด 100 Gbps, Intel® Xeon® Scalable (Skylake) vCPUs แบบกำหนดเอง 96 หน่วย, NVIDIA® V100 Tensor Core GPU จำนวน 8 หน่วย พร้อมหน่วยความจำหน่วยละ 32 GB และพื้นที่จัดเก็บ SSD บน NVMe ภายในขนาด 1.8 TB

ขอแนะนำ Amazon EC2 P3dn.24xlarge - อินสแตนซ์ P3 ที่ทรงพลังที่สุดในตอนนี้

เหมาะสำหรับการกระจายการฝึกฝน Machine Learning และการประมวลผลประสิทธิภาพสูง

ReInvent_HA_P3_EDITORIAL

ประโยชน์

ลดเวลาในการฝึกฝน MACHINE LEARNING จากหลายวันให้เหลือเพียงไม่กี่นาที

สำหรับ Data Scientist, นักวิจัย และ Developer ผู้ต้องการเพิ่มความเร็วให้กับแอปพลิเคชัน ML อินสแตนซ์ Amazon EC2 P3 คือสิ่งที่รวดเร็วที่สุดสำหรับการฝึกฝน ML ในระบบคลาวด์ อินสแตนซ์ Amazon EC2 P3 ประกอบด้วย NVIDIA V100 Tensor Core GPU รุ่นล่าสุดจำนวนสูงสุด 8 หน่วย และมอบประสิทธิภาพที่มีความแม่นยำแบบผสมสูงสุด 1 เพตะฟล็อบ เพื่อเร่งความเร็วให้กับปริมาณงาน ML การฝึกฝนโมเดลที่รวดเร็วขึ้นสามารถทำให้ Data Scientist และวิศวกร Machine Learning ฝึกฝนโมเดลจำนวนมากซ้ำๆ ได้รวดเร็วขึ้น และเพิ่มความแม่นยำได้อีกด้วย

โซลูชันสำหรับการฝึกฝน ML ที่คุ้มค่ามากที่สุดในอุตสาหกรรม

หนึ่งในอินสแตนซ์ GPU อันทรงพลังที่สุดในระบบคลาวด์ ที่มีแผนราคายืดหยุ่นจึงส่งผลให้โซลูชันสำหรับการฝึกฝน Machine Learning คุ้มค่าอย่างยิ่ง เช่นเดียวกับอินสแตนซ์ Amazon EC2 โดยทั่วไป อินสแตนซ์ P3 สามารถใช้งานได้ในรูปแบบอินสแตนซ์แบบตามต้องการ อินสแตนซ์แบบเหมาจ่าย หรืออินสแตนซ์ Spot อินสแตนซ์ Spot ใช้ประโยชน์จากความสามารถที่ยังไม่ได้ใช้งานของอินสแตนซ์ EC2 จึงสามารถลดค่าใช้จ่ายของ Amazon EC2 ได้มากถึง 70% จากราคาของแบบตามต้องการ

การประมวลผลประสิทธิภาพสูง ทรงพลัง และยืดหยุ่น

การเรียกใช้การประมวลผลประสิทธิภาพสูงบนอินสแตนซ์ Amazon EC2 P3 ต่างจากระบบภายในองค์กร โดยมีความจุไม่จำกัดในการเพิ่มขนาดโครงสร้างพื้นฐานและเพิ่มความยืดหยุ่นในการเปลี่ยนแปลงทรัพยากรได้อย่างง่ายดาย และทำได้บ่อยครั้งเท่าที่ปริมาณงานของคุณต้องการ คุณสามารถกำหนดค่าทรัพยากรให้ตรงกับความต้องการของแอปพลิเคชัน และเปิดใช้คลัสเตอร์ HPC ได้ในไม่กี่นาที โดยชำระค่าบริการเฉพาะส่วนที่คุณใช้

ผสานการทำงานกับบริการ AWS Machine Learning

อินสแตนซ์ Amazon EC2 P3 ทำงานร่วมกับ Amazon SageMaker อย่างราบรื่นเพื่อมอบแพลตฟอร์ม Machine Learning ที่ทรงพลังและครอบคลุมสมบูรณ์ Amazon SageMaker เป็นแพลตฟอร์ม Machine Learning ที่มีการจัดการเต็มรูปแบบ ซึ่งช่วยให้คุณสามารถสร้าง ฝึกฝน และปรับใช้โมเดล Machine Learning ได้อย่างรวดเร็วและง่ายดาย นอกจากนี้อินสแตนซ์ Amazon EC2 P3 ยังสามารถผสานรวมเข้ากับ AWS Deep Learning Amazon Machine Images (AMI) ซึ่งติดตั้งไว้ล่วงหน้าแล้วในเฟรมเวิร์ก Deep Learning ยอดนิยม การเริ่มต้นใช้งานการฝึกฝนและการอนุมาน Machine Learning จึงรวดเร็วขึ้นและง่ายขึ้น

รองรับเฟรมเวิร์กหลักทั้งหมดของ Machine Learning

อินสแตนซ์ Amazon EC2 P3 รองรับเฟรมเวิร์กหลักทั้งหมดของ Machine Learning ซึ่งรวมถึง TensorFlow, PyTorch, Apache MXNet, Caffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Chainer, Theano, Keras, Gluon และ Torch คุณจะมีความยืดหยุ่นในการเลือกเฟรมเวิร์กที่เหมาะสมกับแอปพลิเคชันของคุณ

การฝึกฝน Machine Learning หลายโหนดที่ปรับขนาดได้

คุณสามารถใช้อินสแตนซ์ Amazon EC2 P3 ต่างๆ กับอัตราการส่งข้อมูลผ่านเครือข่ายสูงสุด 100 Gbps เพื่อฝึกฝนโมเดล Machine Learning อย่างรวดเร็ว อัตราการส่งข้อมูลผ่านเครือข่ายที่สูงขึ้นช่วยให้ Developer สามารถขจัดปัญหาการถ่ายโอนข้อมูลและเพิ่มงานด้านการฝึกฝนโมเดลของตนในอินสแตนซ์ P3 ต่างๆ ได้ ลูกค้าจะสามารถฝึกฝน ResNet-50 ซึ่งเป็นโมเดลการจัดหมวดหมู่อิมเมจทั่วไป เพื่อความถูกต้องตามมาตรฐานอุตสาหกรรมในเวลาเพียง 18 นาที โดยใช้อินสแตนซ์ P3 จำนวน 16 อินสแตนซ์ ก่อนหน้านี้ ลูกค้า ML ส่วนใหญ่ไม่สามารถบรรลุประสิทธิภาพระดับนี้ได้ เนื่องจากต้องมีการลงทุน CapEx ขนาดใหญ่เพื่อสร้างคลัสเตอร์ GPU ภายในองค์กร อินสแตนซ์ P3 และความพร้อมใช้งานของอินสแตนซ์ดังกล่าวผ่านโมเดลการใช้งานแบบตามต้องการ ช่วยให้ตอนนี้ Developer และวิศวกร Machine Learning สามารถเข้าถึงประสิทธิภาพระดับนี้ได้

เรื่องราวของลูกค้า

200x100_AirBNB_Logo

Airbnb ใช้ Machine Learning เพื่อปรับประสิทธิภาพการแนะนำการค้นหา และปรับปรุงแนวทางการกำหนดราคาแบบไดนามิกสำหรับโฮสต์ ซึ่งทั้งสองอย่างได้นำไปสู่การเปลี่ยนแปลงในจำนวนการจองที่เพิ่มมากขึ้น เมื่อใช้อินสแตนซ์ Amazon EC2 P3 แล้ว Airbnb ก็สามารถเรียกใช้ปริมาณงานการฝึกฝนได้รวดเร็วขึ้น ทำซ้ำได้มากขึ้น สร้างโมเดล Machine Learning ที่ดีขึ้น รวมทั้งลดค่าใช้จ่ายได้

salesforce_logo_200x100

Salesforce ใช้ Machine Learning เพื่อเพิ่มพลังให้กับ Einstein Vision ซึ่งทำให้ Developer ควบคุมพลังการจดจำภาพสำหรับกรณีใช้งาน เช่น การค้นหาภาพ การตรวจจับแบรนด์ และการระบุตัวตนผลิตภัณฑ์ อินสแตนซ์ Amazon EC2 P3 ช่วยให้ Developer สามารถฝึกฝนโมเดล Deep Learning ได้รวดเร็วขึ้นมาก ซึ่งทำให้พวกเราสามารถบรรลุเป้าหมายเกี่ยวกับ Machine Learning ได้รวดเร็ว

western-digital_200x100

Western Digital ใช้การประมวลผลประสิทธิภาพสูง (HPC) เพื่อเรียกใช้การจำลองหลายหมื่นรายการสำหรับวัสดุศาสตร์ การถ่ายเทความร้อน แม่เหล็ก และการถ่ายโอนข้อมูลเพื่อปรับปรุงดิสก์ไดรฟ์ รวมทั้งประสิทธิภาพและคุณภาพของโซลูชันพื้นที่จัดเก็บ ตามการทดสอบก่อนหน้านี้ อินสแตนซ์ Amazon EC2 P3 ช่วยให้ทีมวิศวกรรมเรียกใช้การจำลองได้รวดเร็วกว่าโซลูชันที่ใช้งานก่อนหน้านี้มากขึ้นอย่างน้อยสามเท่า  

schrodinger-200x100

Schrodinger ใช้การประมวลผลประสิทธิภาพสูง (HPC) เพื่อพัฒนาโมเดลการคาดคะเนเพื่อขยายขนาดของการสำรวจและการเพิ่มประสิทธิภาพ รวมทั้งยังมอบความสามารถให้ลูกค้านำยาที่จะช่วยชีวิตผู้คนเข้าสู่ตลาดได้เร็วขึ้นด้วย อินสแตนซ์ Amzon EC2 P3 ช่วยให้ Schrodinger ดำเนินการจำลองได้มากขึ้นสี่เท่าต่อวัน เมื่อเทียบกับอินสแตนซ์ P2  

อินสแตนซ์ Amazon EC2 P3 และ Amazon SageMaker

วิธีที่รวดเร็วที่สุดในการฝึกฝนและเรียกใช้โมเดล Machine Learning

Amazon SageMaker คือบริการที่ได้รับการจัดการอย่างสมบูรณ์ซึ่งใช้ในการสร้าง ฝึกฝน และนำโมเดล Machine Learning ไปใช้งาน เมื่อใช้งานร่วมกับอินสแตนซ์ Amazon EC2 P3 ลูกค้าจะสามารถปรับขนาด GPU นับสิบ ร้อย และพันหน่วย เพื่อฝึกฝนโมเดลในทุกขนาดได้อย่างรวดเร็วโดยไม่ต้องเป็นกังวลเกี่ยวกับการตั้งค่าคลัสเตอร์และไปป์ไลน์ของข้อมูล นอกจากนี้คุณยังสามารถเข้าถึงทรัพยากร Amazon Virtual Private Cloud (Amazon VPC) สำหรับการฝึกฝนและโฮสต์ขั้นตอนการทำงานได้อย่างง่ายดายใน Amazon SageMaker ด้วยคุณสมบัตินี้ คุณจะสามารถใช้บัคเก็ต Amazon Simple Storage Service (Amazon S3) ซึ่งเข้าถึงได้ผ่าน VPC เท่านั้น เพื่อจัดเก็บข้อมูลการฝึกฝน รวมทั้งจัดเก็บและโฮสต์แบบจำลองโมเดลที่ได้รับมาจากขั้นตอนการฝึกฝนด้วย นอกเหนือจาก S3 โมเดลยังเข้าถึงทรัพยากร AWS อื่นๆ ทั้งหมดที่รวมอยู่ใน VPC ได้อีกด้วย เรียนรู้เพิ่มเติม

สร้าง

Amazon SageMaker ทำให้สร้างโมเดล Machine Learning และเตรียมโมเดลให้พร้อมสำหรับการฝึกฝนได้อย่างง่ายดาย เนื่องจากมีทุกอย่างที่คุณต้องการเพื่อให้เชื่อมต่อกับข้อมูลการฝึกฝนของคุณได้อย่างรวดเร็ว และเพื่อให้เลือก รวมทั้งปรับใช้อัลกอริธึมและเฟรมเวิร์กที่ดีที่สุดสำหรับแอปพลิเคชันของคุณ Amazon SageMaker จะรวม Jupyter Notebook ที่เป็นโฮสต์ที่จะทำให้สามารถสำรวจและแสดงภาพข้อมูลการฝึกฝนของคุณที่เก็บไว้ใน Amazon S3 ได้อย่างง่ายดาย  คุณยังสามารถใช้อินสแตนซ์โน้ตบุ๊คในการเขียนโค้ดเพื่อสร้างงานการฝึกฝนโมเดล นำโมเดลไปใช้กับการโฮสต์ Amazon SageMaker และทดสอบหรือตรวจสอบความถูกต้องของโมเดล

ฝึกฝน

คุณสามารถเริ่มการฝึกฝนโมเดลได้ด้วยการคลิกเพียงครั้งเดียวบนคอนโซลหรือด้วยการเรียกใช้ API หนึ่งครั้ง Amazon SageMaker ได้รับการกำหนดค่าล่วงหน้าด้วย TensorFlow และ Apache MXNet เวอร์ชันล่าสุด พร้อมด้วยการสนับสนุนไลบรารี CUDA9 เพื่อประสิทธิภาพสูงสุดเมื่อใช้งานกับ NVIDIA GPU นอกจากนี้การปรับประสิทธิภาพแบบไฮเปอร์พารามิเตอร์ยังปรับแต่งโมเดลของคุณแบบอัตโนมัติโดยการปรับการผสมผสานของพารามิเตอร์โมเดลที่แตกต่างกันอย่างอัจฉริยะ เพื่อทำให้เกิดการคาดคะเนที่ถูกต้องแม่นยำมากที่สุด สำหรับความต้องการในขนาดที่ใหญ่กว่า คุณสามารถปรับขนาดเป็นอินสแตนซ์ 10 รายการเพื่อรองรับการสร้างโมเดลที่รวดเร็วขึ้นได้

ปรับใช้

หลังการฝึกฝน คุณสามารถนำโมเดลไปใช้กับอินสแตนซ์ Amazon EC2 แบบปรับขยายอัตโนมัติใน Availability Zone ต่างๆ ได้ในคลิกเดียว ในการใช้งานจริง Amazon SageMaker จะจัดการโครงสร้างพื้นฐานการประมวลผลแทนคุณ เพื่อดำเนินการตรวจสอบคุณภาพการทำงาน นำแพตช์การรักษาความปลอดภัยข้อมูลไปใช้ และปฏิบัติการบำรุงรักษาตามกำหนดการอื่นๆ ทั้งหมดด้วยการตรวจสอบและการบันทึก Amazon CloudWatch ที่มีอยู่ในตัว

 

อินสแตนซ์ Amazon EC2 P3 และ AWS Deep Learning AMI

การกำหนดค่าสภาพแวดล้อมการพัฒนาล่วงหน้าเพื่อเริ่มต้นการสร้างแอปพลิเคชัน Deep Learning อย่างรวดเร็ว

AWS Deep Learning AMI คือทางเลือกเพื่อใช้แทน Amazon SageMaker for Developer ผู้มีข้อกำหนดแบบปรับแต่งเองมากกว่า โดยจะมอบโครงสร้างพื้นฐานและเครื่องมือต่างๆ ให้แก่ผู้ปฏิบัติงานและนักวิจัยด้าน Machine Learning เพื่อเร่ง Deep Learning ในระบบคลาวด์ทุกขนาด คุณสามารถเปิดใช้อินสแตนซ์ Amazon EC2 P3 ที่ติดตั้งไว้ล่วงหน้าได้อย่างรวดเร็วโดยใช้เฟรมเวิร์ก Deep Learning ยอดนิยม เช่น TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon และ Keras ในการฝึกฝนโมเดล AI แบบกำหนดเองที่ซับซ้อน ทดสอบด้วยอัลกอริธึมใหม่ หรือเรียนรู้ทักษะและเทคนิคใหม่ เรียนรู้เพิ่มเติม

อินสแตนซ์ Amazon EC2 P3 และการประมวลผลประสิทธิภาพสูง

แก้ไขปัญหาการประมวลผลขนาดใหญ่และรับข้อมูลเชิงลึกโดยใช้พลังของ HPC บน AWS

อินสแตนซ์ Amazon EC2 P3 คือแพลตฟอร์มที่สมบูรณ์แบบสำหรับการเรียกใช้การจำลองทางวิศวกรรม การเงินเชิงคำนวณ การวิเคราะห์แรงแผ่นดินไหว การแสดงรูปแบบโมเลกุล จีโนมิกส์ การสร้างภาพ และปริมาณงานการประมวลผล GPU อื่นๆ การประมวลผลประสิทธิภาพสูง (HPC) ช่วยให้นักวิทยาศาสตร์และวิศวกรสามารถแก้ปัญหาที่ซับซ้อนและเน้นการประมวลผลเหล่านี้ได้ แอปพลิเคชัน HPC มักต้องการเครือข่ายที่มีประสิทธิภาพสูง การจัดเก็บที่รวดเร็ว หน่วยความจำปริมาณมาก ความสามารถในการประมวลผลสูง หรือทั้งหมดที่กล่าวมา AWS ช่วยให้คุณสามารถเพิ่มความเร็วในการค้นคว้าและลดเวลาในการได้ผลลัพธ์ลงโดยการเรียกใช้ HPC ในระบบคลาวด์ และโดยการปรับขนาดให้มีงานที่ทำพร้อมกันมีจำนวนมากกว่าที่ทำได้ในสภาพการทำงานในสถานที่ส่วนใหญ่ AWS ช่วยลดค่าใช้จ่ายโดยการจัดเตรียมโซลูชันซึ่งมีการเพิ่มประสิทธิภาพสำหรับแอปพลิเคชันเฉพาะ และไม่จำเป็นต้องมีการลงทุนจำนวนมาก เรียนรู้เพิ่มเติม

อินสแตนซ์ Amazon EC2 P3dn.24xlarge

ขนาดอินสแตนซ์ใหม่ที่รวดเร็วขึ้น ทรงพลังขึ้น และใหญ่ขึ้น ซึ่งเหมาะสำหรับการกระจาย Machine Learning และการประมวลผลประสิทธิภาพสูง

อินสแตนซ์ Amazon EC2 P3dn.24xlarge เป็นอินสแตนซ์ P3 ที่เร็วที่สุด ทรงพลังที่สุด และมีขนาดใหญ่สุดที่มีให้บริการ รวมทั้งมีอัตราการส่งข้อมูลผ่านเครือข่ายสูงสุด 100 Gbps, NVIDIA® V100 Tensor Core GPU จำนวน 8 หน่วย พร้อมหน่วยความจำหน่วยละ 32 GB, Intel® Xeon® Scalable (Skylake) vCPUs แบบกำหนดเอง 96 หน่วย และพื้นที่จัดเก็บ SSD บน NVMe ภายในขนาด 1.8 TB ระบบเครือข่ายที่เร็วขึ้น โปรเซสเซอร์ใหม่ หน่วยความจำ GPU ที่เพิ่มขึ้นเป็นสองเท่า และ vCPU เพิ่มเติมจะช่วยให้ Developer สามารถลดเวลาในการฝึกฝนโมเดล ML ได้เป็นอย่างมาก หรือเรียกใช้การจำลอง HPC เพิ่มเติมโดยการปรับมาตราส่วนงานของตนไปยังอินสแตนซ์มากมาย (เช่น อินสแตนซ์ 16, 32 หรือ 64) โมเดล Machine Learning ต้องใช้ข้อมูลจำนวนมากสำหรับการฝึกฝน และนอกเหนือไปจากการเพิ่มการประมวลผลของข้อมูลที่ส่งผ่านระหว่างอินสแตนซ์ อัตราการส่งข้อมูลผ่านเครือข่ายเพิ่มเติมของอินสแตนซ์ P3dn.24xlarge ยังสามารถนำไปใช้เพื่อเร่งความเร็วในการเข้าถึงข้อมูลการฝึกฝนจำนวนมากโดยการเชื่อมต่อกับ Amazon S3 หรือโซลูชันระบบไฟล์แบบใช้ร่วมกัน เช่น Amazon EFS

ขจัดปัญหาและลดเวลาในการฝึกฝน MACHINE LEARNING

อัตราการส่งข้อมูลผ่านเครือข่ายสูงสุด 100 Gbps ทำให้ Developer สามารถใช้อินสแตนซ์ P3dn.24xlarge จำนวนมาก (เช่น อินสแตนซ์ 16, 32 หรือ 64) ได้อย่างมีประสิทธิภาพ เพื่อกระจายการฝึกอบรมและลดเวลาในการฝึกฝนโมเดลของตนได้เป็นอย่างมาก 96vCPUs ของโปรเซสเซอร์ Intel Skylake แบบกำหนดเองของ AWS ที่มีคำสั่ง AVX-512 ซึ่งปฏิบัติงานที่ 2.5GHz จะช่วยเพิ่มประสิทธิภาพการประมวลล่วงหน้าของข้อมูล นอกจากนี้อินสแตนซ์ P3dn.24xlarge จะใช้ระบบไนโตรของ AWS ที่ประกอบไปด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย ซึ่งจะส่งมอบทรัพยากรการประมวลผลและหน่วยความจำทั้งหมดของฮาร์ดแวร์โฮสต์ไปยังอินสแตนซ์ของคุณในลักษณะใช้งานได้จริง

 

ลด TCO ลงโดยการเพิ่มประสิทธิภาพการใช้งาน GPU

Enhanced Networking ที่ใช้ Elastic Network Adapter เวอร์ชันล่าสุดที่มีแบนด์วิธเครือข่ายรวมสูงสุด 100 Gbps นั้นไม่เพียงแต่จะสามารถนำไปใช้เพื่อแชร์ข้อมูลผ่านอินสแตนซ์ P3dn.24xlarge มากมาย แต่ยังมีการนำไปใช้สำหรับการเข้าถึงข้อมูลที่มีอัตราการส่งในระดับสูงผ่าน Amazon S3 หรือโซลูชันระบบไฟล์แบบใช้ร่วมกัน เช่น Amazon EFS การเข้าถึงข้อมูลที่มีอัตราการส่งในระดับสูงเป็นสิ่งสำคัญในการเพิ่มประสิทธิภาพการใช้งาน GPU และมอบประสิทธิภาพสูงสุดจากอินสแตนซ์การประมวลผล

รองรับโมเดลที่ใหญ่ขึ้นและซับซ้อนมากขึ้น

อินสแตนซ์ P3dn.24xlarge มี NVIDIA V100 Tensor Core GPU ที่มีหน่วยความจำขนาด 32 GB ซึ่งให้ความยืดหยุ่นในการฝึกฝนโมเดล Machine Learning ที่ใหญ่ขึ้นและมีขั้นที่สูงขึ้น และประมวลผลข้อมูลชุดใหญ่ขึ้น เช่น อิมเมจ 4K สำหรับการจัดหมวดหมู่อิมเมจและระบบตรวจจับอ็อบเจ็กต์

 

รายละเอียดผลิตภัณฑ์อินสแตนซ์ Amazon EC2 P3

ขนาดของอินสแตนซ์ GPU – Tesla V100 GPU ในเครือข่ายระดับเดียวกัน หน่วยความจำ GPU (GB) vCPU หน่วยความจำ (GB) แบนด์วิธเครือข่าย แบนด์วิธ EBS ราคาตามต้องการ/ชม.* การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 1 ปี* การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 3 ปี*
p3.2xlarge 1 ไม่มี 16 8 61 สูงสุด 10 Gbps 1.5 Gbps 3.06 USD 1.99 USD 1.05 USD
p3.8xlarge 4
NVLink 64 32 244 10 Gbps 7 Gbps 12.24 USD 7.96 USD 4.19 USD
p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps 24.48 USD 15.91 USD 8.39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 Gbps 14 Gbps 31.218 USD 18.30 USD 9.64 USD

* - ราคาที่แสดงเป็นราคาสำหรับ Linux/Unix ในภูมิภาค AWS ของสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียตอนเหนือ) และปัดเศษขึ้น สำหรับรายละเอียดราคาทั้งหมด โปรดดูหน้าราคา Amazon EC2

ลูกค้าสามารถซื้ออินสแตนซ์ P3 ในรูปแบบอินสแตนซ์แบบตามต้องการ อินสแตนซ์แบบเหมาจ่าย อินสแตนซ์ Spot และโฮสต์แบบเฉพาะเจาะจงได้

การเก็บค่าบริการตามวินาที

หนึ่งในข้อดีหลายประการของการประมวลผลในระบบคลาวด์คือความยืดหยุ่นในการจัดสรรและยกเลิกการจัดสรรทรัพยากรตามความต้องการ เมื่อเรียกเก็บค่าบริการเป็นวินาที ลูกค้าก็จะมีความยืดหยุ่นเพิ่มขึ้น ประหยัดได้มากขึ้น และช่วยให้ลูกค้าปรับประสิทธิภาพการจัดสรรทรัพยากรเพื่อบรรลุเป้าหมายด้าน Machine Learning ได้

ราคาอินสแตนซ์แบบเหมาจ่าย

อินสแตนซ์แบบเหมาจ่ายให้ส่วนลดคุณค่อนข้างสูง (สูงสุด 75%) เมื่อเทียบกับราคาอินสแตนซ์แบบตามต้องการ นอกจากนี้ เมื่อมีการจัดอินสแตนซ์แบบเหมาจ่ายให้ Availability Zone เฉพาะ ก็จะมีการจัดเตรียมเหมาจ่ายความจุให้ ซึ่งเป็นการเพิ่มความมั่นใจว่าคุณสามารถเปิดใช้งานอินสแตนซ์ได้เมื่อคุณต้องการ

ราคา SPOT

เมื่อใช้อินสแตนซ์ Spot คุณจะจ่ายราคา Spot ที่มีผลในช่วงเวลาที่อินสแตนซ์ของคุณกำลังทำงานอยู่ อินสแตนซ์ Spot จะกำหนดโดย Amazon EC2 และค่อยๆ ปรับตามแนวโน้มระยะยาวของอุปสงค์และอุปทานของความจุอินสแตนซ์ Spot อินสแตนซ์ Spot มีให้บริการที่ส่วนลดสูงสุดถึง 90% เมื่อเทียบกับราคาแบบตามต้องการ

ความพร้อมใช้งานระดับสากลในวงกว้างที่สุด

1856-Updated Map Image-P3 Instances-transparentBG_1024x543

อินสแตนซ์ Amazon EC2 P3.2xlarge, P3.8xlarge และ P3.16xlarge พร้อมให้บริการในภูมิภาค AWS 14 ภูมิภาค ดังนั้นลูกค้าก็จะมีความยืดหยุ่นในการฝึกฝนและนำโมเดล Machine Learning ไปปรับใช้ได้ในทุกที่ที่จัดเก็บข้อมูล ภูมิภาค AWS ที่ P3 พร้อมให้บริการคือ สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียเหนือ), สหรัฐอเมริกาฝั่งตะวันออก (โอไฮโอ), สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน), แคนาดา (ภาคกลาง), สหภาพยุโรป (ไอร์แลนด์), สหภาพยุโรป (แฟรงเฟิร์ต), สหภาพยุโรป (ลอนดอน), เอเชียแปซิฟิก (โตเกียว), เอเชียแปซิฟิก (โซล), เอเชียแปซิฟิก (ซิดนีย์), เอเชียแปซิฟิก (สิงคโปร์), จีน (ปักกิ่ง), จีน (หนิงเซีย) และ AWS GovCloud (US)

อินสแตนซ์ P3dn.24xlarge พร้อมให้บริการที่ภูมิภาค AWS ในสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียเหนือ) และสหรัฐอเมริกาฝั่งตะวันตก (ออริกอน)

เริ่มต้นใช้งานอินสแตนซ์ Amazon EC2 P3 สำหรับ Machine Learning

หากต้องการเริ่มต้นใช้งานได้ในไม่กี่นาที โปรดดูข้อมูลเพิ่มเติมเกี่ยวกับ Amazon SageMaker หรือใช้ AWS Deep Learning AMI ซึ่งติดตั้งไว้ล่วงหน้าแล้วในเฟรมเวิร์ก Deep Learning ยอดนิยม เช่น Caffe2 และ MXNet หรือคุณยังสามารถใช้ NVIDIA AMI ซึ่งมาพร้อมกับไดรเวอร์ GPU และชุดเครื่องมือ CUDA ที่ติดตั้งไว้ล่วงหน้าแล้ว

เกี่ยวกับ Amazon SageMaker

คลิกที่นี่เพื่อเรียนรู้เพิ่มเติม

เกี่ยวกับ Deep Learning on AWS

คลิกที่นี่เพื่อเรียนรู้เพิ่มเติม

เกี่ยวกับการประมวลผลประสิทธิภาพสูง (HPC)

คลิกที่นี่เพื่อเรียนรู้เพิ่มเติม
พร้อมเริ่มต้นใช้งานหรือยัง
ลงชื่อสมัครใช้งาน
มีคำถามเพิ่มเติมหรือไม่
ติดต่อเรา