อินสแตนซ์ Amazon EC2 P3

เร่งความเร็วแมชชีนเลิร์นนิ่งและแอปพลิเคชันการประมวลผลประสิทธิภาพสูงด้วย GPU ที่ทรงพลัง

อินสแตนซ์ Amazon EC2 P3 ให้บริการการประมวลผลแบบขนานในระบบคลาวด์ด้วย NVIDIA® V100 Tensor Core GPU ถึง 8 ตัวและอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสำหรับแมชชีนเลิร์นนิ่งและแอปพลิเคชัน HPC สูงถึง 100 Gbps อินสแตนซ์เหล่านี้จะมอบประสิทธิภาพที่มีความแม่นยำแบบผสมสูงสุด 1 เพตะฟล็อบต่ออินสแตนซ์เพื่อเร่งความเร็วให้กับแมชชีนเลิร์นนิ่งและแอปพลิเคชันการประมวลผลประสิทธิภาพสูงให้เร็วยิ่งขึ้น อินสแตนซ์ Amazon EC2 P3 ถูกพิสูจน์มาแล้วว่าช่วยลดเวลาในการฝึกฝนของแมชชีนเลิร์นนิ่งจากหลายวันเหลือเพียงไม่กี่นาที รวมทั้งเพิ่มจำนวนการจำลองสำหรับการประมวลผลประสิทธิภาพสูงที่เสร็จสมบูรณ์ได้มากถึง 3-4 เท่า
ด้วยแบนด์วิดท์เครือข่ายที่มากกว่าถึง 4 เท่าของอินสแตนซ์ P3.16xlarge อินสแตนซ์ Amazon EC2 P3dn.24xlarge ถือเป็นสมาชิกใหม่ในครอบครัว P3 เหมาะสำหรับแมชชีนเลิร์นนิ่งและแอปพลิเคชัน HPC แบบกระจาย อินสแตนซ์แหล่านี้มีอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสูงถึง 100 Gbps มาพร้อมกับ Intel® Xeon® Scalable (Skylake) vCPU แบบกำหนดเอง 96 ตัว, NVIDIA® V100 Tensor Core GPU ถึง 8 ตัว ที่มีหน่วยความจำ 32 GB ต่อตัว และพื้นที่จัดเก็บข้อมูล SSD บน NVMe ขนาด 1.8 TB

ดูวิธีที่อินสแตนซ์ Amazon EC2 P3 สามารถช่วยเหลือคุณในการฝึกฝนแมชชีนเลิร์นนิ่ง

EC2_P3_Thumb

ขอแนะนำ Amazon EC2 P3dn.24xlarge - ซึ่งเป็นอินสแตนซ์ P3 ที่ทรงประสิทธิภาพมากที่สุด

เหมาะสำหรับการฝึกฝนของแมชชีนเลิร์นนิ่งแบบกระจายและการประมวลผลประสิทธิภาพสูง

ReInvent_HA_P3_EDITORIAL

ประโยชน์

ลดเวลาในการฝึกฝนแมชชีนเลิร์นนิ่งจากหลายวันเหลือเพียงไม่กี่นาที

สำหรับนักวิทยาศาสตร์ข้อมูล นักวิจัย และนักพัฒนาที่ต้องการเร่งความเร็วแอปพลิเคชัน ML อินสแตนซ์ Amazon EC2 P3 เป็นอินสแตนซ์ที่เร็วที่สุดในระบบระบบคลาวด์สำหรับการฝึกฝนของ ML อินสแตนซ์ Amazon EC2 P3 ประกอบด้วย NVIDIA V100 Tensor Core GPU รุ่นล่าสุดจำนวนสูงสุด 8 หน่วย และมอบประสิทธิภาพที่มีความแม่นยำแบบผสมสูงสุด 1 เพตะฟล็อบ เพื่อเร่งความเร็วให้กับปริมาณงาน ML การฝึกฝนโมเดลที่รวดเร็วขึ้นสามารถทำให้นักวิทยาศาสตร์ข้อมูลและวิศวกรแมชชีนเลิร์นนิ่งฝึกฝนโมเดลจำนวนมากซ้ำๆ ได้รวดเร็วขึ้น และเพิ่มความแม่นยำได้อีกด้วย

โซลูชันที่คุ้มค่าที่สุดในอุตสาหกรรมสำหรับการฝึกฝนของ ML

หนึ่งในอินสแตนซ์ GPU ที่ทรงประสิทธิภาพมากที่สุดในระบบคลาวด์มาพร้อมกับตัวเลือกด้านราคาที่ยืดหยุ่น ซึ่งทำให้เกิดโซลูชันการฝึกฝนแมชชีนเลิร์นนิ่งที่คุ้มค่าในระดับสูงสุด กับอินสแตนซ์ Amazon EC2 โดยทั่วไปแล้ว อินสแตนซ์ P3 สามารถรองรับ อินสแตนซ์ตามการใช้งานจริง อินสแตนซ์แบบเหมาจ่าย หรืออินสแตนซ์ Spot ได้ อินสแตนซ์ Spot ใช้ประโยชน์จากพื้นที่อินสแตนซ์ EC2 ที่ไม่ได้ใช้งานและสามารถลดต้นทุน Amazon EC2 ของคุณได้มากถึง 70% จากราคาแบบตามการใช้งานจริง

การประมวลผลที่มีประสิทธิภาพสูง ทรงพลัง และยืดหยุ่น

การเรียกใช้การประมวลผลประสิทธิภาพสูงบนอินสแตนซ์ Amazon EC2 P3 ต่างจากระบบในสถานที่ โดยจะนำเสนอความจุที่ไม่จำกัดแบบเสมือนเพื่อเพิ่มขนาดโครงสร้างพื้นฐาน และเพิ่มความยืดหยุ่นในการเปลี่ยนแปลงทรัพยากรได้อย่างง่ายดาย และทำได้บ่อยครั้งมากเท่าที่ปริมาณงานของคุณต้องการ คุณสามารถกำหนดค่าทรัพยากรให้ตรงกับความต้องการของแอปพลิเคชันและเปิดใช้คลัสเตอร์ HPC ได้ในเวลาเพียงไม่กี่นาที โดยชำระตามจำนวนที่คุณใช้งานเท่านั้น

เริ่มสร้างทันที

ใช้อิมเมจ Docker ที่จัดแพคเกจมาล่วงหน้าเพื่อปรับใช้สภาพแวดล้อมการเรียนรู้เชิงลึกภายในไม่กี่นาที อิมเมจดังกล่าวประกอบด้วยไลบรารีเฟรมเวิร์กการเรียนรู้เชิงลึกที่จำเป็น (ขณะนี้คือ TensorFlow และ Apache MXNet) และเครื่องมือ และได้รับการทดสอบอย่างเต็มรูปแบบแล้ว คุณสามารถเพิ่มไลบรารีและเครื่องมือของตัวเองบนอิมเมจเหล่านี้ได้อย่างง่ายดาย เพื่อให้มีการควบคุมการดูแล การปฏิบัติตามข้อกำหนด และการประมวลผลข้อมูลในระดับที่สูงขึ้น นอกจากนี้ อินสแตนซ์ Amazon EC2 P3 ยังทำงานร่วมกับ Amazon SageMaker ได้อย่างราบรื่นเพื่อมอบแพลตฟอร์มแมชชีนเลิร์นนิ่งที่ทรงพลังและครอบคลุมสมบูรณ์ Amazon SageMaker เป็นแพลตฟอร์มแมชชีนเลิร์นนิ่งที่ได้รับการจัดการอย่างเต็มรูปแบบ ซึ่งจะทำให้คุณสามารถสร้าง ฝึกฝน และปรับใช้โมเดลแมชชีนเลิร์นนิ่งได้อย่างรวดเร็วและง่ายดาย นอกจากนี้ อินสแตนซ์ Amazon EC2 P3 สามารถผนวกรวมกับ AWS Deep Learning Amazon Machine Images (AMI) ที่ได้รับการติดตั้งล่วงหน้าพร้อมกับเฟรมเวิร์กการเรียนรู้เชิงลึกยอดนิยม ทำให้การเริ่มต้นการฝึกฝนและการอนุมานด้านแมชชีนเลิร์นนิ่งรวดเร็วและง่ายขึ้น

การฝึกฝนแมชชีนเลิร์นนิ่งหลายโหนดที่ปรับขนาดได้

คุณสามารถใช้งานอินสแตนซ์ Amazon EC2 P3 หลายอินสแตนซ์ด้วยอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสูงสุดถึง 100 Gbps เพื่อฝึกฝนโมเดลแมชชีนเลิร์นนิ่งได้อย่างรวดเร็ว อัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายที่สูงขึ้นช่วยให้นักพัฒนากำจัดสภาวะคอขวดและเพิ่มจำนวนโมเดลการฝึกฝนไปยังอินสแตนซ์ P3 หลายอินสแตนซ์ได้อย่างมีประสิทธิภาพ ลูกค้าสามารถฝึกฝนโมเดลการจัดหมวดหมู่ภาพทั่วไป ResNet-50 ให้มีความแม่นยำระดับมาตรฐานอุตสาหกรรมได้ภายใน 18 นาทีด้วยการใช้อินสแตนซ์ P3 จำนวน 16 อินสแตนซ์ การที่ลูกค้า ML ส่วนใหญ่จะพัฒนาระบบให้มีประสิทธิภาพในระดับนี้แทบจะเป็นไปไม่ได้เลยในช่วงเวลาก่อนหน้านี้ เนื่องจากการพัฒนาจำเป็นต้องลงทุนในค่าใช้จ่ายด้านต้นทุนจำนวนมากเพื่อสร้างคลัสเตอร์ GPU ภายในองค์กร Developer และวิศวกรแมชชีนเลิร์นนิ่งสามารถเข้าถึงประสิทธิภาพในระดับนี้ได้แล้ว ด้วยอินสแตนซ์ P3 และความพร้อมใช้งานผ่านโมเดลการใช้งานแบบตามต้องการ

รองรับเฟรมเวิร์กหลักของแมชชีนเลิร์นนิ่งทั้งหมด

อินสแตนซ์ Amazon EC2 P3 รองรับเฟรมเวิร์กแมชชีนเลิร์นนิ่งหลักทั้งหมด ซึ่งรวมถึง TensorFlow, PyTorch, Apache MXNet, Caffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Chainer, Theano, Keras, Gluon และ Torch คุณจะมีความยืดหยุ่นในการเลือกเฟรมเวิร์กที่ทำงานได้ดีที่สุดสำหรับแอปพลิเคชันของคุณ

เรื่องราวของลูกค้า

200x100_AirBNB_Logo

Airbnb ใช้แมชชีนเลิร์นนิ่งเพื่อปรับประสิทธิภาพการแนะนำการค้นหา และปรับปรุงแนวทางการตั้งค่าแบบไดนามิกสำหรับโฮสต์ ซึ่งทั้งสองอย่างได้นำไปสู่การเปลี่ยนแปลงในจำนวนการจองที่เพิ่มมากขึ้น เมื่อใช้อินสแตนซ์ Amazon EC2 P3 แล้ว Airbnb สามารถเรียกใช้ปริมาณงานการฝึกฝนที่รวดเร็วขึ้น สามารถทำซ้ำได้มากขึ้น สร้างโมเดลแมชชีนเลิร์นนิ่งที่ดีขึ้น และรวมทั้งลดค่าใช้จ่ายได้

salesforce_logo_200x100

Salesforce ใช้แมชชีนเลิร์นนิ่งเพื่อเพิ่มพลังให้กับ Einstein Vision ซึ่งทำให้ Developer ควบคุมพลังการจดจำภาพสำหรับกรณีใช้งาน เช่น การค้นหาภาพ การตรวจจับแบรนด์ และการระบุตัวตนผลิตภัณฑ์ อินสแตนซ์ Amazon EC2 P3 ช่วยให้ Developer สามารถฝึกฝนโมเดล Deep Learning ได้รวดเร็วขึ้นมาก ซึ่งทำให้พวกเราสามารถบรรลุเป้าหมายเกี่ยวกับแมชชีนเลิร์นนิ่งได้รวดเร็ว

western-digital_200x100

Western Digital ใช้การประมวลผลประสิทธิภาพสูง (HPC) เพื่อเรียกใช้การจำลองหลายหมื่นรายการสำหรับวิทยาศาสตร์วัสดุ การไหลของความร้อน แม่เหล็ก และการโอนย้ายข้อมูลเพื่อปรับปรุงดิสก์ไดรฟ์ รวมทั้งประสิทธิภาพและคุณภาพของโซลูชันพื้นที่จัดเก็บ ตามการทดสอบก่อนหน้านี้ อินสแตนซ์ Amazon EC2 P3 ช่วยให้ทีมวิศวกรรมเรียกใช้การจำลองได้รวดเร็วกว่าโซลูชันที่ใช้งานก่อนหน้านี้มากขึ้นอย่างน้อยสามเท่า  

schrodinger-200x100

Schrodinger ใช้การประมวลผลประสิทธิภาพสูง (HPC) เพื่อพัฒนาโมเดลการคาดคะเนเพื่อขยายขนาดของการสำรวจและการเพิ่มประสิทธิภาพ รวมทั้งยังมอบความสามารถให้ลูกค้านำยาที่จะช่วยชีวิตผู้คนเข้าสู่ตลาดได้เร็วขึ้นด้วย อินสแตนซ์ Amzon EC2 P3 ช่วยให้ Schrodinger ดำเนินการจำลองได้มากขึ้นสี่เท่าต่อวัน เมื่อเทียบกับอินสแตนซ์ P2  

อินสแตนซ์ Amazon EC2 P3 และ Amazon SageMaker

วิธีที่รวดเร็วที่สุดในการฝึกฝนและเรียกใช้โมเดลแมชชีนเลิร์นนิ่ง

Amazon SageMaker คือบริการที่ได้รับการจัดการอย่างสมบูรณ์ซึ่งใช้ในการสร้าง ฝึกฝน และนำโมเดลแมชชีนเลิร์นนิ่งไปใช้งาน เมื่อใช้งานร่วมกับอินสแตนซ์ Amazon EC2 P3 ลูกค้าจะสามารถปรับขนาด GPU นับสิบ ร้อย และพันหน่วย เพื่อฝึกฝนโมเดลในทุกขนาดได้อย่างรวดเร็วโดยไม่ต้องเป็นกังวลเกี่ยวกับการตั้งค่าคลัสเตอร์และไปป์ไลน์ของข้อมูล คุณยังสามารถเข้าถึงทรัพยากร Amazon Virtual Private Cloud (Amazon VPC) สำหรับการฝึกฝนและโฮสต์เวิร์กโฟลว์ได้อย่างง่ายดายใน Amazon SageMaker ด้วยคุณสมบัตินี้ คุณจะสามารถใช้บัคเก็ต Amazon Simple Storage Service (Amazon S3) ซึ่งจะเข้าถึงได้ผ่าน VPC เท่านั้น เพื่อจัดเก็บข้อมูลการฝึกฝน รวมทั้งการจัดเก็บและการโฮสต์แบบจำลองโมเดลที่ได้รับมาจากขั้นตอนการฝึกฝนด้วย นอกเหนือจาก S3 โมเดลยังเข้าถึงทรัพยากร AWS อื่นๆ ทั้งหมดที่รวมอยู่ใน VPC ได้อีกด้วย เรียนรู้เพิ่มเติม

สร้าง

Amazon SageMaker ทำให้การสร้างโมเดลแมชชีนเลิร์นนิ่งและเตรียมพร้อมสำหรับการฝึกฝนได้อย่างง่ายดาย รวมทุกสิ่งที่คุณต้องการเพื่อจะเชื่อมต่อไปยังข้อมูลการฝึกฝนของคุณได้อย่างรวดเร็ว เพื่อเลือกและเพิ่มประสิทธิภาพอัลกอริธึมและเฟรมเวิร์กที่ดีที่สุดสำหรับแอปพลิเคชันของคุณ Amazon SageMaker จะรวม Jupyter Notebook ที่เป็นโฮสต์ที่จะทำให้สามารถสำรวจและแสดงภาพข้อมูลการฝึกของคุณที่เก็บไว้ใน Amazon S3 ได้อย่างง่ายดาย  คุณยังสามารถใช้อินสแตนซ์โน้ตบุ๊คในการเขียนโค้ดเพื่อสร้างงานการฝึกฝนโมเดล นำโมเดลไปใช้กับการโฮสต์ Amazon SageMaker และทดสอบหรือตรวจสอบความถูกต้องของโมเดล

ฝึกฝน

คุณสามารถเริ่มการฝึกฝนโมเดลของคุณได้ด้วยการคลิกเพียงครั้งเดียวบนคอนโซล หรือด้วยการเรียกใช้ API เพียงครั้งเดียว Amazon SageMaker ได้รับการกำหนดค่าล่วงหน้าด้วย TensorFlow และ Apache MXNet เวอร์ชันล่าสุด และการสนับสนุนไลบรารี CUDA9 เพื่อประสิทธิภาพที่ดีที่สุดเมื่อใช้งานกับ NVIDIA GPU นอกจากนี้การปรับประสิทธิภาพแบบไฮเปอร์พารามิเตอร์ยังปรับแต่งโมเดลของคุณแบบอัตโนมัติโดยการปรับการผสมผสานของพารามิเตอร์โมเดลที่แตกต่างกันอย่างอัจฉริยะ เพื่อทำให้เกิดการคาดคะเนที่ถูกต้องแม่นยำมากที่สุด สำหรับความต้องการในขนาดที่ใหญ่กว่า คุณสามารถปรับขนาดเป็นอินสแตนซ์ 10 รายการเพื่อรองรับการสร้างโมเดลที่รวดเร็วขึ้นได้

ปรับใช้

หลังจากการฝึกฝน คุณสามารถนำโมเดลไปใช้บนอินสแตนซ์ Amazon EC2 แบบปรับขยายอัตโนมัติในแต่ละพื้นที่ให้บริการได้ในคลิกเดียว ในระหว่างการทำงาน Amazon SageMaker จะจัดการโครงสร้างพื้นฐานการประมวลผลแทนคุณ เพื่อดำเนินการตรวจสอบคุณภาพการทำงาน นำแพตช์การรักษาความปลอดภัยข้อมูลไปใช้ และปฏิบัติการบำรุงรักษาตามกำหนดการอื่นๆ ทั้งหมดด้วยการตรวจสอบและการบันทึก Amazon CloudWatch ในระบบ

 

อินสแตนซ์ Amazon EC2 P3 และ AWS Deep Learning AMI

การกำหนดค่าสภาพแวดล้อมการพัฒนาล่วงหน้าเพื่อเริ่มต้นการสร้างแอปพลิเคชัน Deep Learning อย่างรวดเร็ว

AWS Deep Learning AMI คือทางเลือกเพื่อใช้แทน Amazon SageMaker สำหรับ Developer ผู้มีข้อกำหนดแบบปรับแต่งเองมากกว่า โดยจะมอบโครงสร้างพื้นฐานและเครื่องมือต่างๆ ให้แก่ผู้ปฏิบัติงานและนักวิจัยด้านแมชชีนเลิร์นนิ่งเพื่อเร่ง Deep Learning ในระบบคลาวด์ทุกขนาด คุณสามารถเปิดใช้อินสแตนซ์ Amazon EC2 P3 ที่ติดตั้งไว้ล่วงหน้าได้อย่างรวดเร็วโดยใช้เฟรมเวิร์ก Deep Learning ยอดนิยม เช่น TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon และ Keras ในการฝึกโมเดล AI แบบกำหนดเองที่ซับซ้อนซึ่งทดสอบด้วยอัลกอริธึมใหม่ หรือเรียนรู้ทักษะและเทคนิคใหม่ เรียนรู้เพิ่มเติม

อินสแตนซ์ Amazon EC2 P3 และการประมวลผลประสิทธิภาพสูง

แก้ไขปัญหาการประมวลผลขนาดใหญ่และรับข้อมูลเชิงลึกโดยใช้พลังของ HPC บน AWS

อินสแตนซ์ Amazon EC2 P3 คือแพลต์ฟอร์มที่สมบูรณ์แบบสำหรับการเรียกใช้การจำลองทางวิศวกรรม การเงินเชิงคำนวณ การวิเคราะห์คลื่นไหวสะเทือน การแสดงรูปแบบโมเลกุล จีโนมิกส์ การสร้างภาพ และปริมาณงานการประมวลผล GPU อื่นๆ การประมวลผลประสิทธิภาพสูง (HPC) ช่วยให้นักวิทยาศาสตร์และวิศวกรสามารถแก้ปัญหาที่ซับซ้อนและเน้นการประมวลผลเหล่านี้ได้ แอปพลิเคชัน HPC มักต้องการเครือข่ายที่มีประสิทธิภาพสูง การจัดเก็บที่รวดเร็ว หน่วยความจำปริมาณมาก ความสามารถในการประมวลผลสูง หรือทั้งหมดที่กล่าวมา AWS ช่วยให้คุณสามารถเพิ่มความเร็วในการค้นคว้าและลดเวลาในการได้ผลลัพธ์ลงโดยการเรียกใช้ HPC ในระบบคลาวด์ และโดยการปรับขนาดให้มีงานที่ทำพร้อมกันมีจำนวนมากกว่าที่ทำได้ในสภาพการทำงานในสถานที่ส่วนใหญ่ AWS ช่วยลดค่าใช้จ่ายโดยการจัดเตรียมโซลูชันซึ่งมีการเพิ่มประสิทธิภาพสำหรับแอปพลิเคชันเฉพาะ และไม่จำเป็นต้องมีการลงทุนจำนวนมาก เรียนรู้เพิ่มเติม

อินสแตนซ์ Amazon EC2 P3dn.24xlarge

อินสแตนซ์ใหม่ที่ เร็วกว่า แรงกว่า และมีขนาดที่ใหญ่กว่าเหมาะสำหรับแมชชีนเลิร์นนิ่งแบบกระจายและการประมวลผลประสิทธิภาพสูง

อินสแตนซ์ Amazon EC2 P3dn.24xlarge เป็นอินสแตนซ์ P3 ที่เร็วที่สุด มีประสิทธิภาพมากที่สุด และมีขนาดใหญ่สุดที่มีให้บริการ รวมถึงมีอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสูงถึง 100 Gbps มาพร้อม GPU NVIDIA® V100 Tensor Core จำนวน 8 ตัวที่มีหน่วยความจำ 32 GB ต่อตัว, Intel®Xeon® Scalable (Skylake) vCPU แบบกำหนดเอง 96 ตัว และพื้นที่จัดเก็บข้อมูล SSD บน NVMe ขนาด 1.8 TB ระบบเครือข่ายที่เร็วขึ้น โปรเซสเซอร์ใหม่ หน่วยความจำ GPU ที่เพิ่มขึ้นเป็นสองเท่า และ vCPU เพิ่มเติมจะช่วยให้ Developer สามารถลดเวลาในการฝึกรุ่น ML ได้เป็นอย่างมาก หรือใช้การจำลอง HPC เพิ่มเติมโดยการปรับมาตราส่วนงานของตนไปยังหลายอินสแตนซ์ (เช่นอินสแตนซ์ 16, 32 หรือ 64) โมเดลแมชชีนเลิร์นนิ่งจำเป็นต้องมีข้อมูลจำนวนมากสำหรับการฝึกฝน นอกเหนือไปจากการเพิ่มอัตราความเร็วของข้อมูลระหว่างอินสแตนซ์แล้ว อัตราความเร็วของเครือข่ายที่เพิ่มขึ้นของอินสแตนซ์ P3dn.24xlarge สามารถใช้เพื่อเพิ่มความเร็วในการเข้าถึงข้อมูลฝึกฝนขนาดใหญ่โดยการเชื่อมต่อไปยัง Amazon S3 หรือ โซลูชันระบบการแชร์ไฟล์เช่น Amazon EFS

กำจัดสภาวะคอขวดและลดเวลาในการฝึกฝนแมชชีนเลิร์นนิ่ง

ด้วยอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสูงสุดถึง 100 Gbps นักพัฒนาสามารถสามารถใช้ อินสแตนซ์ P3dn.24xlarge จำนวนมาก (เช่น 16, 32 หรือ 64 อินสแตนซ์) เพื่อการฝึกฝนแบบกระจายและลดเวลาการฝึกฝนโมเดลลงอย่างมาก ตัวประมวลผล 96vCPU ของ Intel Skylake CPU แบบกำหนดเองของ AWS พร้อมชุดคำสั่ง AVX-512 ทำงานด้วยความเร็ว 2.5GHz ช่วยเพิ่มประสิทธิภาพในการการประมวลผลข้อมูลเบื้องต้น นอกจากนี้ อินสแตนซ์ P3dn.24xlarge ใช้ระบบไนโตรของ AWS ที่ประกอบไปด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ไม่เปลืองทรัพยากร ซึ่งจะส่งมอบทรัพยากรการประมวลผลและหน่วยความจำทุกประเภทของฮาร์ดแวร์โฮสต์ไปยังอินสแตนซ์ของคุณ

 

ลดต้นทุนรวมในการเป็นเจ้าของ (TCO) ลงด้วยการเพิ่มประสิทธิภาพการใช้งาน GPU

เครือข่ายที่ปรับปรุงประสิทธิภาพโดยใช้ Elastic Network Adapter เวอร์ชันล่าสุดที่มาพร้อมกับแบนด์วิดท์เครือข่ายรวมสูงสุดถึง 100 Gbps สามารถแบ่งปันข้อมูลบนอินสแตนซ์ P3dn.24xlarge หลายอินสแตนซ์ และยังรวมไปถึงการเข้าถึงข้อมูลอัตราความเร็วสูงผ่าน Amazon S3 หรือ โซลูชันระบบการแชร์ไฟล์เช่น Amazon EFS การเข้าถึงข้อมูลอัตราความเร็วสูงมีความสำคัญต่อการเพิ่มประสิทธิภาพการใช้งาน GPU และมอบประสิทธิภาพการทำงานสูงสุดในอินสแตนซ์การประมวลผล

รองรับโมเดลที่ใหญ่ขึ้นและซับซ้อนมากขึ้น

อินสแตนซ์ P3dn.24xlarge มี NVIDIA V100 Tensor Core GPU ที่มีหน่วยความจำ 32 GB ที่จะมอบความยืดหยุ่นในการฝึกฝนโมเดลแมชชีนเลิร์นนิ่งที่ทันสมัยและใหญ่ขึ้น รวมถึงการประมวลผลชุดข้อมูลขนาดใหญ่อาทิเช่น รูปภาพขนาด 4k สำหรับระบบการจัดหมวดหมู่ภาพและการตรวจจับวัตถุ

 

รายละเอียดผลิตภัณฑ์อินสแตนซ​์ Amazon EC2 P3

ขนาดของอินสแตนซ์ GPU – Tesla V100 GPU ในเครือข่ายระดับเดียวกัน หน่วยความจำ GPU (GB) vCPU หน่วยความจำ (GB) แบนด์วิธเครือข่าย แบนด์วิธ EBS ราคาตามต้องการ/ชม.* การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 1 ปี* การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 3 ปี*
p3.2xlarge 1 ไม่มี 16 8 61 สูงสุด 10 Gbps 1.5 Gbps 3.06 USD 1.99 USD 1.05 USD
p3.8xlarge 4
NVLink 64 32 244 10 Gbps 7 Gbps 12.24 USD 7.96 USD 4.19 USD
p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps 24.48 USD 15.91 USD 8.39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 Gbps 14 Gbps 31.218 USD 18.30 USD 9.64 USD

* - ราคาที่แสดงนี้เป็นราคาสำหรับ Linux/Unix ในภูมิภาคของ AWS สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียตอนเหนือ) และปัดเศษเป็นเซนต์ สำหรับรายละเอียดราคาทั้งหมด โปรดดูหน้าราคา Amazon EC2

ลูกค้าสามารถซื้ออินสแตนซ์ P3 ในรูปแบบอินสแตนซ์ตามต้องการ อินสแตนซ์แบบเหมาจ่าย อินสแตนซ์ Spot และโฮสต์แบบเฉพาะเจาะจงได้

การเก็บค่าบริการตามวินาที

หนึ่งในข้อดีหลายประการของการประมวลผลในระบบคลาวด์คือความยืดหยุ่นในการจัดสรรและยกเลิกการจัดสรรทรัพยากรตามความต้องการ เมื่อเรียกเก็บค่าบริการเป็นวินาที ลูกค้าก็จะมีความยืดหยุ่นเพิ่มขึ้น ประหยัดได้มากขึ้น และช่วยให้ลูกค้าปรับประสิทธิภาพการจัดสรรทรัพยากรเพื่อบรรลุเป้าหมายด้านแมชชีนเลิร์นนิ่งได้

ราคาอินสแตนซ์แบบเหมาจ่าย

อินสแตนซ์แบบเหมาจ่ายให้ส่วนลดคุณค่อนข้างสูง (สูงสุด 75%) เมื่อเทียบกับราคาอินสแตนซ์แบบตามต้องการ นอกจากนี้ เมื่อมีการจัดอินสแตนซ์แบบเหมาจ่ายให้ Availability Zone จะมีการจัดเตรียมการสำรองพื้นที่ให้ ซึ่งเป็นการเพิ่มความมั่นใจว่าคุณสามารถเปิดใช้งานอินสแตนซ์ได้เมื่อคุณต้องการ

การกำหนดราคาแบบ SPOT

เมื่อใช้อินสแตนซ์ Spot คุณจะจ่ายเงินตามราคา Spot ที่มีผลในช่วงเวลาที่อินสแตนซ์ของคุณกำลังทำงานอยู่ อินสแตนซ์ Spot จะกำหนดโดย Amazon EC2 และค่อยๆ ปรับตามแนวโน้มระยะยาวของอุปสงค์และอุปทานของความจุอินสแตนซ์ Spot อินสแตนซ์ Spot มีให้บริการที่ส่วนลดสูงสุดถึง 90% เมื่อเทียบกับราคาตามต้องการ

ความพร้อมใช้งานระดับสากลในวงกว้างที่สุด

1856-Updated Map Image-P3 Instances-transparentBG_1024x543

อินสแตนซ์ Amazon EC2 P3.2xlarge, P3.8xlarge และ P3.16xlarge พร้อมให้บริการในภูมิภาค AWS 14 ภูมิภาค เพื่อให้ลูกค้ามีความยืดหยุ่นในการฝึกฝนและนำโมเดลแมชชีนเลิร์นนิ่งไปใช้ได้ในทุกที่ที่จัดเก็บข้อมูล ภูมิภาค AWS ที่ P3 พร้อมให้บริการ คือ สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียเหนือ), สหรัฐอเมริกาฝั่งตะวันออก (โอไฮโอ), สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน), แคนาดา (ภาคกลาง), ยุโรป (ไอร์แลนด์), ยุโรป (แฟรงเฟิร์ต), ยุโรป (ลอนดอน), เอเชียแปซิฟิก (โตเกียว), เอเชียแปซิฟิก (โซล), เอเชียแปซิฟิก (ซิดนีย์), เอเชียแปซิฟิก (สิงคโปร์), จีน (ปักกิ่ง), จีน (หนิงเซี่ย) และ AWS GovCloud (US)

ภูมิภาคของ AWS ที่อินสแตนซ์ P3dn.24xlarge สามารถใช้งานได้ คือ ยุโรป (ไอร์แลนด์) สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียเหนือ) และสหรัฐอเมริกาฝั่งตะวันตก (ออริกอน)

เริ่มต้นใช้งานอินสแตนซ์ Amazon EC2 P3 สำหรับแมชชีนเลิร์นนิ่ง

หากต้องการเริ่มต้นใช้งานได้ในไม่กี่นาที เรียนรู้เพิ่มเติมเกี่ยวกับ Amazon SageMaker หรือใช้ AWS Deep Learning AMI ซึ่งติดตั้งไว้ล่วงหน้าในเฟรมเวิร์ก Deep Learning ยอดนิยม เช่น Caffe2 และ Mxnet หรือสามารถใช้ NVIDIA AMI ซึ่งมาพร้อมกับไดรเวอร์ GPU และชุดเครื่องมือ CUDA ที่ติดตั้งมาล่วงหน้า

บล็อกและเว็บบินาร์

Webinar-thumb1

วันที่ออกอากาศ: 19 ธันวาคม 2018

ระดับ: 200

คอมพิวเตอร์วิทัศน์จัดการการฝึกฝนคอมพิวเตอร์เพื่อให้มีการทำความเข้าใจจากภาพหรือวิดีโอดิจิทัลในระดับสูง ประวัติศาสตร์ของคอมพิวเตอร์วิทัศน์มีมาตั้งแต่ทศวรรษที่ 1960 แต่ความก้าวหน้าในเทคโนโลยีการประมวลผลเมื่อช่วงหลังๆ นี้ทำให้เกิดแอปพลิเคชันต่างๆ เช่น การนำทางในพาหนะไร้คนขับ หัวข้อเสวนาเชิงเทคนิคนี้จะทบทวนขั้นตอนต่างๆ ที่จำเป็นในการสร้าง ฝึกฝน และปรับใช้โมเดลแมชชีนเลิร์นนิ่งสำหรับคอมพิวเตอร์วิทัศน์ เราจะเปรียบเทียบความคล้ายคลึงและความแตกต่างของการฝึกฝนโมเดลคอมพิวเตอร์วิทัศน์โดยใช้อินสแตนซ์ Amazon EC2 ที่แตกต่างกัน และเน้นย้ำว่าการใช้อินสแตนซ์ Amazon EC2 P3 ช่วยประหยัดเวลาได้มากเพียงใด

Webinar-thumb2

วันที่ออกอากาศ: 31 กรกฎาคม 2018

ระดับ 200

องค์กรต่างๆ จะรับมือกับคำถามที่ซับซ้อนขึ้นเรื่อยๆ ได้อย่างรวดเร็ว ทั้งในสาขาวิทยาศาสตร์ขั้นสูง พลังงาน เทคโนโลยีขั้นสูง และการแพทย์ แมชชีนเลิร์นนิ่ง (ML) ช่วยให้เกิดความเป็นไปได้ในการตรวจสอบสถานการณ์อันหลากหลายและสร้างคำตอบที่ดีที่สุดขึ้น ตั้งแต่ภาพ วิดีโอ การจดจำเสียงพูด ไปจนถึงระบบรถยนต์อัตโนมัติและการพยากรณ์อากาศ สำหรับนักวิทยาศาสตร์ข้อมูล นักวิจัย และ Developer ซึ่งต้องการเพิ่มความเร็วให้กับการพัฒนาแอปพลิเคชัน ML แล้วนั้น อินสแตนซ์ ​Amazon EC2 P3 คืออินสแตนซ์ประมวลผลด้วย GPU ที่ทรงพลังที่สุดที่พร้อมให้บริการในระบบคลาวด์

เกี่ยวกับ Amazon SageMaker

คลิกที่นี่เพื่อเรียนรู้เพิ่มเติม

เกี่ยวกับ Deep Learning บน AWS

คลิกที่นี่เพื่อเรียนรู้เพิ่มเติม

เกี่ยวกับการประมวลผลประสิทธิภาพสูง (HPC)

คลิกที่นี่เพื่อเรียนรู้เพิ่มเติม
พร้อมเริ่มต้นใช้งานหรือยัง
ลงชื่อสมัครใช้งาน
มีคำถามเพิ่มเติมหรือไม่
ติดต่อเรา