อินสแตนซ์ Amazon EC2 P3
อินสแตนซ์ Amazon EC2 P3 ให้บริการการประมวลผลแบบขนานในระบบคลาวด์ด้วย NVIDIA® V100 Tensor Core GPU ถึง 8 ตัวและอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสำหรับแมชชีนเลิร์นนิ่งและแอปพลิเคชัน HPC สูงถึง 100 Gbps อินสแตนซ์เหล่านี้จะมอบประสิทธิภาพที่มีความแม่นยำแบบผสมสูงสุด 1 เพตะฟล็อบต่ออินสแตนซ์เพื่อเร่งความเร็วให้กับแมชชีนเลิร์นนิ่งและแอปพลิเคชันการประมวลผลประสิทธิภาพสูงให้เร็วยิ่งขึ้น อินสแตนซ์ Amazon EC2 P3 ถูกพิสูจน์มาแล้วว่าช่วยลดเวลาในการฝึกฝนของแมชชีนเลิร์นนิ่งจากหลายวันเหลือเพียงไม่กี่นาที รวมทั้งเพิ่มจำนวนการจำลองสำหรับการประมวลผลประสิทธิภาพสูงที่เสร็จสมบูรณ์ได้มากถึง 3-4 เท่า
ด้วยแบนด์วิดท์เครือข่ายที่มากกว่าถึง 4 เท่าของอินสแตนซ์ P3.16xlarge อินสแตนซ์ Amazon EC2 P3dn.24xlarge ถือเป็นสมาชิกใหม่ในครอบครัว P3 ที่เหมาะสำหรับแมชชีนเลิร์นนิงและแอปพลิเคชัน HPC แบบกระจาย อินสแตนซ์แหล่านี้มีอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสูงถึง 100 Gbps มาพร้อมกับ Intel® Xeon® Scalable (Skylake) vCPU แบบกำหนดเอง 96 ตัว, NVIDIA® V100 Tensor Core GPU ถึง 8 ตัว ที่มีหน่วยความจำ 32 GiB ต่อตัว และพื้นที่จัดเก็บข้อมูล SSD บน NVMe ขนาด 1.8 TB และอินสแตนซ์ P3dn.24xlarge ยังรองรับ Elastic Fabric Adapter (EFA) ซึ่งช่วยเร่งการใช้งานแมชชีนเลิร์นนิงแบบกระจายที่ใช้ NVIDIA Collective Communications Library (NCCL) อีกด้วย EFA สามารถปรับขนาดเป็นหลายพัน GPU ได้ ซึ่งจะช่วยปรับปรุงอัตราการส่งข้อมูลและการปรับขนาดของโมเดลการฝึกฝนการเรียนรู้เชิงลึกได้อย่างมาก และนำไปสู่ผลลัพธ์ที่รวดเร็วขึ้น
ประโยชน์
ลดเวลาในการฝึกอบรมแมชชีนเลิร์นนิ่ง จากหลายวันเหลือเพียงไม่กี่นาที
สำหรับนักวิทยาศาสตร์ดาต้า นักวิจัย และนักพัฒนาที่ต้องการเร่งความเร็วแอปพลิเคชัน ML นั้น อินสแตนซ์ Amazon EC2 P3 เป็นอินสแตนซ์ที่เร็วที่สุดในระบบคลาวด์สำหรับการฝึกอบรมของ ML อินสแตนซ์ Amazon EC2 P3 ประกอบด้วย NVIDIA V100 Tensor Core GPU รุ่นล่าสุดจำนวนสูงสุด 8 หน่วย และมอบประสิทธิภาพที่มีความแม่นยำแบบผสมสูงสุด 1 เพตะฟล็อบ เพื่อเร่งความเร็วให้กับปริมาณงาน ML การฝึกอบรมโมเดลที่รวดเร็วขึ้นทำให้นักวิทยาศาสตร์ดาต้าและวิศวกรแมชชีนเลิร์นนิ่งทำซ้ำได้เร็วขึ้น ฝึกอบรมโมเดลได้มากขึ้น และเพิ่มความแม่นยำได้อีกด้วย
โซลูชันที่คุ้มค่าที่สุดในอุตสาหกรรมสำหรับการฝึกอบรม ML
หนึ่งในอินสแตนซ์ GPU ที่ทรงประสิทธิภาพมากที่สุดในระบบคลาวด์มาพร้อมกับตัวเลือกด้านราคาที่ยืดหยุ่น ซึ่งทำให้เกิดโซลูชันการฝึกอบรมแมชชีนเลิร์นนิ่งที่คุ้มค่าเป็นพิเศษ กับอินสแตนซ์ Amazon EC2 โดยทั่วไปแล้ว อินสแตนซ์ P3 สามารถรองรับ อินสแตนซ์ตามการใช้งานจริง อินสแตนซ์แบบเหมาจ่าย หรืออินสแตนซ์ Spot ได้ อินสแตนซ์ Spot ใช้ประโยชน์จากพื้นที่ EC2 instance ที่ไม่ได้ใช้งานและสามารถลดต้นทุน Amazon EC2 ของคุณได้มากถึง 70% จากราคาแบบตามความต้องการ
การประมวลผลที่มีประสิทธิภาพสูง ทรงพลัง และยืดหยุ่น
การเรียกใช้การประมวลผลประสิทธิภาพสูงบนอินสแตนซ์ Amazon EC2 P3 ต่างจากระบบในองค์กร โดยจะนำเสนอความจุเกือบไม่จำกัดเพื่อเพิ่มขนาดโครงสร้างพื้นฐาน และเพิ่มความยืดหยุ่นในการเปลี่ยนแปลงทรัพยากรได้อย่างง่ายดาย และทำได้บ่อยครั้งมากเท่าที่ปริมาณงานของคุณต้องการ คุณสามารถกำหนดค่าทรัพยากรให้ตรงกับความต้องการของแอปพลิเคชันและเปิดใช้คลัสเตอร์ HPC ได้ในเวลาเพียงไม่กี่นาที โดยชำระตามจำนวนที่คุณใช้งานเท่านั้น
เริ่มสร้างทันที
ใช้อิมเมจ Docker ที่จัดแพคเกจมาล่วงหน้าเพื่อปรับใช้สภาพแวดล้อมการเรียนรู้เชิงลึกภายในไม่กี่นาที อิมเมจดังกล่าวประกอบด้วยไลบรารีเฟรมเวิร์กการเรียนรู้เชิงลึกที่จำเป็น (ขณะนี้คือ TensorFlow และ Apache MXNet) และเครื่องมือ และได้รับการทดสอบอย่างเต็มรูปแบบแล้ว คุณสามารถเพิ่มไลบรารีและเครื่องมือของตัวเองบนอิมเมจเหล่านี้ได้อย่างง่ายดาย เพื่อให้มีการควบคุมการดูแล การปฏิบัติตามข้อกำหนด และการประมวลผลข้อมูลในระดับที่สูงขึ้น นอกจากนี้ อินสแตนซ์ Amazon EC2 P3 ยังทำงานร่วมกับ Amazon SageMaker ได้อย่างราบรื่นเพื่อมอบแพลตฟอร์มแมชชีนเลิร์นนิ่งที่ทรงพลังและครอบคลุมสมบูรณ์ Amazon SageMaker เป็นแพลตฟอร์มแมชชีนเลิร์นนิ่งที่ได้รับการจัดการอย่างเต็มรูปแบบ ซึ่งจะทำให้คุณสามารถสร้าง ฝึกฝน และปรับใช้โมเดลแมชชีนเลิร์นนิ่งได้อย่างรวดเร็วและง่ายดาย นอกจากนี้ อินสแตนซ์ Amazon EC2 P3 สามารถผนวกรวมกับ AWS Deep Learning Amazon Machine Images (AMI) ที่ได้รับการติดตั้งล่วงหน้าพร้อมกับเฟรมเวิร์กการเรียนรู้เชิงลึกยอดนิยม ทำให้การเริ่มต้นการฝึกอบรมและการอนุมานแมชชีนเลิร์นนิ่งรวดเร็วและง่ายขึ้น
การฝึกอบรมแมชชีนเลิร์นนิ่งหลายโหนดที่ปรับขนาดได้
คุณสามารถใช้งานอินสแตนซ์ Amazon EC2 P3 หลายอินสแตนซ์ด้วยอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสูงสุดถึง 100 Gbps เพื่อฝึกอบรมโมเดลแมชชีนเลิร์นนิ่งได้อย่างรวดเร็ว อัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายที่สูงขึ้นช่วยให้นักพัฒนากำจัดสภาวะคอขวดและเพิ่มจำนวนโมเดลการฝึกฝนไปยังอินสแตนซ์ P3 หลายอินสแตนซ์ได้อย่างมีประสิทธิภาพ ลูกค้าสามารถฝึกฝนโมเดลการจัดหมวดหมู่ภาพทั่วไป ResNet-50 ให้มีความแม่นยำระดับมาตรฐานอุตสาหกรรมได้ภายใน 18 นาทีด้วยการใช้อินสแตนซ์ P3 จำนวน 16 อินสแตนซ์ การที่ลูกค้า ML ส่วนใหญ่จะพัฒนาระบบให้มีประสิทธิภาพในระดับนี้แทบจะเป็นไปไม่ได้เลยในช่วงเวลาก่อนหน้านี้ เนื่องจากการพัฒนาจำเป็นต้องลงทุนในค่าใช้จ่ายด้านต้นทุนจำนวนมากเพื่อสร้างคลัสเตอร์ GPU ภายในองค์กร นักพัฒนาและวิศวกรแมชชีนเลิร์นนิ่งสามารถเข้าถึงประสิทธิภาพในระดับนี้ได้แล้ว ด้วยอินสแตนซ์ P3 และความพร้อมใช้งานผ่านโมเดลการใช้งานแบบตามความต้องการ นอกจากนี้ อินสแตนซ์ P3dn.24xlarge ยังรองรับ Elastic Fabric Adapter (EFA) ที่ใช้ NVIDIA Collective Communications Library (NCCL) ในการปรับขนาดเป็นหลายพัน GPU ด้วย
รองรับเฟรมเวิร์กของแมชชีนเลิร์นนิ่งหลักทั้งหมด
อินสแตนซ์ Amazon EC2 P3 รองรับเฟรมเวิร์กแมชชีนเลิร์นนิ่งหลักทั้งหมด ซึ่งรวมถึง TensorFlow, PyTorch, Apache MXNet, Caffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Chainer, Theano, Keras, Gluon และ Torch คุณจะมีความยืดหยุ่นในการเลือกเฟรมเวิร์กที่ทำงานได้ดีที่สุดสำหรับแอปพลิเคชันของคุณ
เรื่องราวของลูกค้า
Airbnb ใช้แมชชีนเลิร์นนิ่งเพื่อปรับประสิทธิภาพการแนะนำการค้นหา และปรับปรุงแนวทางราคาแบบไดนามิกสำหรับโฮสต์ ซึ่งทั้งสองอย่างได้นำไปสู่การแปลงเป็นจำนวนการจองที่เพิ่มมากขึ้น เมื่อใช้อินสแตนซ์ Amazon EC2 P3 แล้ว Airbnb สามารถเรียกใช้ปริมาณงานการฝึกอบรมที่รวดเร็วขึ้น ทำซ้ำได้มากขึ้น สร้างโมเดลแมชชีนเลิร์นนิ่งที่ดีขึ้น และรวมทั้งลดค่าใช้จ่ายได้
Celgene คือบริษัทเทคโนโลยีชีวภาพซึ่งพัฒนาการบำบัดแบบกำหนดเป้าหมายที่ตรงตามการรักษาผู้ป่วย บริษัทนี้ใช้ปริมาณงาน HPC สำหรับการตรวจหาลำดับทางพันธุกรรมที่ล้ำสมัยและการจำลองทางเคมีด้วยอินสแตนซ์ Amazon EC2 P3 ด้วยความสามารถในการประมวลผลนี้ Celgene สามารถฝึกอบรมโมเดลการเรียนรู้เชิงลึกให้จำแนกความต่างระหว่างเซลล์ร้ายกับเซลล์ไม่ร้ายได้ สมัยที่ยังไม่มีการใช้งานอินสแตนซ์ P3 จะต้องใช้เวลาร่วมสองเดือนในการดำเนินงานประมวลผลขนาดใหญ่ แต่ในปัจจุบันใช้เวลาเพียงสี่ชั่วโมง เทคโนโลยีของ AWS ช่วยให้ Celgene เพิ่มความเร็วในการพัฒนายารักษามะเร็งและโรคที่เกิดจากการอักเสบต่างๆ
Hyperconnect มีความเชี่ยวชาญในด้านการประยุกต์ใช้เทคโนโลยีใหม่ๆ ที่ใช้แมชชีนเลิร์นนิ่งในการประมวลผลรูปภาพและวิดีโอ และเป็นบริษัทแห่งแรกที่พัฒนา webRTC สำหรับแพลตฟอร์มมือถือ
“Hyperconnect ใช้การจัดหมวดหมู่รูปภาพด้วย AI บนแอปการสื่อสารผ่านวิดีโอของตนเพื่อจดจำสภาพแวดล้อมปัจจุบันที่ผู้ใช้อยู่ในสถานการณ์ เราร่นระยะเวลาในการฝึกอบรมโมเดล ML จากเดิมที่ต้องใช้เวลานานกว่าหนึ่งสัปดาห์เหลือเพียงไม่ถึงหนึ่งวัน โดยการย้ายจากเวิร์กสเตชันในองค์กรไปยังอินสแตนซ์ Amazon EC2 P3 แบบหลายอินสแตนซ์โดยใช้ Horovod การใช้ PyTorch เป็นเฟรมเวิร์กสำหรับแมชชีนเลิร์นนิ่งของเรานั้น ทำให้เราพัฒนาโมเดลได้อย่างรวดเร็วและใช้ประโยชน์จากไลบรารีที่มีอยู่ในชุมชนโอเพนซอร์ส”
Sungjoo Ha, ผู้อำนวยการห้องปฏิบัติการ AI ของ Hyperconnect
NerdWallet คือสตาร์ทอัพด้านการเงินส่วนบุคคลที่ให้เครื่องมือและคำแนะนำที่ช่วยให้ลูกค้าชำระหนี้ได้สะดวก เลือกผลิตภัณฑ์และบริการทางการเงินที่ดีที่สุด และจัดการกับเป้าหมายหลักในชีวิต อย่างเช่น การซื้อบ้านหรือการออมเงินเพื่อการเกษียณ บริษัทพึ่งพาวิทยาศาสตร์ข้อมูลและแมชชีนเลิร์นนิ่ง (ML) อย่างมากเพื่อเชื่อมโยงลูกค้ากับผลิตภัณฑ์ด้านการเงินที่เหมาะกับแต่ละบุคคล
การใช้ Amazon SageMaker และอินสแตนซ์ Amazon EC2 P3 ที่มาพร้อมกับ NVIDIA V100 Tensor Core GPU ได้ช่วยปรับปรุงความยืดหยุ่นและประสิทธิภาพการทำงานของ NerdWallet ทั้งยังช่วยร่นระยะเวลาที่ต้องใช้ในการฝึกอบรมโมเดล ML ให้แก่นักวิทยาศาสตร์ข้อมูลอีกด้วย “จากเดิมเราต้องใช้เวลาเป็นเดือนๆ จึงจะเปิดใช้งานและทำซ้ำบนโมเดลได้ แต่ตอนนี้ เราใช้เวลาเพียงแค่ไม่กี่วันเท่านั้น”
Ryan Kirkman ผู้จัดการอาวุโสฝ่ายวิศวกรรม – NerdWallet
อินสแตนซ์ Amazon EC2 P3 และ Amazon SageMaker
วิธีที่รวดเร็วที่สุดในการฝึกอบรมและเรียกใช้โมเดลแมชชีนเลิร์นนิ่ง
Amazon SageMaker คือบริการที่มีการจัดการเต็มรูปแบบซึ่งใช้ในการสร้าง ฝึกอบรม และปรับใช่โมเดลแมชชีนเลิร์นนิ่ง เมื่อใช้งานร่วมกับอินสแตนซ์ Amazon EC2 P3 ลูกค้าจะสามารถปรับขนาด GPU นับสิบ ร้อย และพันหน่วย เพื่อฝึกฝนโมเดลในทุกขนาดได้อย่างรวดเร็วโดยไม่ต้องเป็นกังวลเกี่ยวกับการตั้งค่าคลัสเตอร์และไปป์ไลน์ของข้อมูล คุณยังสามารถเข้าถึงทรัพยากร Amazon Virtual Private Cloud (Amazon VPC) สำหรับการฝึกฝนและโฮสต์เวิร์กโฟลว์ได้อย่างง่ายดายใน Amazon SageMaker ด้วยคุณสมบัตินี้ คุณจะสามารถใช้บัคเก็ต Amazon Simple Storage Service (Amazon S3) ซึ่งจะเข้าถึงได้ผ่าน VPC เท่านั้น เพื่อจัดเก็บข้อมูลการฝึกฝน รวมทั้งการจัดเก็บและการโฮสต์แบบจำลองโมเดลที่ได้รับมาจากขั้นตอนการฝึกฝนด้วย นอกเหนือจาก S3 โมเดลยังเข้าถึงทรัพยากร AWS อื่นๆ ทั้งหมดที่รวมอยู่ใน VPC ได้อีกด้วย เรียนรู้เพิ่มเติม
สร้าง
Amazon SageMaker ทำให้การสร้างโมเดลแมชชีนเลิร์นนิ่งและเตรียมพร้อมสำหรับการฝึกฝนได้อย่างง่ายดาย รวมทุกสิ่งที่คุณต้องการเพื่อจะเชื่อมต่อไปยังข้อมูลการฝึกฝนของคุณได้อย่างรวดเร็ว เพื่อเลือกและเพิ่มประสิทธิภาพอัลกอริธึมและเฟรมเวิร์กที่ดีที่สุดสำหรับแอปพลิเคชันของคุณ Amazon SageMaker จะรวม Jupyter Notebook ที่เป็นโฮสต์ที่จะทำให้สามารถสำรวจและแสดงภาพข้อมูลการฝึกของคุณที่เก็บไว้ใน Amazon S3 ได้อย่างง่ายดาย คุณยังสามารถใช้อินสแตนซ์โน้ตบุ๊คในการเขียนโค้ดเพื่อสร้างงานการฝึกฝนโมเดล นำโมเดลไปใช้กับการโฮสต์ Amazon SageMaker และทดสอบหรือตรวจสอบความถูกต้องของโมเดล
ฝึกฝน
คุณสามารถเริ่มการฝึกฝนโมเดลของคุณได้ด้วยการคลิกเพียงครั้งเดียวบนคอนโซล หรือด้วยการเรียกใช้ API เพียงครั้งเดียว Amazon SageMaker ได้รับการกำหนดค่าล่วงหน้าด้วย TensorFlow และ Apache MXNet เวอร์ชันล่าสุด และการสนับสนุนไลบรารี CUDA9 เพื่อประสิทธิภาพที่ดีที่สุดเมื่อใช้งานกับ NVIDIA GPU นอกจากนี้การปรับประสิทธิภาพแบบไฮเปอร์พารามิเตอร์ยังปรับแต่งโมเดลของคุณแบบอัตโนมัติโดยการปรับการผสมผสานของพารามิเตอร์โมเดลที่แตกต่างกันอย่างอัจฉริยะ เพื่อทำให้เกิดการคาดคะเนที่ถูกต้องแม่นยำมากที่สุด สำหรับความต้องการในขนาดที่ใหญ่กว่า คุณสามารถปรับขนาดเป็นอินสแตนซ์ 10 รายการเพื่อรองรับการสร้างโมเดลที่รวดเร็วขึ้นได้
ปรับใช้
หลังจากการฝึกฝน คุณสามารถนำโมเดลไปใช้บนอินสแตนซ์ Amazon EC2 แบบปรับขยายอัตโนมัติในแต่ละพื้นที่ให้บริการได้ในคลิกเดียว ในการผลิตนั้น Amazon SageMaker จะจัดการโครงสร้างพื้นฐานการประมวลผลแทนคุณ เพื่อดำเนินการตรวจสอบคุณภาพการทำงาน นำแพตช์การรักษาความปลอดภัยข้อมูลไปใช้ และปฏิบัติการบำรุงรักษาตามกำหนดการอื่นๆ ทั้งหมดด้วยการตรวจสอบและการบันทึกของ Amazon CloudWatch ในตัว
อินสแตนซ์ Amazon EC2 P3 และ AWS Deep Learning AMI
การกำหนดค่าสภาพแวดล้อมการพัฒนาล่วงหน้าเพื่อเริ่มต้นการสร้างแอปพลิเคชันการเรียนรู้เชิงลึกอย่างรวดเร็ว
AWS Deep Learning AMI คือทางเลือกเพื่อใช้แทน Amazon SageMaker สำหรับ Developer ผู้มีข้อกำหนดแบบปรับแต่งเองมากกว่า โดยจะมอบโครงสร้างพื้นฐานและเครื่องมือต่างๆ ให้แก่ผู้ปฏิบัติงานและนักวิจัยด้านแมชชีนเลิร์นนิ่งเพื่อเร่ง Deep Learning ในระบบคลาวด์ทุกขนาด คุณสามารถเปิดใช้อินสแตนซ์ Amazon EC2 P3 ที่ติดตั้งไว้ล่วงหน้าได้อย่างรวดเร็วโดยใช้เฟรมเวิร์กการเรียนรู้เชิงลึกยอดนิยม เช่น TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon และ Keras ในการฝึกอบรมโมเดล AI แบบกำหนดเองที่ซับซ้อน ทดสอบด้วยอัลกอริทึมใหม่ หรือเรียนรู้ทักษะและเทคนิคใหม่ เรียนรู้เพิ่มเติม >>
อินสแตนซ์ Amazon EC2 P3 และการประมวลผลประสิทธิภาพสูง
แก้ไขปัญหาการประมวลผลขนาดใหญ่และรับข้อมูลเชิงลึกโดยใช้พลังของ HPC บน AWS
อินสแตนซ์ Amazon EC2 P3 คือแพลต์ฟอร์มที่สมบูรณ์แบบสำหรับการเรียกใช้การจำลองทางวิศวกรรม การเงินเชิงคำนวณ การวิเคราะห์คลื่นไหวสะเทือน การแสดงรูปแบบโมเลกุล จีโนมิกส์ การสร้างภาพ และปริมาณงานการประมวลผล GPU อื่นๆ การประมวลผลประสิทธิภาพสูง (HPC) ช่วยให้นักวิทยาศาสตร์และวิศวกรสามารถแก้ปัญหาที่ซับซ้อนและเน้นการประมวลผลเหล่านี้ได้ การใช้งาน HPC มักต้องการเครือข่ายที่มีประสิทธิภาพสูง การจัดเก็บที่รวดเร็ว หน่วยความจำปริมาณมาก ความสามารถในการประมวลผลสูง หรือทั้งหมดที่กล่าวมา AWS ช่วยให้คุณสามารถเพิ่มความเร็วในการค้นคว้าและลดเวลาในการได้ผลลัพธ์ลงโดยการเรียกใช้ HPC ในระบบคลาวด์ และโดยการปรับขนาดให้มีงานที่ทำพร้อมกันมีจำนวนมากกว่าที่ทำได้ในสภาพแวดล้อมภายในองค์กรส่วนใหญ่ ตัวอย่างเช่น อินสแตนซ์ P3dn.24xlarge จะรองรับ Elastic Fabric Adapter (EFA) ที่ช่วยให้การใช้งาน HPC ที่ใช้ Message Passing Interface (MPI) ปรับขนาดเป็นหลายพัน GPU AWS ช่วยลดค่าใช้จ่ายโดยการจัดเตรียมโซลูชันซึ่งมีการปรับให้เหมาะกับแอปพลิเคชันเฉพาะ และไม่จำเป็นต้องมีการลงทุนจำนวนมาก เรียนรู้เพิ่มเติม >>
รองรับ NVIDIA RTX Virtual Workstation
AMI ของ NVIDIA RTX Virtual Workstation มีประสิทธิภาพทางกราฟิกระดับสูงโดยใช้อินสแตนซ์ P3 ที่แสนทรงพลังร่วมกับ NVIDIA Volta V100 GPU ซึ่งทำงานใน AWS Cloud โดย AMI เหล่านี้มีซอฟต์แวร์กราฟิก NVIDIA GPU รุ่นล่าสุดที่ติดตั้งไว้ล่วงหน้าพร้อมกับไดรเวอร์ RTX และการรับรอง NVIDIA ISV รุ่นล่าสุดซึ่งรองรับความละเอียดแบบเดสก์ท็อประดับ 4K ได้สูงสุดถึง 4 จอด้วยกัน อินสแตนซ์ P3 ที่มาพร้อมกับ NVIDIA V100 GPU ซึ่งประสานรวมเข้ากับ RTX vWS จะทำให้เกิดเวิร์กสเตชันประสิทธิภาพสูงในระบบคลาวด์ ด้วยหน่วยความจำ GPU สูงสุดถึง 32 GiB พร้อมทั้ง Ray Tracing ที่รวดเร็วและการเรนเดอร์ที่ขับเคลื่อนด้วย AI
โดย AMI ใหม่นี้พร้อมให้ใช้งานแล้วใน AWS Marketplace โดยรองรับ Windows Server 2016 และ Windows Server 2019
อินสแตนซ์ Amazon EC2 P3dn.24xlarge
อินสแตนซ์ใหม่ที่เร็วกว่า แรงกว่า และมีขนาดที่ใหญ่กว่าที่เหมาะสำหรับแมชชีนเลิร์นนิงแบบกระจายและการประมวลผลประสิทธิภาพสูง
อินสแตนซ์ Amazon EC2 P3dn.24xlarge เป็นอินสแตนซ์ P3 ที่เร็วที่สุด มีประสิทธิภาพมากที่สุด และมีขนาดใหญ่สุดที่มีให้บริการ รวมถึงมีอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสูงถึง 100 Gbps โดยมาพร้อม GPU NVIDIA® V100 Tensor Core จำนวน 8 ตัวที่มีหน่วยความจำ 32 GiB ต่อตัว, Intel®Xeon® Scalable (Skylake) vCPU แบบกำหนดเอง 96 ตัว และพื้นที่จัดเก็บข้อมูล SSD บน NVMe ในเครื่องขนาด 1.8 TB ระบบเครือข่ายที่เร็วขึ้น โปรเซสเซอร์ใหม่ หน่วยความจำ GPU ที่เพิ่มขึ้นเป็นสองเท่า และ vCPU เพิ่มเติมจะช่วยให้นักพัฒนาสามารถลดเวลาในการฝึกฝนโมเดล ML ได้เป็นอย่างมาก หรือใช้การจำลอง HPC เพิ่มเติมโดยการปรับขยายงานของตนไปยังหลายอินสแตนซ์ (เช่น อินสแตนซ์ 16, 32 หรือ 64 รายการ) โมเดลแมชชีนเลิร์นนิงจำเป็นต้องมีข้อมูลจำนวนมากสำหรับการฝึกฝน นอกเหนือไปจากการเพิ่มอัตราความเร็วการส่งผ่านข้อมูลระหว่างอินสแตนซ์แล้ว อัตราความเร็วของเครือข่ายที่เพิ่มขึ้นของอินสแตนซ์ P3dn.24xlarge ก็สามารถใช้เพื่อเพิ่มความเร็วในการเข้าถึงข้อมูลการฝึกฝนขนาดใหญ่ได้อีกด้วย โดยเชื่อมต่อไปยัง Amazon S3 หรือโซลูชันระบบไฟล์ที่แชร์ร่วมกัน เช่น Amazon EFS
กำจัดสภาวะคอขวดและลดเวลาในการฝึกฝนแมชชีนเลิร์นนิง
ด้วยอัตราความเร็วในการรับส่งข้อมูลผ่านเครือข่ายสูงสุดถึง 100 Gbps นักพัฒนาจึงสามารถใช้อินสแตนซ์ P3dn.24xlarge จำนวนมากเพื่อการฝึกฝนแบบกระจาย และลดเวลาการฝึกฝนโมเดลลงอย่างมาก ตัวประมวลผล 96vCPU ของหน่วยประมวลผล Intel Skylake แบบกำหนดเองของ AWS พร้อมชุดคำสั่ง AVX-512 ที่ทำงานด้วยความเร็ว 2.5GHz ช่วยเพิ่มประสิทธิภาพในการการประมวลผลข้อมูลเบื้องต้น นอกจากนี้ อินสแตนซ์ P3dn.24xlarge ใช้ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้ทรัพยากรน้อย ซึ่งจะส่งมอบทรัพยากรการประมวลผลและหน่วยความจำทุกประเภทของฮาร์ดแวร์โฮสต์ไปยังอินสแตนซ์ของคุณ และอินสแตนซ์ P3dn.24xlarge ยังรองรับ Elastic Fabric Adapter ซึ่งช่วยให้การใช้งาน ML ที่ใช้ NVIDIA Collective Communications Library (NCCL) ปรับขนาดเป็นหลายพัน GPU ได้อีกด้วย
ลดต้นทุนรวมในการเป็นเจ้าของ (TCO) ลงด้วยการเพิ่มประสิทธิภาพการใช้งาน GPU
เครือข่ายที่ปรับปรุงประสิทธิภาพโดยใช้ Elastic Network Adapter เวอร์ชันล่าสุดที่มาพร้อมกับแบนด์วิดท์เครือข่ายรวมสูงสุดถึง 100 Gbps สามารถแบ่งปันข้อมูลบนอินสแตนซ์ P3dn.24xlarge หลายอินสแตนซ์ และยังรวมไปถึงการเข้าถึงข้อมูลอัตราความเร็วสูงผ่าน Amazon S3 หรือ โซลูชันระบบการแชร์ไฟล์เช่น Amazon EFS การเข้าถึงข้อมูลอัตราความเร็วสูงมีความสำคัญต่อการเพิ่มประสิทธิภาพการใช้งาน GPU และมอบประสิทธิภาพการทำงานสูงสุดในอินสแตนซ์การประมวลผล
รองรับโมเดลที่ใหญ่ขึ้นและซับซ้อนมากขึ้น
อินสแตนซ์ P3dn.24xlarge มี NVIDIA V100 Tensor Core GPU ที่มีหน่วยความจำ 32 GiB ที่จะมอบความยืดหยุ่นในการฝึกฝนโมเดลแมชชีนเลิร์นนิงขั้นสูงขึ้นและใหญ่ขึ้น รวมถึงการประมวลผลชุดข้อมูลขนาดใหญ่ เช่น รูปภาพขนาด 4k สำหรับระบบการจัดหมวดหมู่ภาพและการตรวจจับวัตถุ
รายละเอียดผลิตภัณฑ์อินสแตนซ์ Amazon EC2 P3
ขนาดของอินสแตนซ์ | GPU – Tesla V100 | GPU แบบ Peer to Peer | หน่วยความจำ GPU (GB) | vCPU | หน่วยความจำ (GB) | แบนด์วิธเครือข่าย | แบนด์วิธ EBS | ราคาตามต้องการ/ชม.* | การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 1 ปี* | การใช้งานอินสแตนซ์แบบเหมาจ่ายรายชั่วโมงแบบคุ้มค่าเป็นระยะเวลา 3 ปี* |
---|---|---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | ไม่ระบุ | 16 | 8 | 61 | สูงสุด 10 Gbps | 1.5 Gbps | 3.06 USD | 1.99 USD | 1.05 USD |
p3.8xlarge | 4 |
NVLink | 64 | 32 | 244 | 10 Gbps | 7 Gbps | 12.24 USD | 7.96 USD | 4.19 USD |
p3.16xlarge | 8 | NVLink | 128 | 64 | 488 | 25 Gbps | 14 Gbps | 24.48 USD | 15.91 USD | 8.39 USD |
p3dn.24xlarge | 8 | NVLink | 256 | 96 | 768 | 100 Gbps | 19 Gbps | 31.218 USD | 18.30 USD | 9.64 USD |
* - ราคาที่แสดงนี้เป็นราคาสำหรับ Linux/Unix ในภูมิภาคของ AWS สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียตอนเหนือ) และปัดเศษเป็นเซนต์ สำหรับรายละเอียดราคาทั้งหมด โปรดดูหน้าราคา Amazon EC2
ลูกค้าสามารถซื้ออินสแตนซ์ P3 ในรูปแบบอินสแตนซ์ตามความต้องการ อินสแตนซ์แบบเหมาจ่าย อินสแตนซ์ Spot และโฮสต์เฉพาะได้
การเก็บค่าบริการตามวินาที
หนึ่งในข้อดีหลายประการของการประมวลผลในระบบคลาวด์คือความยืดหยุ่นในการจัดเตรียมและยกเลิกการจัดเตรียมทรัพยากรตามความต้องการ เมื่อเรียกเก็บค่าบริการเป็นวินาที เราก็ช่วยให้ลูกค้ามีความยืดหยุ่นเพิ่มขึ้น ประหยัดได้มากขึ้น และช่วยให้ลูกค้าปรับการจัดสรรทรัพยากรให้เหมาะสม เพื่อบรรลุเป้าหมายด้านแมชชีนเลิร์นนิ่งได้
ราคาอินสแตนซ์แบบเหมาจ่าย
อินสแตนซ์แบบเหมาจ่ายให้ส่วนลดคุณจำนวนมาก (สูงสุด 75%) เมื่อเทียบกับราคาอินสแตนซ์แบบตามความต้องการ นอกจากนี้ เมื่อมีการจัดอินสแตนซ์แบบเหมาจ่ายให้ Availability Zone ก็จะมีการจัดเตรียมการสำรองความจุให้ ซึ่งเป็นการเพิ่มความมั่นใจว่าคุณสามารถเปิดใช้งานอินสแตนซ์ได้เมื่อคุณต้องการ
การกำหนดราคาแบบ SPOT
เมื่อใช้อินสแตนซ์ Spot คุณจะจ่ายเงินตามราคา Spot ที่มีผลในช่วงเวลาที่อินสแตนซ์ของคุณกำลังทำงานอยู่ อินสแตนซ์ Spot จะกำหนดโดย Amazon EC2 และค่อยๆ ปรับตามแนวโน้มระยะยาวของอุปสงค์และอุปทานของความจุอินสแตนซ์ Spot อินสแตนซ์ Spot มีให้บริการที่ส่วนลดสูงสุดถึง 90% เมื่อเทียบกับราคาตามความต้องการ
ความพร้อมใช้งานระดับสากลในวงกว้างที่สุด
อินสแตนซ์ Amazon EC2 P3.2xlarge, P3.8xlarge และ P3.16xlarge พร้อมให้บริการในเขต AWS 14 เขต เพื่อให้ลูกค้ามีความยืดหยุ่นในการฝึกอบรมและปรับใช้โมเดลแมชชีนเลิร์นนิ่งได้ในทุกที่ที่จัดเก็บข้อมูล ภูมิภาค AWS ที่ P3 พร้อมให้บริการ คือ สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียเหนือ), สหรัฐอเมริกาฝั่งตะวันออก (โอไฮโอ), สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน), แคนาดา (ภาคกลาง), สหภาพยุโรป (ไอร์แลนด์), สหภาพยุโรป (แฟรงเฟิร์ต), สหภาพยุโรป (ลอนดอน), เอเชียแปซิฟิก (โตเกียว), เอเชียแปซิฟิก (โซล), เอเชียแปซิฟิก (ซิดนีย์), เอเชียแปซิฟิก (สิงคโปร์), จีน (ปักกิ่ง), จีน (หนิงเซี่ย) และ GovCloud (สหรัฐอเมริกาฝั่งตะวันตก)
เขตของ AWS ที่อินสแตนซ์ P3dn.24xlarge ใช้งานได้ คือ เอเชียแปซิฟิก (โตเกียว), สหภาพยุโรป (ไอร์แลนด์), สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียเหนือ), สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน), GovCloud (สหรัฐอเมริกาฝั่งตะวันตก) และ GovCloud (สหรัฐอเมริกาฝั่งตะวันออก)
เริ่มต้นใช้งานอินสแตนซ์ Amazon EC2 P3 สำหรับแมชชีนเลิร์นนิ่ง
หากต้องการเริ่มต้นใช้งานได้ในไม่กี่นาที ให้เรียนรู้เพิ่มเติมเกี่ยวกับ Amazon SageMaker หรือใช้ AWS Deep Learning AMI ซึ่งติดตั้งไว้ล่วงหน้าในเฟรมเวิร์กการเรียนรู้เชิงลึกยอดนิยม เช่น Caffe2 และ Mxnet หรือคุณยังสามารถใช้ NVIDIA AMI ซึ่งมาพร้อมกับไดรเวอร์ GPU และชุดเครื่องมือ CUDA ที่ติดตั้งไว้ล่วงหน้า
บล็อก บทความ และการสัมมนาผ่านเว็บ
วันที่ออกอากาศ: 19 ธันวาคม 2018
ระดับ: 200
คอมพิวเตอร์วิทัศน์จัดการการฝึกฝนคอมพิวเตอร์เพื่อให้มีการทำความเข้าใจจากภาพหรือวิดีโอดิจิทัลในระดับสูง ประวัติศาสตร์ของคอมพิวเตอร์วิทัศน์มีมาตั้งแต่ทศวรรษที่ 1960 แต่ความก้าวหน้าในเทคโนโลยีการประมวลผลเมื่อช่วงหลังๆ นี้ทำให้เกิดแอปพลิเคชันต่างๆ เช่น การนำทางในพาหนะไร้คนขับ หัวข้อเสวนาเชิงเทคนิคนี้จะทบทวนขั้นตอนต่างๆ ที่จำเป็นในการสร้าง ฝึกฝน และปรับใช้โมเดลแมชชีนเลิร์นนิ่งสำหรับคอมพิวเตอร์วิทัศน์ เราจะเปรียบเทียบความคล้ายคลึงและความแตกต่างของการฝึกอบรมโมเดลคอมพิวเตอร์วิทัศน์โดยใช้อินสแตนซ์ Amazon EC2 ที่แตกต่างกัน และเน้นว่าการใช้อินสแตนซ์ Amazon EC2 P3 ช่วยประหยัดเวลาได้มากเพียงใด
วันที่ออกอากาศ: 31 กรกฎาคม 2018
ระดับ 200
องค์กรต่างๆ จะรับมือกับคำถามที่ซับซ้อนขึ้นเรื่อยๆ ได้อย่างรวดเร็ว ทั้งในสาขาวิทยาศาสตร์ขั้นสูง พลังงาน เทคโนโลยีขั้นสูง และการแพทย์ แมชชีนเลิร์นนิ่ง (ML) ช่วยให้เกิดความเป็นไปได้ในการตรวจสอบสถานการณ์อันหลากหลายและสร้างคำตอบที่ดีที่สุดขึ้น ตั้งแต่ภาพ วิดีโอ การจดจำเสียงพูด ไปจนถึงระบบรถยนต์อัตโนมัติและการพยากรณ์อากาศ สำหรับนักวิทยาศาสตร์ดาต้า นักวิจัย และนักพัฒนาซึ่งต้องการเพิ่มความเร็วให้กับการพัฒนาแอปพลิเคชัน ML แล้วนั้น อินสแตนซ์ Amazon EC2 P3 คืออินสแตนซ์ประมวลผลด้วย GPU ที่ทรงพลังที่สุดที่พร้อมให้บริการในระบบคลาวด์
เกี่ยวกับ Amazon SageMaker
เกี่ยวกับ Deep Learning บน AWS
เกี่ยวกับการประมวลผลประสิทธิภาพสูง (HPC)