- Amazon EC2›
- ประเภทอินสแตนซ์›
- อินสแตนซ์ G5
อินสแตนซ์ Amazon EC2 G5
อินสแตนซ์ที่ใช้ GPU ประสิทธิภาพสูงสำหรับการใช้งานแบบกราฟิกที่เข้มข้นและการอนุมานแมชชีนเลิร์นนิง
เหตุใดจึงควรเลือก Amazon EC2 G5 Instance
อินสแตนซ์ Amazon EC2 G5 เป็นอินสแตนซ์ที่ใช้ NVIDIA GPU รุ่นล่าสุด ซึ่งสามารถใช้ได้กับกรณีใช้งานที่เน้นกราฟิกสูงและแมชชีนเลิร์นนิงที่หลากหลาย อินสแตนซ์เหล่านี้จะมอบประสิทธิภาพที่ดีขึ้นสูงสุด 3 เท่าสำหรับแอปพลิเคชันที่เน้นกราฟิกและการอนุมานของแมชชีนเลิร์นนิง และมีประสิทธิภาพที่สูงขึ้นสูงสุดถึง 3.3 เท่าสำหรับการฝึกแมชชีนเลิร์นนิงเมื่อเทียบกับอินสแตนซ์ Amazon EC2 G4dn
ลูกค้าสามารถใช้อินสแตนซ์ G5 สำหรับแอปพลิเคชันที่เน้นกราฟิกสูง เช่น เวิร์กสเตชันระยะไกล การแสดงผลวิดีโอ และการเล่นเกมบนระบบคลาวด์ เพื่อสร้างกราฟิกที่มีความเสถียรสูงแบบเรียลไทม์ เมื่อใช้อินสแตนซ์ G5 ลูกค้าแมชชีนเลิร์นนิงจะได้รับโครงสร้างพื้นฐานที่มีประสิทธิภาพสูงและคุ้มค่าคุ้มราคาเพื่อฝึกฝนและปรับใช้โมเดลขนาดใหญ่และซับซ้อนมากขึ้นสำหรับการประมวลผลภาษาธรรมชาติ คอมพิวเตอร์วิชัน และกรณีการใช้งานกลไกตัวแนะนำ
อินสแตนซ์ G5 มีโปรเซสเซอร์ NVIDIA และโปรเซสเซอร์ AMD EPYC รุ่นที่สอง สูงสุด 8 ชิ้น นอกจากนี้ยังรองรับ vCPU สูงสุด 192 ตัว แบนวิดท์เครือข่ายสูงสุด 100 Gbps และพื้นที่จัดเก็บ NVMe SSD ภายในสูงสุด 7.6 TB
ประโยชน์
อินสแตนซ์ G5 มอบประสิทธิภาพด้านกราฟิกที่สูงขึ้นสูงสุด 3 เท่า และคุ้มค่าคุ้มราคากว่าอินสแตนซ์ G4dn ถึง 40% และมีแกนประมวลผล Ray Tracing มากกว่าอินสแตนซ์ EC2 ที่ใช้ GPU อื่น ๆ มีหน่วยความจำ 24 GB ต่อ GPU และรองรับเทคโนโลยี NVIDIA RTX ทำให้เหมาะอย่างยิ่งสำหรับการเรนเดอร์ฉากที่สมจริงได้เร็วยิ่งขึ้น ใช้งานเวิร์คสเตชันเสมือนที่ทรงพลัง และรองรับแอปพลิเคชันที่เน้นกราฟิกสูงที่มีความเสถียรสูงกว่า
อินสแตนซ์ G5 มอบประสิทธิภาพที่สูงขึ้นถึง 3 เท่า และมีความคุ้มค่าคุ้มราคาสูงขึ้นถึง 40% สำหรับการอนุมานของแมชชีนเลิร์นนิงเมื่อเปรียบเทียบกับอินสแตนซ์ G4dn โดยเป็นโซลูชันที่มีประสิทธิภาพสูงและคุ้มค่าคุ้มราคาสำหรับลูกค้าที่ต้องการใช้ไลบรารี NVIDIA เช่น TensorRT, CUDA และ cuDNN เพื่อรันแอปพลิเคชัน ML
อินสแตนซ์ G5 มีค่าใช้จ่ายในการฝึกต่ำกว่าอินสแตนซ์ Amazon EC2 P3 ถึง 15% นอกจากนี้ยังมอบประสิทธิภาพที่สูงขึ้นถึง 3.3 เท่าสำหรับการฝึก ML เมื่อเทียบกับอินสแตนซ์ G4dn อีกด้วย ด้วยเหตุนี้จึงทำให้เป็นโซลูชันที่คุ้มค่าคุ้มราคาสำหรับการฝึกฝนโมเดลแมชชีนเลิร์นนิงแบบโหนดเดียวที่มีความซับซ้อนปานกลางสำหรับการประมวลผลภาษาธรรมชาติ คอมพิวเตอร์วิชชัน และกรณีการใช้งานกลไกตัวแนะนำ
อินสแตนซ์ G5 ใช้ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ไม่เปลืองทรัพยากร ซึ่งจะส่งมอบทรัพยากรการประมวลผลและหน่วยความจำทุกประเภทของฮาร์ดแวร์โฮสต์ไปยังอินสแตนซ์ของคุณเพื่อประสิทธิภาพและความปลอดภัยในภาพรวมที่ดียิ่งขึ้น เมื่อใช้อินสแตนซ์ G5 ระบบ Nitro จะจัดเตรียม GPU ในโหมดส่งผ่าน ซึ่งให้ประสิทธิภาพที่เทียบเท่ากับ Bare Metal
คุณสมบัติ
อินสแตนซ์ G5 เป็นอินสแตนซ์แรกในระบบคลาวด์ที่มี NVIDIA A10G Tensor Core GPU ที่มอบประสิทธิภาพสูงสำหรับแอปพลิเคชันที่เน้นกราฟิกสูงและแมชชีนเลิร์นนิง แต่ละอินสแตนซ์มี GPU A10G Tensor Core สูงสุด 8 ตัวที่มาพร้อมกับคอร์ Ray Tracing 80 คอร์และหน่วยความจำ 24 GB ต่อ GPU นอกจากนี้พวกเขายังนำเสนอ NVIDIA Tensor Core รุ่นที่สามจำนวน 320 ตัว ซึ่งมี TOPS สูงสุดถึง 250 TOPS ส่งผลให้เวิร์กโหลด ML มีประสิทธิภาพสูง
อินสแตนซ์ G5 มีไดรเวอร์ NVIDIA RTX Enterprise และเกมให้กับลูกค้าโดยไม่มีค่าใช้จ่ายเพิ่มเติม สามารถใช้ไดรเวอร์ NVIDIA RTX Enterprise เพื่อมอบเวิร์กสเตชันแบบเสมือนคุณภาพสูงสำหรับเวิร์กโหลดที่เน้นกราฟิกสูงได้อย่างหลากหลาย ไดรเวอร์เกม NVIDIA มอบกราฟิกที่เหนือชั้นและการสนับสนุนการประมวลผลสำหรับการพัฒนาเกม นอกจากนี้อินสแตนซ์ G5 ยังรองรับไลบรารี CUDA, cuDNN, NVENC, TensorRT, cuBLAS, OpenCL, DirectX 11/12, Vulkan 1.1 และ OpenGL 4.5 อีกด้วย
อินสแตนซ์ G5 มาพร้อมกับอัตราการโอนถ่ายข้อมูลเครือข่ายสูงสุด 100 Gbps ทำให้สามารถรองรับความต้องการสำหรับการอนุมานของแมชชีนเลิร์นนิงที่มีเวลาแฝงต่ำและแอปพลิเคชันที่เน้นกราฟิกสูงได้ หน่วยความจำ 24 GB ต่อ GPU พร้อมด้วยการรองรับพื้นที่จัดเก็บ NVMe SSD ภายในสูงสุด 7.6 TB ช่วยให้สามารถจัดเก็บข้อมูลโมเดลและชุดข้อมูลขนาดใหญ่ในเครื่องสำหรับการฝึกและการอนุมานของแมชชีนเลิร์นนิงที่มีประสิทธิภาพสูง นอกจากนี้อินสแตนซ์ G5 ยังสามารถจัดเก็บไฟล์วิดีโอขนาดใหญ่ไว้ในเครื่องได้อีกด้วย ส่งผลให้มีประสิทธิภาพกราฟิกเพิ่มขึ้น และความสามารถในการเรนเดอร์ไฟล์วิดีโอที่ใหญ่และซับซ้อนยิ่งขึ้นได้
อินสแตนซ์ G5 สร้างขึ้นบน AWS Nitro System ซึ่งเป็นคอลเลกชันบล็อกการสร้างที่ครบถ้วนซึ่งถ่ายโอนฟังก์ชันการจำลองระบบเสมือนแบบดั้งเดิมจำนวนมากไปยังฮาร์ดแวร์และซอฟต์แวร์เฉพาะเพื่อมอบประสิทธิภาพสูง ความพร้อมใช้งานสูง และความปลอดภัยสูง ในขณะที่ลดค่าโสหุ้ยในการจำลองระบบเสมือน
รายละเอียดผลิตภัณฑ์
|
|
Instance Size
|
GPU
|
GPU Memory (GiB)
|
vCPUs
|
Memory (GiB)
|
Storage (GB)
|
Network Bandwidth (Gbps)
|
EBS Bandwidth (Gbps)
|
||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
VM แบบ GPU เดียว
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||||||||||
|
VM แบบหลาย GPU
|
|
|
|
|
|
|
|
|
เอเธนาสโคป
Athenascope ใช้การพัฒนาที่ล้ำหน้าในด้านคอมพิวเตอร์วิชชันและปัญญาประดิษฐ์เพื่อวิเคราะห์การเล่นเกมและแสดงช่วงเวลาการเล่นเกมที่น่าสนใจที่สุดโดยอัตโนมัติเพื่อสร้างวิดีโอไฮไลต์สำหรับนักเล่นเกมและผู้สร้างเนื้อหา
การวิเคราะห์วิดีโอที่มีเวลาแฝงต่ำโดยใช้โมเดล CV ของเราถือเป็นเป้าหมายพื้นฐานสำหรับเราในการสร้างประสบการณ์วิดีโอที่ราบรื่น อินสแตนซ์ Amazon EC2 G5 มีราคา/ประสิทธิภาพที่ดีขึ้น 30% จากการปรับใช้งานอินสแตนซ์ G4dn ก่อนหน้านี้
Chris Kirmse ซีอีโอและผู้ก่อตั้งของ Athenascope
Netflix
Netflix คือหนึ่งในผู้ให้บริการด้านความบันเทิงแบบสตรีมระดับชั้นนำของโลกที่มีสมาชิกกว่า 214 ล้านรายในกว่า 190 ประเทศ ซึ่งให้ผู้ใช้บริการได้เพลิดเพลินกับทีวีซีรีส์ สารคดี และภาพยนตร์เรื่องเด่นในหลากหลายแนวและภาษา
ด้วยอินสแตนซ์ Amazon EC2 G5 ใหม่ เราจึงสามารถจัดเตรียมเวิร์กสเตชันกราฟิกระดับไฮเอนด์ที่มีประสิทธิภาพที่สูงขึ้นถึง 3 เท่าได้เมื่อเปรียบเทียบกับเวิร์กสเตชันที่มีอินสแตนซ์ EC2 G4dn เมื่อใช้อินสแตนซ์ G5 ผู้สร้างเนื้อหาจะมีอิสระในการสร้างเนื้อหาที่ซับซ้อนและสมจริงยิ่งขึ้นสำหรับผู้ชมของเรา
Ben Tucker หัวหน้าฝ่ายเทคนิค วิศวกรรมระบบการผลิตแอนิเมชันของ Netflix
Varjo
สำหรับแอปพลิเคชัน VR/XR ระดับไฮเอนด์ อินสแตนซ์ Amazon EC2 G5 ถือเป็นตัวเปลี่ยนเกม เราสามารถเรียกใช้งานแอปพลิเคชันระดับมืออาชีพโดยมีความละเอียดในระดับสายตาของมนุษย์ที่เป็นเอกลักษณ์ของ Varjo ได้ โดยมีอัตราเฟรมที่สูงกว่าอินสแตนซ์ G4dn ถึงสามเท่า ซึ่งช่วยให้ลูกค้าของเราได้รับประสบการณ์คุณภาพที่ไม่เคยมีมาก่อนเมื่อสตรีมจากเซิร์ฟเวอร์
Urho Konttori ผู้ก่อตั้งและประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ Varjo
เริ่มต้นใช้งานอินสแตนซ์ G5
DLAMI มอบโครงสร้างพื้นฐานและเครื่องมือต่าง ๆ ให้กับผู้ปฏิบัติงานและนักวิจัย ML เพื่อเร่ง DL ในระบบคลาวด์ในทุกขนาด Deep Learning Containers เป็น Docker Image ที่ติดตั้งล่วงหน้าด้วยเฟรมเวิร์ก DL เพื่อปรับปรุงการนำสภาพแวดล้อม ML แบบกําหนดเองไปใช้จริงโดยช่วยคุณข้ามกระบวนการที่ซับซ้อนในการสร้างและปรับสภาพแวดล้อมของคุณให้เหมาะสมตั้งแต่เริ่มต้น
หากคุณต้องการจัดการเวิร์กโหลดคอนเทนเนอร์ของคุณเองผ่านบริการออร์เคสตราคอนเทนเนอร์ คุณสามารถปรับใช้อินสแตนซ์ G5 ด้วย Amazon EKS หรือ Amazon ECS ได้
คุณสามารถใช้งาน Amazon Machine Images (AMI) ต่าง ๆ ที่นำเสนอโดย AWS และ NVIDIA ที่มาพร้อมกับไดรเวอร์ NVIDIA ที่ติดตั้งไว้ได้
คุณสามารถปรับใช้โมเดล ML บนอินสแตนซ์ G5 โดยใช้ Amazon SageMaker ซึ่งเป็นบริการที่มีการจัดการอย่างสมบูรณ์สำหรับการสร้าง การฝึก และการปรับใช้โมเดล ML