ประกาศว่าอินสแตนซ์ Amazon EC2 G6e พร้อมให้ใช้งานโดยทั่วไป

โพสต์บน: 15 ส.ค. 2024

วันนี้ เราขอประกาศว่าอินสแตนซ์ Amazon EC2 G6e ที่ขับเคลื่อนโดย NVIDIA L40S Tensor Core GPU พร้อมให้ใช้งานโดยทั่วไปแล้ว อินสแตนซ์ G6e ใช้กับกรณีการใช้งานของแมชชีนเลิร์นนิงและการประมวลผลเชิงพื้นที่ได้หลากหลายกรณี อินสแตนซ์ G6e ให้ประสิทธิภาพได้ดีขึ้น 2.5 เท่าเมื่อเทียบกับอินสแตนซ์ G5 และมีค่าใช้จ่ายในการอนุมานน้อยกว่าอินสแตนซ์ P4d ถึง 20%

ลูกค้าสามารถใช้อินสแตนซ์ G6e เพื่อติดตั้งใช้งานโมเดลภาษาขนาดใหญ่ (LLM) ที่มีพารามิเตอร์สูงสุด 13B และโมเดลการแพร่กระจายต่าง ๆ เพื่อสร้างภาพ วิดีโอ และเสียงได้ นอกจากนี้ อินสแตนซ์ G6e ยังช่วยให้ลูกค้าสามารถสร้างการจำลอง 3 มิติที่มีขนาดใหญ่และสมจริงยิ่งขึ้นและสร้าง Digital Twin สำหรับเวิร์กโหลดการประมวลผลเชิงพื้นที่ได้ด้วย อินสแตนซ์ G6e มี NVIDIA L40S Tensor Core GPU สูงสุด 8 ตัวพร้อมหน่วยความจำ GPU รวม 384 GB (หน่วยความจำ 48 GB ต่อ GPU) และหน่วยประมวลผล AMD EPYC รุ่นที่ 3 นอกจากนี้ยังรองรับ vCPU สูงสุด 192 ตัว, แบนวิดท์เครือข่ายสูงสุด 400 Gbps, หน่วยความจำของระบบสูงสุด 1.536 TB และพื้นที่จัดเก็บ NVMe SSD ในเครื่องสูงสุด 7.6 TB นักพัฒนาสามารถเรียกใช้เวิร์กโหลดการอนุมานด้วย AI บนอินสแตนซ์ G6e ได้โดยใช้ AWS Deep Learning AMI, AWS Deep Learning Containers หรือบริการที่มีการจัดการ เช่น Amazon Elastic Kubernetes Service (Amazon EKS) และ AWS Batch โดยจะรองรับ Amazon SageMaker ในเร็ว ๆ นี้

อินสแตนซ์ Amazon EC2 G6e พร้อมให้บริการแล้ววันนี้ใน AWS Region ของสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือและโอไฮโอ) และสหรัฐอเมริกาฝั่งตะวันตก (ออริกอน) ลูกค้าสามารถซื้ออินสแตนซ์ G6e มาใช้เป็น On-Demand Instance, Reserved Instance, Spot Instance หรือใช้เป็นส่วนหนึ่งของ Savings Plans ก็ได้

ในการเริ่มต้นใช้งาน โปรดไปที่คอนโซลการจัดการของ AWS, อินเทอร์เฟซบรรทัดคำสั่ง (CLI) ของ AWS และ AWS SDK หากต้องการเรียนรู้เพิ่มเติม โปรดไปที่หน้าอินสแตนซ์ G6e