ตอนนี้ อินสแตนซ์ Amazon EC2 G6e พร้อมใช้งานแล้วในรีเจี้ยนต่าง ๆ เพิ่มเติม

โพสต์บน: 21 พ.ย. 2024

เริ่มตั้งแต่วันนี้ อินสแตนซ์ Amazon EC2 G6e ที่ขับเคลื่อนโดย NVIDIA L40S Tensor Core GPU พร้อมให้ใช้งานแล้วในเอเชียแปซิฟิก (โตเกียว) และยุโรป (แฟรงก์เฟิร์ต, สเปน) อินสแตนซ์ G6e ใช้กับกรณีการใช้งานของแมชชีนเลิร์นนิงและการประมวลผลเชิงพื้นที่ได้หลากหลายกรณี อินสแตนซ์ G6e ให้ประสิทธิภาพได้ดีขึ้น 2.5 เท่าเมื่อเทียบกับอินสแตนซ์ G5 และมีค่าใช้จ่ายในการอนุมานน้อยกว่าอินสแตนซ์ P4d ถึง 20%

ลูกค้าสามารถใช้อินสแตนซ์ G6e เพื่อติดตั้งใช้งานโมเดลภาษาขนาดใหญ่ (LLM) ที่มีพารามิเตอร์สูงสุด 13B และโมเดลการแพร่กระจายต่าง ๆ เพื่อสร้างภาพ วิดีโอ และเสียงได้ นอกจากนี้ อินสแตนซ์ G6e ยังช่วยให้ลูกค้าสามารถสร้างการจำลอง 3 มิติที่มีขนาดใหญ่และสมจริงยิ่งขึ้นและสร้าง Digital Twin สำหรับเวิร์กโหลดการประมวลผลเชิงพื้นที่ได้ด้วย อินสแตนซ์ G6e มี NVIDIA L40S Tensor Core GPU สูงสุด 8 ตัวพร้อมหน่วยความจำ GPU รวม 384 GB (หน่วยความจำ 48 GB ต่อ GPU) และหน่วยประมวลผล AMD EPYC รุ่นที่ 3 นอกจากนี้ยังรองรับ vCPU สูงสุด 192 ตัว, แบนวิดท์เครือข่ายสูงสุด 400 Gbps, หน่วยความจำของระบบสูงสุด 1.536 TB และพื้นที่จัดเก็บ NVMe SSD ในเครื่องสูงสุด 7.6 TB นักพัฒนาสามารถเรียกใช้เวิร์กโหลดการอนุมานด้วย AI บนอินสแตนซ์ G6e ได้โดยใช้ AWS Deep Learning AMI, AWS Deep Learning Containers หรือบริการที่มีการจัดการ เช่น Amazon Elastic Kubernetes Service (Amazon EKS) และ AWS Batch โดยจะรองรับ Amazon SageMaker ในเร็ว ๆ นี้

อินสแตนซ์ Amazon EC2 G6e พร้อมให้ใช้งานในปัจจุบันใน AWS Region สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือ, โอไฮโอ), สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน), เอเชียแปซิฟิก (โตเกียว) และยุโรป (แฟรงก์เฟิร์ต, สเปน) ลูกค้าสามารถซื้ออินสแตนซ์ G6e มาใช้เป็น On-Demand Instance, Reserved Instance, Spot Instance หรือใช้เป็นส่วนหนึ่งของ Savings Plans ก็ได้

ในการเริ่มต้นใช้งาน โปรดไปที่คอนโซลการจัดการของ AWS, อินเทอร์เฟซบรรทัดคำสั่ง (CLI) ของ AWS และ AWS SDK หากต้องการเรียนรู้เพิ่มเติม โปรดไปที่หน้าอินสแตนซ์ G6e