อินสแตนซ์ Amazon EC2 G6e พร้อมให้ใช้งานแล้วในรีเจี้ยนสตอกโฮล์ม
เริ่มตั้งแต่วันนี้เป็นต้นไป อินสแตนซ์ Amazon EC2 G6e ที่ขับเคลื่อนโดย NVIDIA L40S Tensor Core GPU พร้อมให้ใช้งานแล้วในรีเจี้ยนยุโรป (สตอกโฮล์ม) อินสแตนซ์ G6e ใช้กับกรณีการใช้งานของแมชชีนเลิร์นนิงและการประมวลผลเชิงพื้นที่ได้หลากหลายกรณี
ลูกค้าสามารถใช้อินสแตนซ์ G6e เพื่อติดตั้งใช้งานโมเดลภาษาขนาดใหญ่ (LLM) ที่มีพารามิเตอร์สูงสุด 13B และโมเดลการแพร่กระจายต่าง ๆ เพื่อสร้างภาพ วิดีโอ และเสียงได้ นอกจากนี้ อินสแตนซ์ G6e ยังช่วยให้ลูกค้าสามารถสร้างการจำลอง 3 มิติที่มีขนาดใหญ่และสมจริงยิ่งขึ้นและสร้าง Digital Twin สำหรับเวิร์กโหลดการประมวลผลเชิงพื้นที่ได้ด้วย อินสแตนซ์ G6e มี NVIDIA L40S Tensor Core GPU สูงสุด 8 ตัว พร้อมหน่วยความจำ 48 GB ต่อ GPU และโปรเซสเซอร์ AMD EPYC รุ่นที่สาม นอกจากนี้ยังรองรับ vCPU สูงสุด 192 ตัว, แบนวิดท์เครือข่ายสูงสุด 400 Gbps, หน่วยความจำของระบบสูงสุด 1.536 TB และพื้นที่จัดเก็บ NVMe SSD ในเครื่องสูงสุด 7.6 TB นักพัฒนาสามารถเรียกใช้เวิร์กโหลดการอนุมานด้วย AI บนอินสแตนซ์ G6e ได้โดยใช้ AWS Deep Learning AMI, AWS Deep Learning Containers หรือบริการที่มีการจัดการ เช่น Amazon Elastic Kubernetes Service (Amazon EKS), AWS Batch และ Amazon SageMaker
อินสแตนซ์ Amazon EC2 G6e พร้อมให้ใช้งานในปัจจุบันใน AWS Region สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือ, โอไฮโอ), สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน), เอเชียแปซิฟิก (โตเกียว) และยุโรป (แฟรงก์เฟิร์ต, สเปน, สตอกโฮล์ม) ลูกค้าสามารถซื้ออินสแตนซ์ G6e มาใช้เป็น On-Demand Instance, Reserved Instance, Spot Instance หรือใช้เป็นส่วนหนึ่งของ Savings Plans ก็ได้
ในการเริ่มต้นใช้งาน โปรดไปที่คอนโซลการจัดการของ AWS, อินเทอร์เฟซบรรทัดคำสั่ง (CLI) ของ AWS และ AWS SDK หากต้องการเรียนรู้เพิ่มเติม โปรดไปที่หน้าอินสแตนซ์ G6e