Mengumumkan ketersediaan umum instans Amazon EC2 G6e

Dikirim di: 15 Agt 2024

Hari ini kami mengumumkan ketersediaan umum instans Amazon EC2 G6e yang didukung oleh GPU NVIDIA L40S Tensor Core. Instans G6e dapat digunakan untuk berbagai kasus penggunaan machine learning dan komputasi spasial. Instans G6e memberikan kinerja hingga 2,5x lebih baik dibandingkan instans G5 dan biaya inferensi hingga 20% lebih rendah daripada instans P4d.

Pelanggan dapat menggunakan instans G6e untuk men-deploy model bahasa besar (LLM) dengan parameter hingga 13B dan model difusi untuk menghasilkan gambar, video, dan audio. Selain itu, instans G6e akan membuka kemampuan pelanggan untuk membuat simulasi 3D yang lebih besar dan lebih imersif serta kembaran digital untuk beban kerja komputasi spasial. Instans G6e menampilkan hingga 8 GPU NVIDIA L40S Tensor Core dengan total memori GPU 384 GB (memori 48 GB per GPU) dan prosesor AMD EPYC generasi ketiga. Mereka juga mendukung hingga 192 vCPU, bandwidth jaringan hingga 400 Gbps, memori sistem hingga 1,536 TB, dan penyimpanan SSD NVMe lokal hingga 7,6 TB. Pengembang dapat menjalankan beban kerja inferensi AI pada instans G6e menggunakan AMI AWS Deep Learning, AWS Deep Learning Containers, atau layanan terkelola seperti Amazon Elastic Kubernetes Service (Amazon EKS) dan AWS Batch, dengan dukungan Amazon SageMaker segera hadir.

Instans Amazon EC2 G6e tersedia saat ini di wilayah AWS AS Timur (Virginia Utara dan Ohio) dan AS Barat (Oregon). Pelanggan dapat membeli instans G6e sebagai Instans Sesuai Permintaan, Instans Cadangan, Instans Spot, atau sebagai bagian dari Savings Plans.

Untuk memulai, kunjungi Konsol Manajemen AWS, Antarmuka Baris Perintah (CLI) AWS, dan AWS SDK. Untuk mempelajari lebih lanjut, kunjungi halaman instans G6e.