Amazon EC2 G6e 인스턴스, 이제 추가 리전에서 사용 가능
오늘부터 NVIDIA L40S Tensor Core GPU로 구동되는 Amazon EC2 G6e 인스턴스를 아시아 태평양(도쿄)과 유럽(프랑크푸르트, 스페인)에서 사용할 수 있습니다. G6e 인스턴스는 광범위한 기계 학습 사용 사례와 공간 컴퓨팅 사용 사례에 사용할 수 있습니다. G6e 인스턴스는 G5 인스턴스보다 성능이 최대 2.5배 뛰어나고 P4d 인스턴스보다 추론 비용이 최대 20% 저렴합니다.
고객은 G6e 인스턴스를 사용하여 이미지, 비디오, 오디오 생성을 위한 최대 130억 개의 파라미터와 확산 모델을 갖춘 대규모 언어 모델(LLM)을 배포할 수 있습니다. 아울러 G6e 인스턴스를 통해 공간 컴퓨팅 워크로드를 위한 몰입도 높은 대규모 3D 시뮬레이션과 디지털 트윈을 생성할 수 있습니다. G6e 인스턴스는 총 384GB의 GPU 메모리(GPU당 48GB 메모리)와 3세대 AMD EPYC 프로세서를 갖춘 최대 8개의 NVIDIA L40S Tensor Core GPU를 탑재하고 있습니다. 또한 최대 192개의 vCPU, 최대 400Gbps의 네트워크 대역폭, 최대 1.536TB의 시스템 메모리, 최대 7.6TB의 로컬 NVMe SSD 스토리지를 지원합니다. 개발자는 AWS 딥 러닝 AMI, AWS 딥 러닝 컨테이너 또는 관리형 서비스인 Amazon Elastic Kubernetes Service(Amazon EKS) 및 AWS Batch를 사용하여 G6e 인스턴스에서 AI 추론 워크로드를 실행할 수 있으며, 곧 Amazon SageMaker에 대한 지원도 제공될 예정입니다.
Amazon EC2 G6e 인스턴스는 현재 AWS 미국 동부(버지니아 북부, 오하이오), 미국 서부(오리건), 아시아 태평양(도쿄) 및 유럽(프랑크푸르트, 스페인) 리전에서 사용할 수 있습니다. 고객은 온디맨드 인스턴스, 예약형 인스턴스, 스팟 인스턴스 또는 절감형 플랜의 일부로 G6e 인스턴스를 구매할 수 있습니다.
시작하려면 AWS Management Console, AWS Command Line Interface(AWS CLI), AWS SDK로 이동하시기 바랍니다. 자세한 내용은 G6e 인스턴스 페이지를 참조하세요.