게시된 날짜: Oct 6, 2020
Amazon EC2는 클라우드 중에서 가장 광범위하고 성능이 우수한 포트폴리오를 갖추고 있으며, GPU, FPGA 및 맞춤형 ML 추론 칩인 AWS Inferentia가 내장된 하드웨어 가속 인스턴스로 구성되어 있습니다. G4dn 인스턴스는 CUDA, CuDNN, NVENC 등의 NVIDIA 라이브러리에 액세스해야 할 필요가 있는 사용자에게 GPU 기반 ML 추론, 훈련이 필요 없는 복잡한 ML 모델, 그래픽 애플리케이션에 대한 최상의 가성비를 제공합니다.
오늘부터 Amazon EC2 G4dn 베어 메탈 인스턴스를 15개의 추가 리전에서 사용할 수 있습니다. Amazon EC2 G4dn 베어 메탈 인스턴스는 첫 AWS 베어 메탈 GPU 인스턴스입니다. 이러한 인스턴스는 하드웨어 기능 세트(인텔® VT-x 등)에 액세스해야 하는 워크로드, 라이선스 또는 지원 요구 사항으로 인해 가상화되지 않은 환경에서 실행되어야 하는 애플리케이션, 또는 자신의 하이퍼바이저를 사용하려는 고객에게 적합합니다.
G4dn 베어 메탈 인스턴스는 NVIDIA T4 Tensor Core GPU 8개, AWS 맞춤형 2세대 인텔® 제온® 스케일러블(Cascade Lake) 프로세서, 100Gbps의 네트워킹 처리량 및 1.8TB의 로컬 NVMe 스토리지를 제공합니다. G4dn 베어 메탈 인스턴스는 기존 TCP 채널보다 더욱 낮고 일관적인 지연과 높은 처리량으로 높은 수준의 노드 간 통신이 대량으로 필요한 애플리케이션을 실행하는 데 사용하는 Elastic Fabric Adapter도 지원합니다. Elastic Container Service(ECS), Elastic Kubernetes Service(EKS)와 같이 G4dn 인스턴스를 지원하는 관리형 AWS 서비스에서도 새로운 G4dn 베어 메탈 인스턴스를 지원합니다.
Amazon EC2 G4dn 베어 메탈 인스턴스는 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 캐나다(중부), EU(프랑크푸르트, 아일랜드, 런던, 밀라노, 파리 및 스톡홀름), 아시아 태평양(뭄바이, 서울, 싱가포르 및 시드니), 남아메리카(상파울루) 및 아프리카(케이프타운)에서 사용할 수 있습니다. Amazon EC2 G4dn 인스턴스는 vCPU가 4개, 8개, 16개, 32개, 48개, 64개인 6가지 크기로 제공되며, 추가로 vCPU가 96개인 베어 메탈 인스턴스가 제공됩니다. Savings Plans에 포함하여 구매할 수도 있고 온디맨드 인스턴스, 예약 인스턴스 또는 스팟 인스턴스로도 구매할 수 있습니다.
Amazon EC2 G4dn 베어 메탈 인스턴스를 시작하려면 AWS Management Console, AWS CLI(명령줄 인터페이스) 또는 AWS SDK로 이동하십시오. Amazon EC2 G4dn 인스턴스에 대한 자세한 내용은 G4dn 페이지를 참조하십시오.