Amazon Web Services 한국 블로그
EC2 P3dn GPU 인스턴스 출시 및 P3 인스턴스 요금 인하 (서울 리전 – 15%)
작년 말에 Amazon EC2 P3 인스턴스를 소개하고, 대규모 딥러닝 신경망을 위한 기계 학습 훈련 및 추론을 가속화하도록 설계된 특수 컴퓨팅 유닛인 Tensor Core의 개념에 대해 설명해 드린 바 있습니다. 이미 많은 AWS 고객의 사랑을 받고 있는 P3 인스턴스는 광범위한 기계 학습 및 고성능 컴퓨팅(HPC) 워크로드를 실행하는 데 사용됩니다. 예를 들어, fast.ai는 단 40 USD로 백만 개의 이미지에 대한 ResNet-50 딥 러닝 모델을 훈련하여 딥 러닝 속도 신기록을 달성했습니다.
EC2 P3dn 인스턴스 타입 출시
오늘 p3.16xlarge 인스턴스보다 2배의 GPU 메모리와 1.5배의 vCPU를 제공하는 p3dn.24xlarge 인스턴스를 추가하여 P3 제품의 고급 옵션을 확장합니다.
이 인스턴스 타입은 AWS Nitro 시스템을 기반으로 구축된 100Gbps 네트워크 대역폭(이전 P3 인스턴스 대비 최대 4배의 대역폭), 로컬 NVMe 스토리지, 32GB의 GPU 메모리를 탑재한 최신 NVIDIA V100 Tensor Core GPU, 고속 GPU 대 GPU 통신을 위한 NVIDIA NVLink, AWS에 맞춤화된 Intel® Xeon® Scalable(Skylake) 프로세서(3.1GHz 지속 올 코어 Turbo 실행)를 제공합니다. 사양은 다음과 같습니다.
모델 | NVIDIA V100 Tensor Core GPU | GPU 메모리 | NVIDIA NVLink | vCPU | 주 메모리 | 로컬 스토리지 | 네트워크 대역폭 | EBS 최적화 대역폭 |
p3dn.24xlarge | 8 | 256GB | 300GB/s | 96 | 768GiB | 2 x 900GB NVMe SSD | 100Gbps | 14Gbps |
MXNet, TensorFlow, PyTorch 또는 Keras를 사용하여 대규모 훈련 작업을 수행하는 경우에는 Amazon Deep Learning AMI에 포함되어 있는 Horovod 분산형 훈련 프레임워크를 고려해 보십시오. 또한 AWS Marketplace에서 새로운 NVIDIA AI 소프트웨어 컨테이너를 확인하십시오. 이 컨테이너는 V100 GPU를 사용하는 P3 인스턴스에서 사용하도록 최적화되어 있습니다.
총 256GB의 GPU 메모리(현재 가장 큰 P3 인스턴스의 2배)를 제공하는 p3dn.24xlarge를 사용하면 더 크고 복잡한 딥 러닝 알고리즘을 시도할 수 있습니다. Intel AVX-512 명령어과 기타 첨단 Skylake 기능도 활용하는 동시에 훈련 이미지를 보다 빠르게 교체 및 확장할 수 있습니다. GPU 코드는 NVLink 및 NCCL(NVLink Collective Communications Library)를 사용하여 여러 GPU 및 인스턴스에 수평 확장될 수 있습니다. 또한 NCCL를 사용하면 배치 그룹 내에서 사용할 때 인스턴스 사이에 지원되는 100Gbps의 네트워크 대역폭을 최대한 활용할 수 있습니다.
이러한 인스턴스는 분산 기계 학습 훈련 및 이미지 분류에 적합할 뿐 아니라 HPC 작업에도 어울리는 강력한 파워를 제공합니다. 3D 이미지를 렌더링하고, 비디오를 실시간으로 코드 변환하고, 재무 리스크를 모델링하는 등 다양한 작업이 가능합니다.
기존 AMI도 ENA, NVMe 및 NVIDIA 드라이버만 포함하고 있다면 사용할 수 있습니다. 100Gbps 네트워킹은 최신 ENA 드라이버로 업그레이드해야 사용할 수 있습니다. 딥 러닝 AMI를 사용하는 경우에는 AVX-512에 최적화된 최근 버전을 사용하고 있는지 확인하십시오.
지금 이용 가능
p3dn.24xlarge 인스턴스는 미국 동부(버지니아 북부) 및 미국 서부(오레곤) 리전에서 정식 출시되었으며 지금 온디맨드, 스팟 및 예약 인스턴스 형식으로 사용할 수 있습니다.
보너스 – P3 인스턴스 타입 요금 인하
오늘 출시의 일부로 기존 P3 인스턴스의 요금도 인하됩니다. 다음 요금은 2018년 12월 6일부터 효력을 발휘했습니다.
- 20% 요금 인하 – 아시아 태평양(도쿄) 리전의 모든 요금(온디맨드 및 RI) 및 모든 인스턴스 크기에 적용.
- 15% 요금 인하 – 아시아 태평양(시드니), 아시아 태평양(싱가포르) 및 아시아 태평양(서울) 리전의 모든 요금(온디맨드 및 RI) 및 모든 인스턴스 크기에 적용.
- 15% 요금 인하 – 아시아 태평양(도쿄), 아시아 태평양(시드니), 아시아 태평양(싱가포르) 및 아시아 태평양(서울)을 제외한 모든 리전의 모든 인스턴스 크기에 대한 3년 약정의 표준 RI에 적용.
인하율은 Linux를 실행하는 인스턴스에 적용됩니다. Microsoft Windows 및 기타 운영 체제를 실행하는 인스턴스에는 조금 더 낮은 인하율이 적용됩니다.
고객이 더 저렴하게 기계 학습 훈련 및 추론 작업을 수행할 수 있게 해 주는 이러한 요금 인하는 모든 개발자에게 기계 학습 기능을 제공하고자 하는 AWS의 목표를 향한 노력의 일환으로 제공됩니다.
— Jeff;