게시된 날짜: Dec 7, 2018

이제 P3 인스턴스 패밀리의 최신 추가 버전인 Amazon EC2 P3dn.24xlarge GPU 인스턴스가 정식으로 출시됩니다. P3.16xlarge 인스턴스 네트워크 대역폭의 최대 4배에 달하는 P3dn 24xlarge 인스턴스는 분산형 기계 학습 및 HPC 애플리케이션에 최적화되었습니다. 이 새로운 인스턴스는 최대 100 Gbps의 네트워킹 처리 속도, 96개의 사용자 지정 방식 Intel®Xeon®Scalable (Skylake) vCPU, 32 GB의 메모리를 갖춘 8개의 NVIDIA® V100 Tensor Core GPU, 300 GB/s NVLINK GPU interconnect 및 1.8 TB의 로컬 NVMe 기반 SSD 스토리지를 제공합니다.

더 빠른 네트워킹, 추가 vCPU를 갖춘 새로운 프로세서, 2배로 늘어난 GPU 메모리 및 빠른 로컬 인스턴스 스토리지를 통해 개발자는 여러 인스턴스 (예: 인스턴스 16, 32 또는 64개)에 걸쳐 작업을 확장함으로써 단일 인스턴스에서 성능을 최적화할 수 있을 뿐만 아니라 ML 모델을 교육하거나 확장을 통해 더 많은 HPC 시뮬레이션을 실행할 수 있습니다.

AWS는 100 Gbps의 네트워크 처리량을 제공하는 최초의 클라우드 공급업체로서 데이터 전송 병목 현상을 제거하고 최대 인스턴스 성능을 제공하기 위해 GPU 활용을 최적화합니다. 또한, GPU 메모리를 GPU당 16 GB에서 32 GB로 두 배로 늘리면 고급 및 대형 기계 학습 모델을 교육할 수 있을 뿐만 아니라 이미지 분류 및 객체 감지 시스템을 위한 4K 이미지와 같은 더 큰 데이터 일괄 처리를 유연하게 처리할 수 있습니다.

다음은 P3dn.24xlarge 인스턴스가 기존 P3 인스턴스와 비교하는 방법을 비교한 것입니다.

인스턴스 크기 GPU – Tesla V100 GPU 피어 투 피어 GPU 메모리(GB) vCPU(Virtual CPU) 메모리(GB) 네트워크 대역폭 EBS 대역폭 로컬 인스턴스 스토리지
p3.2xlarge 1 해당 사항 없음 16 8 (Broadwell) 61 최대 10Gbps 1.5 Gbps 해당 사항 없음
p3.8xlarge 4
NVLink 64 32 (Broadwell) 244 10Gbps 7 Gbps 해당 사항 없음
p3.16xlarge 8 NVLink 128 64 (Broadwell) 488 25Gbps 14 Gbps 해당 사항 없음
p3dn.24xlarge 8 NVLink 256 96 (Skylake) 768 100 Gbps 14 Gbps 2 x 900 GB NVMe SSD

P3dn.24xlarge 인스턴스는 미국 동부 (버지니아 북부), 미국 서부 (오레곤) AWS 리전에서 온디맨드, 예약 또는 스팟 인스턴스로 사용 가능합니다. P3 인스턴스에 대한 자세한 내용과 Airbnb, Salesforce 및 Western Digital과 같은 고객이 P3 인스턴스를 사용하는 방법에 대해 자세히 알아 보려면 P3 페이지를 방문하십시오.