게시된 날짜: Oct 4, 2019

Amazon SageMaker가 이제 기계 학습 애플리케이션에 최적화된 가장 강력한 P3 인스턴스인 ml.p3dn.24xlarge를 지원합니다. 이 인스턴스는 더 빠른 네트워킹 속도를 바탕으로 데이터 전송 병목 현상을 없애고, 딥 러닝 모델 교육 성능을 극대화하기 위해 GPU 사용률을 최적화합니다.

ml.p3dn.24xlarge 인스턴스는 최대 100Gbps의 네트워킹 처리 속도, 96개의 사용자 지정 방식 Intel®Xeon®Scalable(Skylake) vCPU, 32GB의 메모리를 갖춘 8개의 NVIDIA® p3dn Tensor Core GPU, 300GB/s NVLINK GPU 상호 연결 및 1.8TB의 로컬 NVMe 기반 SSD 스토리지를 제공합니다. 이 인스턴스는 다음으로 규모가 큰 P3 인스턴스에 비해, 4배 증가한 네트워크 처리량과 더 빠른 프로세서 및 로컬 NVMe 기반 SSD 스토리지를 갖춘 덕분에 개발자는 여러 ml.p3dn.24xlarge 인스턴스에 걸쳐 기계 학습 교육 작업을 효율적으로 분산하고 데이터 전송 및 사전 처리 병목 현상을 없앨 수 있습니다.

다음은 Amazon SageMaker ml.p3dn.24xlarge 인스턴스와 기존 Amazon SageMaker ML P3 인스턴스를 비교한 결과입니다.

ML 인스턴스 유형 GPU - Tesla V100 GPU 피어 투 피어 GPU 메모리(GB) vCPU(Virtual CPU) 메모리(GB) 네트워크 대역폭 EBS 대역폭 로컬 인스턴스 스토리지
ml.p3.2xlarge 1 해당 사항 없음 16 8 (Broadwell) 61 최대 10Gbps 1.5 Gbps 해당 사항 없음
ml.p3.8xlarge 4 NVLink 64 32 (Broadwell) 244 10Gbps 7 Gbps 해당 사항 없음
ml.p3.16xlarge 8 NVLink 128 64 (Broadwell) 488 25Gbps 14 Gbps 해당 사항 없음
ml.p3dn.24xlarge 8 NVLink 256 96 (Skylake) 768 100Gbps 14 Gbps 2 x 900 GB NVMe SSD

Amazon SageMaker ml.p3dn.24xlarge 인스턴스는 미국 동부(버지니아 북부) 및 미국 서부(오레곤) AWS 지역에서 사용할 수 있습니다. 이러한 인스턴스를 통해 고객은 1.8TB의 로컬 NVMe 기반 SSD 스토리지를 사용할 수 있으며, 덕분에 추가 ml 스토리지 볼륨을 생성하고 이에 대한 요금을 지불할 필요가 없습니다. 이 인스턴스 유형에서 로컬 NVMe 기반 SSD 스토리지를 사용하는 방법을 자세히 알아보려면 Amazon SageMaker 설명서를 참조하십시오. AWS 고객이 P3 인스턴스를 사용하는 방식을 자세히 알아보려면 P3 페이지를 참조하십시오.