게시된 날짜: Oct 4, 2019
Amazon SageMaker가 이제 기계 학습 애플리케이션에 최적화된 가장 강력한 P3 인스턴스인 ml.p3dn.24xlarge를 지원합니다. 이 인스턴스는 더 빠른 네트워킹 속도를 바탕으로 데이터 전송 병목 현상을 없애고, 딥 러닝 모델 교육 성능을 극대화하기 위해 GPU 사용률을 최적화합니다.
ml.p3dn.24xlarge 인스턴스는 최대 100Gbps의 네트워킹 처리 속도, 96개의 사용자 지정 방식 Intel®Xeon®Scalable(Skylake) vCPU, 32GB의 메모리를 갖춘 8개의 NVIDIA® p3dn Tensor Core GPU, 300GB/s NVLINK GPU 상호 연결 및 1.8TB의 로컬 NVMe 기반 SSD 스토리지를 제공합니다. 이 인스턴스는 다음으로 규모가 큰 P3 인스턴스에 비해, 4배 증가한 네트워크 처리량과 더 빠른 프로세서 및 로컬 NVMe 기반 SSD 스토리지를 갖춘 덕분에 개발자는 여러 ml.p3dn.24xlarge 인스턴스에 걸쳐 기계 학습 교육 작업을 효율적으로 분산하고 데이터 전송 및 사전 처리 병목 현상을 없앨 수 있습니다.
다음은 Amazon SageMaker ml.p3dn.24xlarge 인스턴스와 기존 Amazon SageMaker ML P3 인스턴스를 비교한 결과입니다.
ML 인스턴스 유형 | GPU - Tesla V100 | GPU 피어 투 피어 | GPU 메모리(GB) | vCPU(Virtual CPU) | 메모리(GB) | 네트워크 대역폭 | EBS 대역폭 | 로컬 인스턴스 스토리지 |
---|---|---|---|---|---|---|---|---|
ml.p3.2xlarge | 1 | 해당 사항 없음 | 16 | 8 (Broadwell) | 61 | 최대 10Gbps | 1.5 Gbps | 해당 사항 없음 |
ml.p3.8xlarge | 4 | NVLink | 64 | 32 (Broadwell) | 244 | 10Gbps | 7 Gbps | 해당 사항 없음 |
ml.p3.16xlarge | 8 | NVLink | 128 | 64 (Broadwell) | 488 | 25Gbps | 14 Gbps | 해당 사항 없음 |
ml.p3dn.24xlarge | 8 | NVLink | 256 | 96 (Skylake) | 768 | 100Gbps | 14 Gbps | 2 x 900 GB NVMe SSD |
Amazon SageMaker ml.p3dn.24xlarge 인스턴스는 미국 동부(버지니아 북부) 및 미국 서부(오레곤) AWS 지역에서 사용할 수 있습니다. 이러한 인스턴스를 통해 고객은 1.8TB의 로컬 NVMe 기반 SSD 스토리지를 사용할 수 있으며, 덕분에 추가 ml 스토리지 볼륨을 생성하고 이에 대한 요금을 지불할 필요가 없습니다. 이 인스턴스 유형에서 로컬 NVMe 기반 SSD 스토리지를 사용하는 방법을 자세히 알아보려면 Amazon SageMaker 설명서를 참조하십시오. AWS 고객이 P3 인스턴스를 사용하는 방식을 자세히 알아보려면 P3 페이지를 참조하십시오.