게시된 날짜: Apr 17, 2020

Amazon SageMaker 고객은 이제 기계 학습 모델의 학습을 위해 ml.g4dn 및 ml.c5n 인스턴스를 선택할 수 있습니다. Amazon SageMaker는 개발자 및 데이터 과학자가 어떠한 규모의 기계 학습 모델이든 쉽고 빠르게 구축, 훈련 및 배포할 수 있도록 지원하는 모듈식 완전관리형 플랫폼입니다.

Amazon ml.g4dn 인스턴스는 계산이 까다로운 기계 학습 훈련 및 모델 평가 워크로드를 가속화하기 위해 설계되었으며 가장 비용 대비 효율적인 다목적 GPU 인스턴스를 제공합니다. ml.g4dn 인스턴스에는 NVIDIA T4 Tensor Core GPU, AWS 사용자 정의 2세대 Intel® Xeon® Scalable(Cascade Lake) 프로세서 및 AWS Nitro 시스템이 장착되어 있습니다. Nitro의 로컬 NVMe 기반 SSD 스토리지는 최대 900GB의 고속 로컬 NVMe 스토리지에 직접 액세스할 수 있습니다. ml.g4dn 인스턴스는 낮은 비용으로 최대 65 TFLOP의 FP16 성능을 제공하며 학습 시간이 중요하지 않은 소규모 기계 학습 훈련 작업에서 사용되는 경우 비용 대비 효율적입니다.

Amazon ml.c5n 인스턴스는 배치 데이터 처리 및 분산 딥 러닝 추론과 같은 고급 컴퓨팅 집약적 워크로드의 실행에 매우 적합합니다. ml.c5n 인스턴스는 ml.c5 인스턴스의 네트워크에 최적화된 변형 모델로 Intel® Xeon® Scalable 프로세서(Skylake) 및 4세대 사용자 정의 니트로 카드 및 ENA(Elastic Network Adapter) 기기로 구동되어 최대 인스턴스당 100Gbps의 네트워크 대역폭을 제공합니다. 그리고 작은 인스턴스 크기에서 25Gbps의 최대 대역폭으로부터 최대 인스턴스 크기에서 100Gbps의 네트워크 대역폭에 이르기까지 모든 인스턴스 크기에 걸쳐 훨씬 더 뛰어난 네트워크 성능을 제공합니다. 또한, ml.c5n 인스턴스는 ml.c5 인스턴스와 비교하여 33% 더 큰 메모리를 제공하며, 개선된 네트워크 처리량 및 패킷 레이트 성능을 활용할 수 있는 애플리케이션에 가장 적합합니다.

시작하려면 Amazon SageMaker 제품 페이지로 이동하십시오.