게시된 날짜: Jul 15, 2022

Amazon SageMaker는 고객이 워크로드에 가장 적합한 인스턴스에 모델을 배포할 수 있도록 새로운 ML 인스턴스로 액세스를 확장합니다. 이제 고객은 비동기식 및 실시간 모델 배포 옵션에 ml.g5, ml.p4d 및 ml.c6i 인스턴스를 사용할 수 있습니다.

AWS의 비전은 기계 학습을 모든 개발자가 사용할 수 있게 하고 저렴한 사용량에 따른 요금 사용 모델로 최첨단 인프라를 사용할 수 있게 하는 것입니다. 이 비전을 달성하기 위해 아마존에서는 ML 워크로드에서 더 나은 성능과 더 낮은 비용의 인프라를 지속적으로 제공하기 위해 빠른 속도로 혁신하고 있습니다.

  • ml.g5 인스턴스는 기계 학습 추론에서 G4dn 인스턴스 대비 최대 3배 더 높은 성능과 유닛 비용당 최대 40% 더 우수한 성능을 제공합니다. TensorRT, CUDA 및 cuDNN과 같은 NVIDIA 라이브러리를 사용하여 기계 학습 애플리케이션을 실행하고자 하는 고객에게 있어서 고도로 높은 성능을 비용 효율적으로 제공하는 솔루션입니다. 이러한 인스턴스는 권장 사항, 챗봇, 스마트 어시스턴트 및 이미지 인식과 같은 사용 사례에 이상적입니다. ml.g5 인스턴스는 미국 동부(버지니아 북부), 미국 서부(오레곤) 및 유럽(아일랜드)에서 사용할 수 있습니다.
  •  ml.p4d 인스턴스를 사용하면 딥 러닝 모델의 경우 이전 세대인 P3 인스턴스에 비해 평균 성능이 2.5배 개선됩니다. GPU당 40GB의 메모리와 최대 8TB의 로컬 NVMe SSD 스토리지 지원을 통해 대규모 언어 모델 및 컴퓨터 비전 모델과 같은 고성능 기계 학습 추론을 위한 대규모 모델 및 데이터 세트의 로컬 스토리지가 가능합니다. ml.p4d 인스턴스는 미국 동부(버지니아 북부) 및 미국 서부(오레곤)에서 사용할 수 있습니다.
  • ml.c6i 인스턴스는 3세대 인텔 제온 확장 가능 프로세서로 구동되며 다양한 워크로드에서 C5 인스턴스 대비 유닛 비용당 최대 15% 향상된 성능을 제공합니다. C6i 인스턴스는 또한 최대 128개의 vCPU와 256GiB의 메모리를 갖춘 더 큰 크기를 제공하므로 고객은 더 적은 수의 인스턴스에서 워크로드를 통합할 수 있습니다. C6i 인스턴스는 특히 기계 학습 워크로드에서의 추가적 성능 개선을 위해 새로운 인텔 고급 벡터 확장(AVX 512) 지침, 인텔 터보 부스트, 인텔 딥 러닝 부스트를 지원합니다. ml.c6i는 모든 상용 리전에서 사용할 수 있습니다.

이러한 인스턴스에 대한 요금 정보는 요금 페이지를 참조하세요.