게시된 날짜: Dec 3, 2019

Amazon SageMaker Experiments는 Amazon SageMaker에서 기계 학습 훈련 실험을 구성, 추적 및 비교할 수 있는 새로운 기능입니다.

기계 학습은 반복적인 프로세스입니다. 점진적인 변화가 모델 정확도에 미치는 영향을 관찰하면서 데이터, 알고리즘 및 파라미터의 여러 조합을 실험해야 합니다. 시간이 지남에 따라 이 반복적인 실험은 수백, 수천 개의 모델 학습 실행과 모델 버전을 발생시킬 수 있으므로, 가장 성능이 뛰어난 모델과 입력 구성을 추적하기가 어렵습니다. 또한 현재 진행 중인 실험을 이전의 시도와 비교하여 추가적인 개선 기회를 찾아내는 것도 어렵습니다.

Amazon SageMaker Experiments는 기계 학습 실험을 쉽게 관리할 수 있게 해줍니다. 모든 반복 작업의 입력, 파라미터, 구성 및 결과를 시도로서 자동으로 추적합니다. 이러한 시도를 실험에 할당하고, 그룹화하고, 구성할 수도 있습니다. SageMaker Experts는 Amazon SageMaker Studio와 통합되어 활성 실험과 이전 실험을 탐색하고 주요 성능 지표에 대한 실험을 비교하며 가장 결과가 좋은 실험을 식별할 수 있는 시각적 인터페이스를 제공합니다. 또한 SageMaker Experiments는 SageMaker 노트북에서 이러한 검색 및 분석 기능에 쉽게 액세스할 수 있도록 하는 Python SDK도 제공합니다. 아울러 SageMaker Experiments는 모델을 만들고 인증하는 데 사용된 모든 단계와 아티팩트를 추적할 수 있으므로, 프로덕션의 문제를 해결하거나 모델의 규정 준수를 감사할 때 모델의 계보를 빠르게 추적할 수 있습니다.

Amazon SageMaker Experiments는 Amazon SageMaker가 제공되는 전 세계 모든 AWS 상용 리전에서 추가 비용 없이 이용할 수 있습니다. 여기의 블로그 게시물에서 자세한 내용을 참조하거나 설명서를 참조하여 시작하십시오.