게시된 날짜: Dec 16, 2022

Amazon SageMaker Experiments는 이제 SageMaker Python SDK 또는 Boto3를 사용하여 모든 IDE(예: SageMaker Studio, JupyterHub) 또는 실행 코드(예: 로컬 노트북, 스크립트)에서 수행된 기계 학습(ML) 실험의 추적 및 분석을 지원합니다. ML 교육 반복에 대한 입력, 파라미터, 구성 및 결과를 추적할 수 있습니다. 이러한 반복을 실험에 할당, 그룹화 및 구성할 수 있습니다. 

SageMaker Experiments를 사용하면 로컬 환경에서 ML 실험을 구성, 추적 및 분석할 수 있습니다. SageMaker Experiments는 모델 구축과 관련된 모든 단계와 아티팩트를 추적합니다. 실험을 추적하면 모델의 성능을 최적화하기 위한 파라미터와 설정의 효과적인 조합을 식별할 수 있습니다. 또한 추적한 실험에서 모델을 재현하여 개발된 모델의 신뢰성과 재현성을 보장할 수 있습니다. 이는 프로덕션 문제를 해결하거나 규정 준수를 위해 모델을 감사할 때 유용합니다. 

SageMaker Experiments는 SageMaker Studio와 통합되어 활성 실험과 이전 실험을 탐색하고 주요 성능 지표에 대한 실행을 비교하며 가장 결과가 좋은 모델을 식별할 수 있는 시각적 인터페이스를 제공합니다. 선 차트, 산점도, 막대 차트 및 히스토그램과 같은 차트를 만들어 기록된 실험 결과를 분석할 수 있습니다. SageMaker Studio를 사용하면 팀 구성원이 동일한 정보에 액세스하고 실험 결과의 일관성을 확인할 수 있으므로 협업이 더 쉽게 이루어집니다. SageMaker Experimations를 사용하여 실행 시각화 자료를 내보낸 다음 이해 관계자와 모델 평가 내용을 공유할 수도 있습니다.

지표 레코드의 수집, 검색 및 저장에 대해서만 요금이 부과됩니다. AWS 프리 티어의 일부로 SageMaker Experiments를 무료로 시작할 수 있습니다. 자세한 내용은 Amazon SageMaker 요금 페이지를 참조하세요.

SageMaker Experiments는 일반적으로 중국을 제외하고 SageMaker Studio가 제공되는 모든 AWS 상용 리전에서 사용 가능합니다. 시작하려면 SageMaker Studio를 최신 버전으로 업데이트하고 실험을 생성하세요. 자세히 알아보려면 Sagemaker Experiments 제품 세부 정보 페이지AWS Machine Learning 블로그를 방문하세요.