Amazon SageMaker Experiments

효율적으로 기계 학습 실험을 관리할 수 있는 서비스

프리 티어

매월 수집된 지표 레코드 100,000개, 매월 API를 통해 검색된 지표 레코드 100만 개, 매월 저장된 지표 레코드 100,000개가 제공됩니다. 프리 티어는 처음 6개월 동안 사용할 수 있습니다.

ML 학습 반복을 분석 및 비교하여 가장 성과가 좋은 모델을 선택합니다

파라미터, 지표 및 아티팩트를 추적하여 문제를 해결하고 모델을 재현합니다
팀이 ML 실험을 수행할 수 있는 중앙 환경을 제공하여 생산성이 향상됩니다

SageMaker Experiments는 대규모 ML 실험을 추적하고 분석하기 위한 관리형 서비스입니다.

작동 방식

모든 IDE에서 수행된 실험 로그 가능

ML 실험은 로컬 노트북 및 IDE, 클라우드에서 실행되는 학습 코드 또는 SageMaker Studio와 같은 클라우드의 관리형 IDE와 같은 다양한 환경에서 수행됩니다. SageMaker Experiments를 사용하면 데이터 사이언티스트에게 친숙한 Python 코드 몇 줄만으로 어떠한 환경, IDE에서 수행한 실험이든 전부 중앙에서 추적할 수 있습니다.

ML 실험 메타데이터를 중앙에서 관리

ML 모델을 개발하기 위해서는 데이터, 알고리즘 및 파라미터의 다양한 조합을 실험하는 동시에 점진적인 변경이 모델 성능에 미치는 영향을 평가하는 과정을 거쳐야 합니다. Sagemaker Experiments를 사용하면 ML 반복을 추적하고 지표, 파라미터 및 아티팩트와 같은 모든 관련 메타데이터를 중앙에 자동으로 저장할 수 있습니다.

실험 평가

여러 번의 반복을 통해 최상의 모델을 찾으려면 모델 성능을 분석하고 비교해야 합니다. SageMaker 실험은 산점도, 막대 그래프, 히스토그램과 같은 시각화를 제공합니다. 또한 Sagemaker Experiments SDK를 사용하면 오프라인 분석을 위해 노트북에 로깅된 데이터를 로드할 수 있습니다.

협업을 통한 모델 구축

조직 내에서 팀을 중심으로 하는 협업은 데이터 사이언스 프로젝트를 성공으로 이끄는 데 핵심적인 역할을 합니다. SageMaker Studio와 통합된 SageMaker Experiments를 사용하면 팀 구성원이 동일한 정보에 액세스하고 실험 결과의 일관성을 확인할 수 있어 보다 수월한 협업이 가능합니다. SageMaker Studio의 검색 기능을 사용하여 과거의 관련 실험을 빠르게 찾을 수 있습니다.

ML 실험 재현 및 감사

모델의 성능에 변화가 생겼을 때는 그 근본 원인을 이해해야 합니다. 모델을 재현하고 쉽게 테스트할 수 있도록 모델 개발 프로세스를 문서화하고 싶을 때가 있습니다. Sagemaker Experiments를 사용하면 사용자가 추적한 실험의 ML 워크플로에 액세스하여 재현할 수 있습니다.

시작 방법

안내서

SageMaker Experiments의 작동 방식 알아보기

실험 관리, 메타데이터 로깅 및 분석에 대해 자세히 알아보세요.

블로그

ML 학습 반복을 구성하고 추적하며 비교하세요