게시된 날짜: Nov 30, 2022

이제 Amazon SageMaker에서 섀도우 테스트가 지원되므로 새 기계 학습(ML) 모델을 프로덕션 모델과 비교하여 성능을 검증할 수 있습니다. 섀도우 테스트에서는 최종 사용자가 영향을 받기 전에 발생 가능한 구성 오류와 성능 문제를 파악할 수 있습니다. SageMaker 사용 시에는 섀도우 테스트용 인프라를 몇 주에 걸쳐 구축할 필요가 없으므로 프로덕션 환경에 모델을 더 빠르게 릴리스할 수 있습니다.

모델 업데이트를 테스트할 때는 프로덕션 모델이 수신한 추론 요청의 사본을 새 모델로 전송하여 새 모델의 성능을 추적합니다. 하지만 자체 테스트 인프라를 구축하고 추론 요청을 미러링한 후 모델의 성능을 비교하려면 몇 주가 걸릴 수도 있습니다. Amazon SageMaker에서는 현재 배포되어 있는 프로덕션 모델을 기준으로 성능을 테스트하여 새 ML 모델을 평가할 수 있습니다. 테스트 기준으로 사용할 프로덕션 모델만 선택하면 SageMaker가 추론용으로 새 모델을 자동 배포합니다. 그런 다음 SageMaker는 프로덕션 모델이 수신한 추론 요청의 사본을 새 모델로 라우팅하며 라이브 대시보드를 생성합니다. 이 대시보드에는 지연 시간과 오류율을 비롯한 주요 지표의 성능 차이가 실시간으로 표시됩니다. 성능 지표를 검토하고 모델 성능을 검증한 후에는 해당 모델을 프로덕션 환경에 빠르게 배포할 수 있습니다. 

자세한 내용은 Amazon SageMaker 섀도우 테스트 웹 페이지를 참조하세요. 요금 정보는 Amazon SageMaker 요금을 참조하세요. SageMaker의 섀도우 테스트 지원은 SageMaker 추론을 사용할 수 있는 모든 AWS 리전에서 정식 출시됩니다. 단, Sinnet에서 운영하는 중국(베이징) 및 NWCD에서 운영하는 중국(닝샤) 리전과 AWS GovCloud(미국) 리전은 제외됩니다.