게시된 날짜: Jul 27, 2021
AWS 솔루션은 파이프라인 배포 프로세스를 간소화하고 기계 학습(ML) 모델 생산화를 위한 아키텍처 모범 사례를 적용하는 AWS 솔루션 구현인, AWS MLOps Framework를 업데이트하였습니다. 이 솔루션은 고객이 여러 기계 학습 워크플로 자동화 도구를 채택할 때 직면하는 일반적인 운영 문제를 해결해 줍니다.
본 업데이트는 고객이 위임된 관리자 계정을 통해 조직에서 여러 환경(예: 개발, 스테이징, 프로덕션)을 프로비저닝하는 것을 지원하여, AWS Organizations 및 AWS CloudFormation StackSets를 활용하는 솔루션의 다중 계정 배포 기능을 확장합니다. 이를 통해 기계 학습 워크로드 개발의 거버넌스 및 보안을 개선하면서 적절한 제어 수단으로 프로덕션 데이터를 보호할 수 있습니다. 이 새로운 버전은 또한 Amazon SageMaker Model Registry를 사용하여 버저닝된 모델을 배포하는 옵션을 추가합니다. 모델 레지스트리를 사용하면 프로덕션을 위한 모델을 카탈로그화하고, 모델 버전을 관리하고, 메타데이터를 모델과 연계시키고, 모델의 승인 상태를 관리하고, 모델을 프로덕션으로 배포하고, CI/CD로 모델 배포를 자동화할 수 있습니다.
이 솔루션에서 제공하는 주요 기능은 다음과 같습니다.
- API 호출 또는 Git 리포지토리를 통해 사전 구성된 파이프라인을 시작
- 훈련된 모형을 자동으로 배포하고 추론 엔드포인트를 제공
- 배포된 기계 학습 모형의 지속적인 모니터링 및 품질 편차 감지
- 자체 통합 테스트 실행을 지원하여 배포된 모형이 기대치를 충족하는지 확인
- 여러 환경을 프로비저닝할 수 있어 기계 학습 모델의 수명 주기를 지원
- Amazon SageMaker Model Registry를 사용하여 버저닝된 모델을 배포하는 옵션
- 자체 모델 및 모델 모니터 파이프라인을 가져오기 위한 다중 계정
- 고객은 Amazon SageMaker 엔드포인트에서 모델 배포에 사용할 사용자 지정 알고리즘을 위한 Docker 이미지를 구축하고 등록할 수 있습니다.
추가 AWS 솔루션은 AWS 솔루션 구현 웹 페이지에서 확인할 수 있습니다. 여기서 특정 비즈니스 요구 사항에 따라 제품 범주 또는 산업별로 솔루션을 검색하여 AWS의 검토를 거친 자동화된 턴키 참조 구현을 찾아볼 수 있습니다.