Amazon SageMaker를 사용하면 IT 엔지니어가 ML 모델을 프로덕션에 쉽게 배포할 수 있습니다. 사용자는 확장 가능한 인프라와 CI/CD(Continuous Integration and Continuous Delivery) 파이프라인을 통해 수천 개의 모델 개발을 지원하는 워크플로를 생성하고 자동화할 수 있습니다.
훈련 데이터 수집 및 준비
Amazon SageMaker에는 기계 학습을 준비하기 위해 서로 다른 데이터 원본의 데이터를 집계하는 데 필요한 모든 것이 갖춰져 있습니다.
데이터 원본에 쉽게 연결
Amazon SageMaker Data Wrangler를 사용하면 Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon S3 등의 데이터 원본에 연결하고 CSV 파일, 구조화되지 않은 JSON 파일, 데이터베이스 테이블 같은 다양한 파일 형식의 데이터를 직접 SageMaker에 쉽게 가져올 수 있습니다. 사용자는 클릭 몇 번 만으로 데이터 파이프라인을 쉽게 생성할 수도 있습니다.
보안
Amazon SageMaker를 사용하면 1일 차에 완전히 보안이 된 ML 환경에서 작업할 수 있습니다. 광범위한 수직 시장에서 인프라 보안, 액세스 제어, 데이터 보호, 최신 규정 준수 인증을 포함한 포괄적인 보안 피처 세트를 사용할 수 있습니다.
모델 구축
기계 학습이 사업부 전반에 확산됨에 따라, Amazon SageMaker는 고객 인프라가 확장을 통해 수백, 수천 개의 모델을 구축할 수 있게 해줍니다.
원클릭 Jupyter 노트북
Amazon SageMaker Studio 노트북은 클릭 한 번으로 작동하는 Jupyter 노트북으로, 빠르게 작업을 시작할 수 있습니다. 기본 컴퓨팅 리소스는 완전히 탄력적이므로 사용 가능한 리소스를 쉽게 확장하거나 축소할 수 있으며 변경 작업이 백그라운드에서 자동으로 진행되므로 작업에 방해가 되지 않습니다. 사용자는 클릭 한 번으로 노트북을 공유할 수 있으며, 사용자의 동료는 동일한 장소에 저장된 동일한 노트북을 받을 수 있습니다.
모델 훈련 및 튜닝
Amazon SageMaker는 훈련 데이터의 기하급수적인 증가를 관리하고 쉽게 확장하여 페타바이트 규모의 데이터를 효율적이고 비용 효과적으로 관리하도록 도움을 줍니다.
클릭 한 번으로 훈련
Amazon SageMaker에서 훈련할 준비가 되면 Amazon S3에서 데이터 위치를 지정하고 필요한 SageMaker ML 인스턴스 유형과 수량을 표시한 다음, 콘솔에서 클릭 한 번으로 시작하면 됩니다. SageMaker는 분산 컴퓨팅 클러스터를 설정하고, 훈련을 수행하며, 결과를 Amazon S3로 출력하고, 완료되면 클러스터를 삭제합니다.
관리형 스팟 훈련
Amazon SageMaker는 관리형 스팟 훈련을 제공하므로 훈련 비용을 최대 90% 줄일 수 있습니다. 이 기능은 예비 AWS 컴퓨팅 용량인 Amazon EC2 스팟 인스턴스를 사용합니다. 컴퓨팅 용량을 사용할 수 있으면 훈련 작업이 자동으로 실행되고 용량 변경으로 인한 중단에 탄력적으로 대응하므로 훈련 작업 실행 시 유연성을 갖추고 있다면 비용을 절감할 수 있습니다.
프로덕션에 모델 배포
Amazon SageMaker에는 고객이 확장되고 안전한 워크플로를 생성하는 데 필요한 모든 도구를 갖추고 있습니다.
자동화된 워크플로
Amazon SageMaker Pipelines는 CI/CD 방법을 사용하여 ML 워크플로를 규모에 맞게 생성, 자동화 및 관리하도록 도와줍니다. 워크플로가 생성되면 SageMaker Studio에서 워크플로를 시각화하고 관리할 수 있습니다. SageMaker Pipelines는 ML 워크플로의 각 단계 간의 종속성 관리와 관련된 모든 어려운 작업을 처리합니다. 업데이트된 데이터로 언제든지 전체 워크플로를 다시 실행하여, 모델을 정확하게 유지할 수 있고 프로젝트에서 협업이 이루어지도록 워크플로를 다른 팀과 공유할 수 있습니다.
Kubernetes와 통합
기계 학습에 Amazon SageMaker의 완전 관리형 기능을 사용하는 동시에, 파이프라인 관리 및 오케스트레이션을 위해 Kubernetes를 계속 사용할 수 있습니다. SageMaker를 통해 사용자는 SageMaker용 Kubernetes Operators를 사용하여 모델을 훈련하고 배포할 수 있습니다. Amazon SageMaker Components for Kubeflow Pipelines를 사용하면 기계 학습 작업을 실행하기 위해 Kubernetes 클러스터를 특별히 구성 및 관리할 필요 없이 데이터 레이블 지정, 완전 관리형의 대규모 하이퍼파라미터 튜닝 및 분산 훈련 작업, 안전하고 확장 가능한 원클릭 모델 배포 같은 강력한 SageMaker 피처를 활용할 수 있습니다.
추론을 위한 추가 계산
Amazon Elastic Inference를 사용하면 코드 변경 없이 Amazon SageMaker 인스턴스 유형에 GPU 지원 추론 가속을 적절한 양만 연결할 수 있습니다. 또한 애플리케이션의 전체 CPU 및 메모리 요구 사항에 가장 적합한 인스턴스 유형을 선택한 후 리소스를 효율적으로 사용하고 추론 실행 비용을 절감하는 데 필요한 양의 추론 가속을 별도로 구성할 수 있습니다.
클릭 한 번으로 배포
Amazon SageMaker를 사용하면 한 번의 클릭으로 프로덕션 환경에 학습된 모델을 배포하여, 실시간 또는 배치(batch) 데이터에 대한 예측 생성을 시작할 수 있습니다. 높은 중복성을 위해 모델을 여러 가용 영역에 걸쳐 Auto Scaling Amazon ML 인스턴스에 클릭 한 번으로 배포할 수 있습니다. SageMaker가 인스턴스를 시작하고 모델을 배포하며 애플리케이션에 대한 안전한 HTTPS 엔드포인트를 설정합니다.
다중 모델 엔드포인트
Amazon SageMaker는 많은 수의 사용자 지정 기계 학습 모델을 배포하는 확장 가능하고 비용 효과적인 방법을 제공합니다. SageMaker 다중 모델 엔드포인트를 사용하면 단일 엔드포인트에서 한 번의 클릭으로 여러 모델을 배포하고 단일 지원 컨테이너를 사용하여 제공할 수 있습니다.