일반

Q: Amazon SageMaker란 무엇입니까?

Amazon SageMaker는 모든 개발자 및 데이터 사이언티스트가 기계 학습(ML) 모델을 빠르게 구축, 훈련 및 배포할 수 있도록 하는 완전관리형 서비스입니다. SageMaker는 기계 학습 프로세스의 각 단계에서 부담스러운 작업을 제거하여 고품질의 모델을 보다 쉽게 개발할 수 있도록 합니다.

Q: Amazon SageMaker는 어떤 리전에서 사용할 수 있습니까?

Amazon SageMaker를 지원하는 AWS 리전 목록은 모든 AWS 글로벌 인프라에 대한 AWS 리전 표를 참조하세요. 자세한 내용은 AWS 일반 참조의 리전 및 엔드포인트를 참조하세요.

Q: Amazon SageMaker의 서비스 가용성은 어떻습니까?

Amazon SageMaker는 높은 가용성을 제공하도록 설계되었습니다. 유지 관리 기간이나 예약된 가동 중지 시간이 없습니다. SageMaker API는 가용성이 뛰어나고 입증된 Amazon 데이터 센터에서 실행되며 각 AWS 리전의 시설 세 곳에 서비스 스택 복제가 구성되어 있어 서버 장애나 가용 영역 중단 시에 내결함성을 제공합니다.

Q: Amazon SageMaker는 코드를 어떻게 보안합니까?

Amazon SageMaker는 보안 그룹과 저장 중 암호화(선택 사항)로 보호된 ML 스토리지 볼륨에 코드를 저장합니다.

Q: Amazon SageMaker에는 어떤 보안 조치가 적용됩니까?

Amazon SageMaker에서는 전송 중이거나 저장 중인 ML 모델 아티팩트 및 기타 시스템 아티팩트가 암호화됩니다. SageMaker API 및 콘솔에 대한 요청은 보안(SSL) 연결을 통해 전달됩니다. AWS Identity and Access Management 역할을 SageMaker로 전달하여 사용자 대신, 훈련 및 배포를 위해 리소스에 액세스할 수 있는 권한을 제공합니다. 모델 아티팩트 및 데이터에 대해 암호화된 Amazon S3 버킷을 사용하고 KMS 키를 SageMaker 노트북, 훈련 작업 및 엔드포인트로 전달하여 연결된 ML 스토리지 볼륨을 암호화할 수 있습니다. 또한 Amazon SageMaker는 Amazon Virtual Privacy Cloud(VPC) 및 AWS PrivateLink 지원도 제공합니다.

Q: Amazon SageMaker는 모형, 학습 데이터 또는 알고리즘을 사용하거나 공유합니까?

Amazon SageMaker는 고객 모형, 학습 데이터 또는 알고리즘을 사용하거나 공유하지 않습니다. AWS는 고객에게 프라이버시와 데이터 보안이 얼마나 중요한지를 잘 알고 있습니다. 따라서 AWS에서는 콘텐츠를 저장할 장소를 결정하고, 저장 콘텐츠 및 전송 콘텐츠를 보호하고, AWS 서비스와 리소스에 대한 사용자의 액세스를 관리할 수 있는 간단하지만 강력한 도구를 통해 고객에게 콘텐츠에 대한 소유권과 제어권을 제공합니다. 또한, AWS는 고객 콘텐츠에 대한 무단 액세스나 공개를 차단하도록 설계된 정교한 기술적 및 물리적 제어를 구현합니다. 고객은 자신의 콘텐츠에 대한 소유권을 유지하고 콘텐츠를 처리, 저장 및 호스팅할 AWS 서비스를 선택합니다. AWS에서는 고객의 동의 없이는 어떠한 목적으로도 고객 콘텐츠에 액세스하지 않습니다.

Q: Amazon SageMaker 요금은 어떻게 부과됩니까?

노트북을 호스팅하고 모델을 교육하고 예측을 수행하고 출력을 로깅하는 데 사용하는 ML 컴퓨팅, 스토리지 및 데이터 처리 리소스에 대한 비용을 지불합니다. Amazon SageMaker를 사용하면 호스팅된 노트북, 교육 및 모델 호스팅에 사용되는 인스턴스 수 및 유형을 선택할 수 있습니다. 서비스를 사용하면서 사용한 만큼만 비용을 지불하며 최소 요금 및 사전 약정은 없습니다. 자세한 내용은 Amazon SageMaker 요금 페이지를 참조하세요.

Q: 유휴 리소스를 검색하고 중지하여 불필요한 요금을 방지하는 것과 같이 Amazon SageMaker 비용을 최적화하려면 어떻게 해야 합니까?

Amazon SageMaker 리소스 사용률을 최적화하는 데 사용할 수 있는 여러 모범 사례가 있습니다. 구성 최적화를 수행하는 것과 관련된 접근 방식이 있고 프로그래밍 방식 솔루션을 제공하는 접근 방식도 있습니다. 이 블로그 게시물에서 시각적 자습서 및 코드 샘플과 함께 이 개념에 대한 전체 가이드를 확인할 수 있습니다.

Q: 자체 노트북, 훈련 또는 호스팅 환경이 있는 경우는 어떻게 됩니까?

Amazon SageMaker에서는 전체 엔드 투 엔드 워크플로를 제공하지만, SageMaker와 함께 기존 도구를 계속 사용할 수 있습니다. 비즈니스 요구 사항에 따라 필요한 대로 SageMaker에서 각 단계의 결과를 손쉽게 송수신할 수 있습니다.

Q: Amazon SageMaker에서 R이 지원됩니까?

예, Amazon SageMaker에서 R이 지원됩니다. SageMaker Notebook 인스턴스에서 R을 사용할 수 있으며, 여기에는 사전 설치된 R 커널과 reticulate 라이브러리가 포함됩니다. Reticulate는 Amazon SageMaker Python SDK를 위한 R 인터페이스를 제공하고 기계 학습 실무자들에게 R 모델을 구축, 훈련, 튜닝 및 배포할 수 있는 기능을 지원합니다. 

Q: 모델에서 불균형을 확인하려면 어떻게 해야 합니까?

Amazon SageMaker Clarify를 통해 전체 ML 워크플로에서 통계적인 바이어스를 탐지해 모델 투명성을 개선할 수 있습니다. SageMaker Clarify는 데이터 준비 도중, 훈련 후, 시간 경과에 따른 불균형을 검사하고, ML 모델 및 예측을 설명해주는 도구도 포함합니다. 결과는 설명 보고서를 통해 공유할 수 있습니다.

Q: Amazon SageMaker Clarify에서는 어떤 종류의 바이어스를 탐지합니까?

ML 모델에서 바이어스 평가는 바이어스를 완화하는 첫 단계입니다. 바이어스는 훈련 전후에, 그리고 배포된 모델에 대한 추론을 위해 평가할 수 있습니다. 바이어스의 각 평가는 다양한 공정성 개념을 반영합니다. 단순한 공정성 개념을 평가하는 작업도 다양한 컨텍스트에서 다양한 많은 평가를 적용할 수 있습니다. 그래서 조사할 상황과 애플리케이션에 유효한 바이어스 개념과 지표를 선택해야 합니다. 현재 AWS는 훈련 데이터(SageMaker 데이터 준비의 일부), 훈련된 모델(SageMaker Experiments의 일부), 배포된 모델의 추론(SageMaker Model Monitor의 일부)을 위해 다양한 바이어스 지표 계산을 지원합니다. 예를 들어, 훈련 전에 훈련 데이터가 대표성을 갖는지(즉, 한 그룹에서 대표성이 부족한지 여부)와 여러 그룹에서 레이블 분산에 차이가 있는지를 검사하는 지표를 제공합니다. 훈련 후 또는 배포 중에는 여러 그룹에서 모델의 성능이 다른지 여부와 다르다면 얼마나 다른지를 평가하는 데 이러한 지표를 유용하게 활용할 수 있습니다. 예를 들어, 오류 비율(모델의 예측이 실제 레이블과 차이가 날 가능성), 더 세분화된 정밀도로 분류(긍정적인 예측이 올바를 가능성), 회수(모델이 긍정적인 예제에 레이블을 올바르게 지정할 가능성)를 비교하는 작업부터 시작할 수 있습니다.

Q: Amazon SageMaker Clarify는 모델 설명을 어떻게 개선합니까?

Amazon SageMaker Clarify는 SageMaker Experiments에 통합되어 모델 훈련 후에 모델의 전반적인 의사결정 프로세스에서 각 입력의 중요성을 자세히 설명하는 피처 중요도 그래프를 제공합니다. 이와 같은 세부 정보는 특정 모델 입력이 전체 모델 동작에 미쳐야 하는 것보다 더 많은 영향을 미치는지 확인하는 데 유용할 수 있습니다. 또한 SageMaker Clarify는 고객이나 이해관계자를 상대하는 직원이 사용할 수 있도록 API를 통해 개별 예측에 대한 설명을 사용할 수 있게 지원합니다.
 

Q: Amazon SageMaker Studio란 무엇입니까?

Amazon SageMaker Studio는 모든 ML 개발 단계를 수행할 수 있는 웹 기반의 단일 시각적 인터페이스를 제공합니다. SageMaker Studio는 모델을 빌드, 학습 및 배포하는 데 필요한 액세스 권한, 제어 및 가시성을 각 단계별로 완벽하게 제공합니다. 신속하게 데이터를 업로드하고, 새로운 노트북을 생성하며, 모델을 훈련 및 튜닝하고, 단계를 앞뒤로 이동하며 실험을 조정하고, 결과를 비교하며, 모델을 프로덕션에 배포하여 한 곳에서 생산성을 크게 높일 수 있습니다. 노트북, 실험 관리, 자동 모델 생성, 디버깅 및 프로파일링, 모델 드리프트 탐지를 포함한 모든 ML 개발 활동은 통합된 SageMaker Studio 시각적 인터페이스 내에서 수행할 수 있습니다.

Q: Amazon SageMaker Studio 요금은 어떻게 적용됩니까?

Amazon SageMaker Studio 사용에 대한 추가 비용은 없습니다. Amazon SageMaker Studio 내에서 사용하는 서비스의 기본 컴퓨팅 및 스토리지 요금만 지불하면 됩니다.

Q: Amazon SageMaker Studio는 어떤 리전에서 지원됩니까?

Amazon SageMaker Studio를 지원하는 리전은 여기 설명서에서 확인할 수 있습니다.

로우 코드 기계 학습

Q: Amazon SageMaker Autopilot이란 무엇입니까?

Amazon SageMaker Autopilot은 업계 최초로 자동화된 기계 학습 기능을 갖추고 있어 ML 모드에 완벽한 제어 및 가시성을 제공합니다. SageMaker Autopilot은 원시 데이터를 자동으로 검사하고, 기능 프로세서를 적용하며, 최상의 알고리즘 세트를 선택하고, 여러 가지 모델을 훈련 및 튜닝하며, 해당 성능을 추적한 다음 클릭 몇 번으로 성능을 기준으로 모델 등급을 지정합니다. 이렇게 나오는 결과는 일반적으로 모델 학습에 필요한 짧은 시간 동안 배포할 수 있는 최상위 모델입니다. 모델이 생성된 방식과 포함된 내용을 완벽하게 파악한 후 SageMaker 오토파일럿은 Amazon SageMaker Studio와 통합됩니다. SageMaker Studio 내에서 SageMaker 오토파일럿이 생성한 서로 다른 모델을 50개까지 탐색할 수 있으므로 사용 사례에 가장 적합한 모델을 쉽게 선택할 수 있습니다. SageMaker 오토파일럿을 사용하면 기계 학습 경험이 없는 사람도 모델을 쉽게 만들 수 있고, 숙련된 개발자라면 팀에서 나중에 반복해서 사용할 수 있는 기준 모델을 개발할 수 있습니다.

Q: Amazon SageMaker 오토파일럿은 Amazon Personalize 및 Amazon Forecast 같은 수직적 AI 서비스와 어떻게 다릅니까?

Amazon Personalize와 Amazon Forecast는 주로 맞춤형 권장 사항 및 예측 사용 사례를 전문으로 하지만 Amazon SageMaker 오토파일럿은 부정 행위 탐지, 이탈 예측, 표적 마케팅 같은 분류 및 회귀 문제를 해결하기 위한 일반적인 자동 기계 학습 솔루션입니다. Personalize와 Forecast는 교육 및 모델 호스팅을 번들 형태로 제공하여 엔드 투 엔드 환경을 간소화하는 데 중점을 둡니다. Amazon SageMaker 오토파일럿을 사용하여 모델을 교육하고 모델과 모델을 생성한 파이프라인을 전체 액세스 권한으로 완전하게 활용할 수 있습니다. 그런 다음 모델을 선택한 호스팅 환경에 배포할 수도 있고, 반복 작업을 추가로 수행하여 모델 품질을 개선할 수도 있습니다.

Q: Amazon SageMaker 오토파일럿에서 지원되는 기본 제공 알고리즘은 무엇입니까?

Amazon SageMaker Autopilot은 출시 시점에서 XGBoost 및 선형 회귀와 같은 2개의 기본 제공 알고리즘을 지원합니다.

Q: Amazon SageMaker Autopilot 작업을 수동으로 중지할 수 있습니까?

예. 작업은 언제든지 중지할 수 있습니다. Amazon SageMaker Autopilot 작업이 중지되면 진행 중인 모든 실험이 중지되고 새 실험이 시작되지 않습니다.

Q: Amazon SageMaker를 빠르게 시작하려면 어떻게 해야 합니까?

Amazon SageMaker JumpStart를 사용하면 기계 학습을 빠르고 쉽게 시작할 수 있습니다. SageMaker JumpStart는 몇 번의 클릭으로 쉽게 배포할 수는 가장 일반적인 사용 사례를 위한 솔루션 세트를 제공합니다. 솔루션은 완전히 사용자 지정할 수 있으며 AWS CloudFormation 템플릿과 참조 아키텍처 사용을 소개하므로 귀하의 기계 학습 여정을 더욱 앞당길 수 있습니다. 또한 SageMaker JumpStart는 클릭 한 번으로 배포와 변환 도구, 객체 탐지 및 이미지 분류 모델과 같은 150개가 넘는 널리 사용되는 오픈 소스 모델에 대한 세분화된 튜닝도 지원합니다.
 

Q: Amazon SageMaker JumpStart에서 지원하는 오픈 소스 모델로 무엇이 있습니까?

Amazon SageMaker JumpStart는 PyTorch Hub 및 TensorFlow Hub에서 150개가 넘는 사전 훈련된 오픈 소스 모델을 포함합니다. 이미지 분류 및 객체 탐지와 같은 비전 태스크의 경우 ResNet, MobileNet, Single-Shot Detector(SSD)와 같은 모델을 활용할 수 있습니다. 문장 분류, 텍스트 분류, 질문 답변과 같은 텍스트 태스크의 경우 BERT, RoBERTa, DistilBERT와 같은 모델을 사용할 수 있습니다.

Q: Amazon SageMaker Jumpstart에 사전 구축된 솔루션으로는 무엇이 있습니까?

SageMaker JumpStart는 솔루션을 프로덕션으로 시작하는 데 필요한 모든 AWS 서비스를 사용한 사전 구성된 솔루션을 포함합니다. 이러한 솔루션은 완전하게 사용자 지정 가능하므로, 특정 사용 사례 및 데이터 세트에 맞게 손쉽게 수정할 수 있습니다. 수요 예측, 사기 탐지, 예측 유지 보수를 포함한 15개가 넘는 사용 사례에 대한 솔루션을 사용할 수 있으며, 몇 번의 클릭으로 솔루션을 손쉽게 배포할 수 있습니다. 사용 가능한 모든 솔루션에 대한 자세한 내용은 SageMaker 시작하기 페이지를 참조하세요.
 

Q: Amazon SageMaker JumpStart 요금은 어떻게 적용됩니까?

SageMaker 요금에 따라 SageMaker JumpStart를 사용하여 시작한 AWS 서비스(예: 훈련 작업 및 엔드포인트)에 대해 요금이 청구됩니다. Amazon SageMaker JumpStart 사용에 대한 추가 비용은 없습니다.

기계 학습 워크플로

Q: Amazon SageMaker에서 CI/CD 파이프라인을 구축하려면 어떻게 해야 합니까?

Amazon SageMaker Pipelines를 사용하면 데이터 준비에서 모델 배포에 이르기까지 완전히 자동화된 ML 워크플로를 생성할 수 있으므로, 이를 통해 회사는 프로덕션에서 수천 개의 ML 모델로 확장할 수 있습니다. SageMaker Pipelines는 SageMaker Studio에 연결되는 Python SDK도 함께 제공하므로, 시각적 인터페이스를 활용하여 워크플로의 각 단계를 구축할 수 있습니다. 그런 다음, 단일 API를 사용하여 각 단계를 연결하고 포괄적인 워크플로를 생성할 수 있습니다. SageMaker Pipelines는 단계 사이에서 데이터를 관리하고, 코드 레시피를 패키지로 작성하며, 실행을 조정합니다. 이를 통해 수개월에 걸리던 코딩 작업을 몇 시간을 줄일 수 있습니다. 워크플로를 실행할 때마다 수행되는 작업과 처리되는 데이터의 전체 레코드가 유지되므로, 데이터 사이언티스트와 ML 개발자는 문제를 빠르게 디버깅할 수 있습니다.

Q: 프로덕션으로 이전할 최상의 모델을 선택하기 위해 훈련된 모든 모델을 보려면 어떻게 해야 합니까?

Amazon SageMaker Pipelines에서는 모델 레지스트리라고 하는 훈련된 모델의 중앙 리포지토리를 제공합니다. Python SDK를 통해 프로그래밍 방식으로 또는 SageMaker Studio를 통해 시각적으로 모델을 검색하고 모델 레지스트리에 액세스하여 간편하게 프로덕션에 배포할 원하는 모델을 선택할 수 있습니다.

Q: Amazon SageMaker의 어떤 구성 요소를 Amazon SageMaker Pipelines에 추가할 수 있습니까?

SageMaker Clarify, SageMaker Data Wrangler, SageMaker Feature Store, SageMaker Experiments, SageMaker Debugger, SageMaker Model Monitor를 포함하여 Amazon SageMaker Studio를 통해 사용 가능한 구성 요소를 SageMaker Pipelines에 추가할 수 있습니다.

Q: 전체 ML 워크플로에서 모델 구성 요소를 추적하려면 어떻게 해야 합니까?

Amazon SageMaker Pipelines는 모든 모델 구성 요소를 자동으로 추적하고 모든 변경 사항에 대한 감사 추적을 유지하므로 수동 추적은 필요하지 않으며 규제 준수 목표를 달성하는 데도 큰 도움을 줄 수 있습니다. SageMaker Pipelines에서는 데이터, 코드, 훈련된 모델 등을 추적할 수 있습니다.

Q: Amazon SageMaker Pipelines 요금은 어떻게 적용됩니까?

Amazon SageMaker Pipelines 사용에 대한 추가 비용은 없습니다. SageMaker Pipelines 내에서 사용하는 개별 AWS 서비스 또는 기본 컴퓨팅에 대한 비용만 지불하면 됩니다.

Q: Amazon SageMaker에서 Kubeflow를 사용할 수 있습니까?

예. Amazon SageMaker Components for Kubeflow Pipelines는 Kubeflow Pipelines를 통해 기계 학습 워크플로를 정의하고 SageMaker를 사용하여 데이터 레이블 지정, 훈련 및 추론 단계를 수행할 수 있게 지원하는 오픈 소스 플러그인입니다. Kubeflow Pipelines는 확장 가능하고 이식 가능한 포괄적인 기계 학습 파이프라인을 구축 및 배포할 수 있는 Kubeflow 추가 기능입니다. 그러나 Kubeflow Pipelines를 사용할 때 기계 학습 운영 팀은 Kubernetes 클러스터의 CPU 및 GPU 인스턴스를 관리하고 사용률을 계속 높게 유지하여 운영 비용을 절감해야 합니다. 데이터 과학 팀 전체에서 클러스터의 사용률을 극대화하는 것은 어려운 일이며 기계 학습 운영 팀에 추가적인 운영 오버헤드가 발생합니다. 기계 학습 최적화 Kubernetes 클러스터 대신, Amazon SageMaker Components for Kubeflow Pipelines를 사용하면 기계 학습 작업을 실행하기 위해 Kubernetes 클러스터를 특별히 구성 및 관리할 필요 없이 데이터 레이블 지정, 완전관리형 대규모 하이퍼파라미터 튜닝 및 분산 훈련 작업, 안전하고 확장 가능한 원클릭 모델 배포, Amazon EC2 스팟 인스턴스를 통한 비용 효율적인 훈련과 같은 강력한 SageMaker 기능을 활용할 수 있습니다.

Q: Amazon SageMaker Components for Kubeflow Pipelines 요금은 어떻게 적용됩니까?

Amazon SageMaker Components for Kubeflow Pipelines 사용에 대한 추가 비용은 없습니다.
 

데이터 준비

Q: Amazon SageMaker에서는 기계 학습용 데이터를 어떻게 준비합니까?

Amazon SageMaker Data Wrangler는 기계 학습을 위해 데이터를 집계하고 준비하는 시간을 단축합니다. SageMaker Studio의 단일 인터페이스를 통해 Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation 및 Amazon SageMaker Feature Store에서 데이터를 가져오고, 몇 번의 클릭으로 SageMaker Data Wrangler는 원시 데이터를 자동으로 로드, 집계 및 표시합니다. 그런 다음, 소스 데이터를 기반으로 변환 권장 사항을 생성하고 데이터를 새 피처로 변환하며 피처를 검증하고 잘못된 레이블과 같은 일반적인 오류 원인을 제거하는 방법에 대한 권장 사항과 함께 시각화 정보를 제공합니다. 데이터가 준비되면 Amazon SageMaker Pipelines에서 완전히 자동화된 기계 학습 워크플로를 구축하거나 Amazon SageMaker Feature Store로 해당 데이터를 가져올 수 있습니다.

Q: Amazon SageMaker Data Wrangler에서 모델 피처를 생성하려면 어떻게 해야 합니까?

한 줄의 코드도 작성하지 않고 Amazon SageMaker Data Wrangler에서 데이터를 새 피처로 자동으로 변환할 수 있습니다. SageMaker Data Wrangler는 열 유형 변환, 단일 핫 인코딩, 누락된 데이터를 평균값 또는 중앙값으로 전가, 열 크기 조정, 데이터/시간 임베드와 같은 사전 구성된 데이터 변환 선택 사항을 제공합니다. 예를 들어, 한 번의 클릭으로 텍스트 필드 열을 숫자 열로 변환하거나 PySpark, SQL 및 Pandas에서 사용자 지정 변환을 작성할 수 있습니다.

Q: Amazon SageMaker Data Wrangler에서 데이터를 시각화하려면 어떻게 해야 합니까?

Amazon SageMaker Data Wrangler에서는 사전 구성된 강력한 시각화 템플릿 세트를 통해 데이터를 이해하고 잠재적 오류와 극단 값을 이해하고 식별할 수 있습니다. 한 줄의 코드도 작성하지 않고 히스토그램, 산점도 및 ML 특정 시각화(예: 대상 유출 탐지)를 모두 사용할 수 있습니다. 또한 고유한 시각화를 생성하고 편집할 수도 있습니다.

Q: Amazon SageMaker Data Wrangler 요금은 어떻게 적용됩니까?

Amazon SageMaker Data Wrangler에 대해 사용하는 모든 ML 컴퓨팅, 스토리지 및 데이터 처리 리소스에 대한 요금만 청구됩니다. Amazon SageMaker Data Wrangler 요금에 대한 모든 세부 정보는 여기에서 검토할 수 있습니다. AWS 프리 티어를 사용하는 고객은 SageMaker Data Wrangler를 무료로 시작할 수 있습니다.

Q: ML 모델에 대한 피처를 저장하려면 어떻게 해야 합니까?

Amazon SageMaker Feature Store에서는 밀리초 단위로 읽기 및 쓰기 지연 시간이 짧은 데이터 피처를 위한 중앙 리포지토리를 제공합니다. 피처는 보안 액세스 및 제어 기능을 사용하여 여러 모델과 팀에서 쉽게 재사용할 수 있도록 SageMaker Feature를 통해 저장, 검색, 검색 및 공유될 수 있습니다. SageMaker Feature Store는 배치 또는 스트리밍 파이프라인을 통해 생성된 온라인 및 오프라인 피처를 모두 지원합니다. 그리고 피처 다시 채우기를 지원하며, 모델 훈련 및 추론에 사용된 피처 사이에서 패러티 유지 보수를 위해 온라인 및 오프라인 스토어 모두를 제공합니다.

온라인 및 오프라인 피처 사이의 일관성을 유지하려면 어떻게 해야 합니까?

Amazon SageMaker Feature Store는 추가 관리나 코드 없이도 온라인 및 오프라인 피처 사이의 일관성을 자동으로 유지 보수합니다. SageMaker Feature Store는 완전관리형 서비스로, 훈련 및 추론 환경에서 일관성을 유지 보수합니다.

Q: 지정된 순간에 피처를 재현하려면 어떻게 해야 합니까?

Amazon SageMaker Feature Store는 모든 순간에 모든 피처에 대한 타임스탬프를 유지 보수합니다. 이를 통해 비즈니스 또는 규정 준수 요구 사항을 위해 특정 기간의 피처를 검색할 수 있습니다. 지정된 순간에 모델을 재현하여 처음 피처를 생성한 시점부터 현재까지 모델 피처와 값을 쉽게 설명할 수 있습니다.

Q: 오프라인 피처란 무엇입니까?

오프라인 피처는 오랫동안 매우 큰 볼륨에 액세스해야 하는 경우 훈련에 사용됩니다. 이러한 피처는 처리량이 높고 대역폭이 큰 리포지토리에서 지원됩니다.

Q: 온라인 피처란 무엇입니까?

온라인 피처는 실시간 예측을 수행해야 하는 애플리케이션에 사용됩니다. 온라인 피처는 빠른 예측을 위해 지연 시간이 1자릿수이고 처리량이 높은 리포지토리에서 지원됩니다.

Q: Amazon SageMaker Feature Store 요금은 어떻게 적용됩니까?

AWS 프리 티어를 사용하는 고객은 Amazon SageMaker Feature Store를 무료로 시작할 수 있습니다. SageMaker Feature Store를 사용하는 경우 Feature Store에 대한 쓰기 작업과 온라인 Feature Store에 대한 읽기 및 스토리지 작업 요금이 부과됩니다. SageMaker 요금 페이지에서 SageMaker Feature Store 요금 적용 방식에 대한 모든 세부 정보를 제공합니다.

Q: Amazon SageMaker Ground Truth란 무엇입니까?

Amazon SageMaker Ground Truth는 기계 학습을 사용하는 자동화된 데이터 레이블 지정 기능을 제공합니다. SageMaker Ground Truth는 먼저 무작위 데이터 샘플을 선택한 다음 라벨링할 Amazon Mechanical Turk에 보냅니다. 이후 결과를 사용하여 라벨링 모델을 교육하고 새로운 원시 데이터 샘플의 라벨링을 자동으로 시도합니다. 이 모델이 설정한 임계값 이상을 충족하는 신뢰도 점수로 데이터를 라벨링할 수 있을 때 라벨이 커밋됩니다. 신뢰도 점수가 임계값 미만인 경우 데이터는 라벨링 작업자에게 전송됩니다. 작업자가 라벨링한 데이터 일부는 라벨링 모델을 위한 새 학습 데이터 세트 생성에 사용됩니다. 그리고 모델은 정확도를 개선하기 위해 자동으로 재학습을 받습니다. 각각의 원시 데이터 샘플이 라벨링될 때마다 이 프로세스가 반복됩니다. 레이블 지정 모델을 사용하면 반복을 통해 자동으로 원시 데이터에 레이블을 지정하는 성능이 개선되고, 작업자에게 전달되는 데이터의 수는 감소합니다.
 

모델 구축

Q: Amazon SageMaker Studio 노트북이란 무엇입니까?

Amazon SageMaker Studio 노트북은 협업을 지원하는 탄력적인 새로운 관리형 Jupyter 노트북 환경으로, 기계 학습을 위한 완벽한 통합 개발 환경인 Amazon SageMaker Studio의 일부로 제공됩니다.

Q: SageMaker Studio 노트북은 인스턴스 기반 노트북 오퍼링과 어떻게 다릅니까?

SageMaker Studio 노트북은 인스턴스 기반 노트북과 차별화된 몇 가지 중요한 기능을 제공합니다. 이제 이 새로운 노트북 경험을 통해 인스턴스를 수동으로 프로비저닝하거나 운영 상태가 될 때까지 기다리지 않고도 빠르게 노트북을 시작할 수 있습니다. 노트북을 읽고 실행하기 위해 UI를 시작하는 시작 시간도 인스턴스 기반 노트북보다 빠릅니다.

또한 언제라도 UI 내의 다양한 인스턴스 유형 모음에서 탄력적으로 인스턴스를 고를 수 있습니다. 더 이상 노트북에서 새 인스턴스와 포트를 시작하기 위해 AWS 콘솔로 이동하지 않아도 됩니다.

사용자마다 특정 인스턴스와 독립되어 있는 격리된 홈 디렉터리가 있습니다. 이 디렉터리는 시작되면 모든 노트북 서버와 커널에 자동으로 마운트되므로, 인스턴스를 전환해서 노트북을 보고 실행하는 경우에도 노트북과 다른 파일에 액세스할 수 있습니다.

SageMaker Studio 노트북은 AWS SSO와 통합되어 조직 자격 증명을 통해 노트북에 쉽게 액세스할 수 있습니다. 노트북 공유는 SageMaker Studio 노트북에 통합된 기능입니다. 또한 한 번의 클릭으로 동료와 노트북을 공유할 수 있습니다.

Q: 지원되는 노트북 유형은 무엇입니까?

현재 Jupyter 노트북이 지원됩니다.

Q: Amazon SageMaker Studio 노트북은 어떤 식으로 작동합니까?

Amazon SageMaker Studio 노트북은 클릭 한 번으로 작동하는 Jupyter 노트북으로, 빠르게 가동할 수 있습니다. 기본 컴퓨팅 리소스는 완전히 탄력적이므로 사용 가능한 리소스를 쉽게 확장하거나 축소할 수 있으며 변경 작업이 백그라운드에서 자동으로 진행되므로 작업에 방해가 되지 않습니다. 또한 SageMaker에서 클릭 한 번으로 노트북을 공유할 수 있습니다. 노트북을 다른 사람과 쉽게 공유하고 사용자는 같은 장소에 저장된 정확하게 동일한 노트북을 사용할 수 있습니다.

SageMaker Studio 노트북을 사용하면 AWS SSO를 사용하여 사내 자격 증명으로 로그인할 수 있습니다. 노트북을 공유하면 해당 노트북으로 캡슐화되는 작업 이미지에서 노트북을 실행하는 데 필요한 종속성이 자동으로 추적되므로 팀 내에서는 물론, 팀 간에도 노트북을 손쉽게 공유할 수 있습니다.

Q: Amazon SageMaker Studio 노트북을 다른 AWS 서비스와 함께 사용할 수 있습니까?

Amazon SageMaker Studio 노트북에서는 분산 훈련, 배치 변환, 호스팅, 실험 관리 같은 모든 SageMaker 기능을 활용할 수 있습니다. Amazon S3의 데이터 세트, Amazon Redshift, AWS Glue, Amazon EMR 또는 AWS Lake Formation 같은 다른 서비스를 SageMaker 노트북에서 액세스할 수도 있습니다.

Q: SageMaker Studio 노트북 요금은 어떻게 적용됩니까?

SageMaker Studio 노트북을 사용할 때는 컴퓨팅과 스토리지 비용 모두 지급해야 합니다. 컴퓨팅 인스턴스 유형별 요금은 Amazon SageMaker 요금을 참조하세요. 노트북과 데이터 파일 및 스크립트와 같은 관련 아티팩트는 Amazon EFS에 보존됩니다. 스토리지 요금은 Amazon EFS 요금을 참조하세요. AWS 프리 티어를 사용하는 고객은 Amazon SageMaker Studio 노트북을 무료로 시작할 수 있습니다.

Q: SageMaker Studio에서 만들고 실행하는 각 노트북에 대해 별도로 요금이 부과됩니까?

아니요. 같은 컴퓨팅 인스턴스에 여러 노트북을 생성하고 실행할 수 있습니다. 개별 항목이 아닌 사용하는 컴퓨팅에 대해서만 지불합니다. 측정 가이드에서 자세한 내용을 읽어보실 수 있습니다.

노트북 외에도 Studio에서 터미널과 대화형 셀을 시작하고 실행할 수 있습니다. 모두 동일한 컴퓨팅 인스턴스에 위치합니다. 각 애플리케이션은 컨테이너나 이미지 내에서 실행됩니다. SageMaker Studio는 데이터 과학 및 기계 학습용으로 특별히 구축되고 사전 구성된 여러 가지 내장 이미지를 제공합니다. SageMaker Studio 노트북 사용 가이드에서 Studio 개발자 환경에 대해 자세히 읽어볼 수 있습니다.

Q: 어떻게 내 노트북에서 사용하는 리소스를 모니터링하고 종료할 수 있습니까?

SageMaker Studio 비주얼 인터페이스 및 AWS Management Console을 통해 SageMaker Studio 노트북에서 사용하는 리소스를 모니터링하고 종료할 수 있습니다. 자세한 내용은 설명서를 참조하세요.

Q: SageMaker Studio 노트북을 실행하고 있습니다. 브라우저를 닫거나, 노트북 탭을 닫거나, 브라우저를 열어두어도 요금이 부과됩니까?

예. 컴퓨팅에 대해 계속해서 요금이 부과될 것입니다. 이것은 AWS Management Console에서 EC2 인스턴스를 시작한 다음 브라우저를 닫는 것과 유사합니다. EC2 인스턴스는 계속 실행되며 인스턴스를 명시적으로 종료하지 않는다면 여전히 비용이 발생합니다.

Q: Studio 도메인을 만들고 설정하는 데 요금이 청구됩니까?

아니오. 사용자 프로필 추가, 업데이트, 삭제를 포함하여 Studio 도메인을 만들거나 구성하는 데는 요금이 청구되지 않습니다.

Q: Studio 노트북 또는 기타 SageMaker 서비스에 대한 항목별 요금은 어떻게 확인합니까?

관리자는 AWS 결제 콘솔에서 Studio를 포함하여 SageMaker에 대한 항목별 요금 목록을 확인할 수 있습니다. SageMaker용 AWS Management Console의 상단 메뉴에서 서비스를 선택하고, 검색 상자에 결제를 입력하고, 드롭다운 메뉴에서 결제를 선택한 다음 왼쪽 패널에서 청구서를 선택합니다. 세부 정보 섹션에서 SageMaker를 클릭하여 리전 목록을 확장하고 항목별 요금으로 드릴다운할 수 있습니다.

모델 교육

Q: Amazon SageMaker 실험이란 무엇입니까?

Amazon SageMaker 실험을 사용하면 기계 학습 모델에 대한 반복을 구성하고 추적할 수 있습니다. SageMaker 실험은 입력 파라미터, 구성 및 결과를 자동으로 캡처하고 이를 ‘실험’으로 저장하여 반복을 관리하도록 돕습니다. SageMaker Studio의 시각적 인터페이스에서 작업하여 활성 실험을 탐색하고 특성별로 이전 실험을 검색하며 결과와 함께 이전 실험을 검토하고 실험 결과를 시각적으로 비교할 수 있습니다.

Q: Amazon SageMaker Debugger란 무엇입니까?

Amazon SageMaker Debugger는 훈련 도중 훈련 및 검증, 혼동 지표, 학습 변화도와 같은 실시간 지표를 자동으로 캡처하여 모델 정확도를 개선합니다. SageMaker Debugger의 지표는 쉽게 이해할 수 있도록 SageMaker Studio에서 시각화할 수 있습니다. SageMaker Debugger는 일반적인 훈련 문제가 감지될 때 경고 및 해결 방법을 생성할 수 있습니다. 또한 SageMaker Debugger는 CPU, GPU, 네트워크 및 메모리와 같은 시스템 리소스를 실시간으로 자동으로 모니터링하고 프로파일링하며, 이러한 리소스의 재할당에 대한 권장 사항을 제공합니다. 이를 통해 훈련 중에 리소스를 효율적으로 사용하고 비용과 리소스를 절감할 수 있습니다.

Q: Amazon SageMaker에서는 분산 훈련을 지원합니까?

예. Amazon SageMaker는 AWS GPU 인스턴스에서 딥 러닝 모델과 대규모 훈련 세트를 자동으로 분산시킬 수 있습니다. 이때 소요 시간은 이러한 분산 전략을 수동으로 빌드하고 최적화하는 데 걸리는 시간에 비해 몇 분의 일에 불과합니다. SageMaker에서 적용하는 두 가지 분산 훈련 기술로는 데이터 병렬 처리와 모델 병렬 처리가 있습니다. 데이터 병렬 처리는 여러 GPU 인스턴스에서 데이터를 균등하게 나누어 훈련 속도를 개선하기 위해 적용됩니다. 이 경우 각 인스턴스를 동시에 훈련할 수 있습니다. 모델 병렬 처리는 모델이 너무 커서 단일 GPU에 저장할 수 없는 경우에 유용하며, 여러 GPU에 분산하기 전에 모델을 더 작은 부분으로 파티셔닝해야 합니다. PyTorch 및 TensorFlow 훈련 스크립트에서 추가 코드 몇 줄만 작성하면, SageMaker는 데이터 병렬 처리 또는 모델 병렬 처리를 자동으로 적용하여 모델을 더 빠르게 개발하고 배포할 수 있습니다. SageMaker는 각 GPU 계산의 균형을 맞추기 위해 그래프 분할 알고리즘을 사용하여 모델을 분할하는 최상의 접근 방법을 결정하는 동시에 GPU 인스턴스 간의 통신을 최소화합니다. 또한 SageMaker는 선형에 가까운 확장 효율성을 달성하기 위해 AWS 컴퓨팅과 네트워크를 충분히 활용하는 알고리즘을 통해 분산 훈련 작업을 최적화하므로, 수동 오픈 소스 구현보다 더욱 빠르게 훈련을 완료할 수 있습니다.

Q: 관리형 스팟 훈련이란 무엇입니까?

Amazon SageMaker를 통해 관리형 스팟 학습을 수행할 경우 Amazon EC2 스팟 인스턴스를 사용하여 기계 학습 모델을 학습할 수 있으며 모델 학습 비용을 최대 90%나 줄일 수 있습니다.

Q: 관리형 스팟 학습을 이용하려면 어떻게 해야 합니까?

학습 작업을 제출할 때 관리형 스팟 학습 옵션을 활성화하고 스팟 용량을 기다리는 시간도 지정합니다. 그러면 Amazon SageMaker가 Amazon EC2 스팟 인스턴스를 사용하여 작업을 실행하고 스팟 용량을 관리합니다. 작업이 실행 중이거나 용량 대기 중일 때 모두 학습 작업 상태를 완전히 파악할 수 있습니다.

Q: 관리형 스팟 학습은 언제 이용해야 합니까?

관리형 스팟 학습은 학습 실행에 유연성이 있고 학습 작업 비용을 최소화하려는 경우에 이상적입니다. 관리형 스팟 학습을 이용할 경우 기계 학습 모델에 대한 학습 비용을 최대 90%까지 절감할 수 있습니다.

Q: 관리형 스팟 학습은 어떻게 작동합니까?

관리형 스팟 학습은 학습을 위해 Amazon EC2 스팟 인스턴스를 사용하며 AWS에 용량이 필요한 경우 이러한 인스턴스를 선점할 수 있습니다. 결과적으로, 관리형 스팟 학습 작업은 이용 가능한 용량이 생길 때마다 조금씩 실행될 수 있습니다. Amazon SageMaker가 최신 모델 체크포인트를 사용하여 학습 작업을 재개할 수 있으므로 중단이 발생한 경우에도 학습 작업을 처음부터 다시 시작할 필요가 없습니다. SageMaker를 사용하는 기본 프레임워크 및 기본 컴퓨터 비전 알고리즘이 정기적 체크포인트를 활성화하며 사용자 지정 모델로 체크포인트를 활성화할 수 있습니다.

Q: 관리형 스팟 학습에 대해 정기적으로 체크포인트를 점검해야 합니까?

장기적인 학습 작업을 위한 일반적인 모범 사례로서 주기적으로 체크포인트 점검을 수행할 것을 권장합니다. 이를 통해 용량이 선점된 경우에도 관리형 스팟 학습이 다시 시작되는 것을 방지할 수 있습니다. 체크포인트를 활성화하면 Amazon SageMaker가 마지막 체크포인트에서 관리형 스팟 학습 작업을 재개합니다.

Q: 관리형 스팟 학습 작업을 통한 비용 절감액을 계산하려면 어떻게 해야 합니까?

관리형 스팟 학습 작업이 완료되면 AWS Management Console에서 절감액을 확인할 수 있고 학습 작업 기간과 청구 대상 기간 사이의 백분율 차이로도 비용 절감액을 계산할 수 있습니다.

관리형 스팟 학습 작업의 중단 횟수와 관계없이 데이터를 다운로드한 기간에 대해서 한 번만 비용이 청구됩니다.

Q: 관리형 스팟 학습으로 사용할 수 있는 인스턴스는 무엇입니까?

관리형 스팟 학습은 Amazon SageMaker에서 지원되는 모든 인스턴스와 함께 이용이 가능합니다.

Q: 관리형 스팟 학습은 어떤 AWS 지역에서 지원됩니까?

관리형 스팟 학습은 현재 Amazon SageMaker를 이용 가능한 모든 AWS 리전에서 지원됩니다.

Q: 학습에 사용할 수 있는 데이터 세트의 크기에 제한이 있습니까?

Amazon SageMaker에서 모델 학습에 사용할 수 있는 데이터 세트의 크기 제한은 없습니다.

Q: Amazon SageMaker로 손쉽게 끌어올 수 있는 데이터 소스는 무엇입니까?

학습 작업을 생성하면서 학습 데이터가 저장된 Amazon S3 위치를 지정할 수 있습니다.

Q: Amazon SageMaker에서는 모델을 생성할 때 어떤 알고리즘을 사용합니까?

Amazon SageMaker에는 선형 회귀, 로지스틱 회귀, k-평균 클러스터링, 주성분 분석, 인수 분해 머신, 신경 주제 모델링, LDA(Latent Dirichlet Allocation), 그래디언트 부스티드 트리, sequence2sequence, 시계열 예측, word2vec 및 이미지 분류에 대한 알고리즘이 내장되어 있습니다. SageMaker는 최적화된 Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn 및 Deep Graph Library 컨테이너도 제공합니다. 그뿐 아니라 Amazon SageMaker는 문서화된 사양을 준수하는 Docker 이미지를 통해 제공된 사용자 지정 학습 알고리즘을 지원합니다.

Q: 자동 모델 튜닝이란 무엇입니까?

대부분 기계 학습 알고리즘에서는 기본 알고리즘이 작동하는 방식을 제어하는 다양한 파라미터를 공개합니다. 이러한 파라미터는 일반적으로 하이퍼파라미터라고 부르며 그 값은 교육된 모델의 품질에 영향을 미칩니다. 자동 모델 튜닝은 알고리즘에서 최적의 모델을 산출할 수 있는 하이퍼파라미터 세트를 찾는 프로세스입니다.

Q: 자동 모델 튜닝으로 어떤 모델을 튜닝할 수 있습니까?

과학적으로 실현 가능한 한, 내장된 SageMaker 알고리즘, 딥신경망 또는 Docker 이미지 형식으로 Amazon SageMaker에 가져오는 임의 알고리즘을 비롯하여 원하는 알고리즘에 대해 SageMaker에서 자동 모델 튜닝을 실행할 수 있습니다.

Q: Amazon SageMaker 외부에서 자동 모델 튜닝을 사용할 수 있습니까?

지금은 지원되지 않습니다. 최상의 모델 튜닝 성능과 경험은 Amazon SageMaker 내에서 제공됩니다.

Q: 기본 튜닝 알고리즘이란 무엇입니까?

현재 튜닝 하이퍼파라미터에 대한 알고리즘은 베이지안 최적화를 사용자 지정하여 구현한 것입니다. 튜닝 프로세스 전반에 걸쳐 고객이 지정한 목표 지표를 최적화하는 것을 목표로 합니다. 완료된 학습 작업의 객체 지표를 확인하고 지식을 활용하여 다른 학습 작업을 위한 하이퍼파라미터 조합을 추론합니다.

Q: 튜닝을 위해 특정 하이퍼파라미터를 추천하시겠습니까?

아니요. 특정 하이퍼파라미터가 모델 성능에 미치는 영향은 다양한 요소에 따라 다르며 하나의 하이퍼파라미터가 다른 하이퍼파라미터보다 중요하므로 튜닝을 해야 한다고 단정적으로 말하기는 어렵습니다. Amazon SageMaker에 내장된 알고리즘의 경우 AWS에서는 하이퍼파라미터가 튜닝 가능한지 알려드립니다.

Q: 하이퍼파라미터 튜닝 작업은 얼마나 걸립니까?

하이퍼파라미터 튜닝 작업에 걸리는 시간은 데이터 크기, 기본 알고리즘, 하이퍼파라미터의 값 등 여러 요소에 따라 달라집니다. 또한, 고객은 동시 교육 작업 수와 총 교육 작업 수를 선택할 수 있습니다. 이 모든 선택이 하이퍼파라미터 튜닝 작업에 걸리는 시간에 영향을 미칩니다.

Q: 빠르고 정확하도록 모델처럼 여러 목표를 동시에 최적화할 수 있습니까?

지금은 지원되지 않습니다. 현재는 단일 목표 지표를 지정하여 알고리즘 코드를 최적화하거나 변경하여 2개 이상의 유용한 지표 간 가중 평균인 새로운 지표를 생성해야 하며 튜닝 프로세스를 해당 목표 지표에 맞게 최적화해야 합니다.

Q: 자동 모델 튜닝은 비용이 어떻게 됩니까?

하이퍼파라미터 튜닝 작업 자체는 무료입니다. 모델 학습 요금을 기반으로 하이퍼파라미터 튜닝 작업에서 시작하는 학습 작업에 대한 비용이 부과됩니다.

Q: Amazon SageMaker 오토파일럿이나 자동 모델 튜닝을 사용하는 상황은 어떻게 판단해야 합니까?

Amazon SageMaker 오토파일럿은 분류 및 회귀 사용 사례에 중점을 두면서 기능 사전 처리, 알고리즘 선택, 하이퍼파라미터 튜닝 같은 일반적인 기계 학습 워크플로의 모든 것을 자동화합니다. 반면 자동 모델 튜닝은 모델의 기반이 기본 제공 알고리즘이든, 딥 러닝 프레임워크든, 사용자 지정 컨테이너든 관계없이 모든 모델을 튜닝하도록 설계되어 있습니다. 유연성을 높이려면 특정 알고리즘을 직접 선택하고, 튜닝할 하이퍼파라미터와 해당하는 검색 범위를 결정해야 합니다.

Q: 강화 학습이란 무엇입니까?

강화 학습은 에이전트가 자신의 작업과 경험의 피드백을 사용하여 시행착오를 통해 대화형 환경에서 학습할 수 있는 기계 학습 기법입니다.

Q: Amazon SageMaker에서 강화 학습 모델을 학습할 수 있습니까?

예, Amazon SageMaker에서 지도 학습 및 비지도 학습에 추가하여 강화 학습 모델을 학습할 수 있습니다.

Q: 강화 학습은 지도 학습과 어떻게 다릅니까?

지도 학습과 강화 학습은 입력 및 출력 간의 매핑을 사용하지만, 태스크를 수행하기 위한 올바른 작업 세트가 에이전트에게 피드백으로 제공되는 지도 학습과는 달리, 강화 학습은 일련의 작업을 통해 장기적인 목표를 실현할 수 있도록 보상 신호를 최적화하는 지연된 피드백을 사용합니다.

Q: 강화 학습은 언제 사용해야 합니까?

지도 학습 기법의 목적은 훈련 데이터의 패턴을 기반으로 올바른 답변을 찾는 것인 반면, 비지도 학습 기법의 목적은 데이터 포인트 간의 유사점과 차이점을 찾는 것입니다. 반대로, 강화 학습 기법의 목적은 결과를 달성하는 방법이 확실하지 않더라도 원하는 결과를 달성하는 방법을 학습하는 것입니다. 결과적으로 RL은 로봇 공학, 자율 주행 차량, HVAC, 산업 제어 등과 같이 에이전트가 자율적 결정을 수행할 수 있는 지능형 애플리케이션을 활성화하는 데 더 적합합니다.

Q: 강화 학습 모델을 학습하기 위해 어떤 유형의 환경을 사용할 수 있습니까?

Amazon SageMaker RL은 강화 학습 모델을 교육하기 위해 다양한 환경을 지원합니다. AWS RoboMaker와 같은 AWS 서비스, Open AI Gym 인터페이스를 사용하여 개발된 오픈 소스 환경 또는 사용자 지정 환경, MATLAB 및 SimuLink와 같은 상업용 시뮬레이션 환경을 사용할 수 있습니다.

Q: 강화 학습 모델을 학습하기 위해 고유의 RL 에이전트 알고리즘을 작성해야 합니까?

아니요, Amazon SageMaker RL에는 DQN, PPO, A3C 등과 같은 RL 에이전트 알고리즘의 구현을 제공하는 Coach 및 Ray RLLib와 같은 RL 도구 키트가 포함되어 있습니다.

Q: 고유의 RL 라이브러리 및 알고리즘 구현을 가져와서 Amazon SageMaker RL에서 실행할 수 있습니까?

예, 고유의 RL 라이브러리 및 알고리즘 구현을 도커 컨테이너로 가져온 다음 Amazon SageMaker RL에서 실행할 수 있습니다.

Q: Amazon SageMaker RL을 사용하여 배포된 롤아웃을 수행할 수 있습니까?

예. 다른 유형의 클러스터를 선택할 수도 있습니다. 이 경우 학습은 한 GPU 인스턴스에서 실행될 수 있고 시뮬레이션은 여러 CPU 인스턴스에서 실행될 수 있습니다.

모델 배포

Q: Amazon SageMaker 모델 모니터란 무엇입니까?

Amazon SageMaker 모델 모니터를 사용하여 개발자는 개념 드리프트를 탐지하고 해결할 수 있습니다. SageMaker 모델 모니터는 배포된 모델에서 개념 드리프트를 자동으로 감지하고 문제 원인을 파악하는 데 도움이 되는 자세한 알림을 제공합니다. SageMaker에서 학습된 모든 모델은 SageMaker Studio에서 수집하고 볼 수 있는 주요 지표를 자동으로 생성합니다. SageMaker Studio 내부에서 수집할 데이터, 확인하는 방법, 알림 수신 시기를 구성할 수 있습니다.

Q: Amazon SageMaker를 실행하는 인프라에 액세스할 수 있습니까?

아니요, Amazon SageMaker가 사용자 대신 컴퓨팅 인프라를 운영하여 상태 확인을 수행하고 보안 패치를 적용하며 기타 일상적인 유지 관리를 수행합니다. 사용자는 자체 호스팅 환경에 사용자 지정 추론 코드로 학습한 모델 아티팩트를 배포할 수 있습니다.

Q: Amazon SageMaker 모델이 프로덕션에 배포된 후에는 크기와 성능을 어떻게 조정합니까?

Amazon SageMaker 호스팅은 애플리케이션 Auto Scaling을 사용해 애플리케이션에 필요한 성능에 맞춰 자동으로 조정됩니다. 또한, 엔드포인트 구성을 수정하여 가동 중단 없이 인스턴스 수와 유형을 수동으로 변경할 수 있습니다.

Q: Amazon SageMaker 프로덕션 환경을 모니터링하려면 어떻게 해야 합니까?

Amazon SageMaker는 성능 지표를 Amazon CloudWatch 지표로 내보내므로, 지표를 추적하고, 경보를 설정하고, 프로덕션 트래픽의 변경 사항에 자동으로 대응할 수 있습니다. 또한, Amazon SageMaker는 사용자가 프로덕션 환경을 모니터링하고 문제를 해결할 수 있도록 로그를 Amazon Cloudwatch Logs에 작성합니다.

Q: Amazon SageMaker에서 호스팅할 수 있는 모델 유형은 무엇입니까?

Amazon SageMaker는 추론 Docker 이미지의 문서화된 사양을 준수하는 모든 모델을 호스팅할 수 있습니다. Amazon SageMaker 모델 아티팩트 및 추론 코드에서 생성된 모델이 이에 포함됩니다.

Q: Amazon SageMaker에서는 동시에 몇 개의 실시간 API 요청을 처리할 수 있습니까?

Amazon SageMaker는 초당 상당히 큰 규모의 트랜잭션으로 확장할 수 있도록 설계되었습니다. 정확한 수는 배포된 모델과 모델이 배포된 인스턴스의 수 및 유형에 따라 달라집니다.

Q: 배치 변환이란 무엇입니까?

배치 변환은 대규모 또는 소규모 배치 데이터에 대한 예측을 실행할 수 있게 해 줍니다. 이제 데이터 세트를 여러 데이터 청크로 분할하고 실시간 엔드포인트를 관리할 필요가 없습니다. 간단한 API를 통해 대량 데이터 레코드에 대한 예측을 요청하고 데이터를 쉽고 빠르게 변환할 수 있습니다.

Q: Amazon SageMaker Edge Manager란 무엇입니까?

Amazon SageMaker Edge Manager는 스마트 카메라, 로봇, 개인용 컴퓨터 및 모바일 디바이스 같은 엣지 디바이스 플릿에서 기계 학습 모델을 손쉽게 최적화, 보안, 모니터링 및 유지 보수할 수 있도록 지원하는 Amazon SageMaker의 기능입니다. SageMaker Edge Manager를 사용하면 ML 개발자가 다양한 엣지 디바이스에서 대규모로 ML 모델을 운영할 수 있습니다.

Q: SageMaker Edge Manager를 시작하려면 어떻게 해야 합니까?

SageMaker Edge Manager를 시작하려면 클라우드에서 훈련된 ML 모델을 컴파일하고 패키지로 작성한 후 디바이스를 등록하고 SageMaker Edge Manager SDK에서 디바이스를 준비해야 합니다. 배포를 위해 모델을 준비하도록 SageMaker Edge Manager는 SageMaker Neo를 사용하여 대상 엣지 하드웨어에 맞게 모델을 컴파일합니다. 모델이 컴파일되면 SageMaker Edge Manager는 빠르게 배포할 수 있도록 AWS 생성 키로 모델에 서명한 후 런타임 및 필수 자격 증명을 통해 모델을 패키지로 작성합니다. 디바이스 측에서는, SageMaker Edge Manager에 디바이스를 등록하고, SageMaker Edge Manager SDK를 다운로드한 후 지침에 따라 SageMaker Edge Manager 에이전트를 디바이스에 설치합니다. 자습서 노트북에서는 SageMaker Edge Manager에서 모델을 준비하고 엣지 디바이스에 모델을 연결하는 방법에 대한 단계별 예제를 제공합니다.

Q: SageMaker Edge Manager에서는 어떤 디바이스를 지원합니까?

Amazon SageMaker Edge Manager는 Linux 및 Windows 운영 체제에서 일반적인 CPU(ARM, x86) 및 GPU(ARM, Nvidia) 기반 디바이스를 지원합니다. 앞으로 SageMaker Edge Manager는 SageMaker Neo에서도 지원하는 더 많은 임베디드 프로세서와 모바일 플랫폼을 지원하도록 확장할 계획입니다.

Q: Amazon SageMaker Edge Manager를 사용하려면 Amazon SageMaker를 사용하여 모델을 훈련해야 합니까?

아니요. 오픈 소스 또는 모델 공급업체의 사전 훈련된 모델을 사용하거나 그 외 위치에서 모델을 훈련할 수 있습니다.

Q: Amazon SageMaker Edge Manager를 사용하려면 Amazon SageMaker Neo를 사용하여 모델을 컴파일해야 합니까?

예. Amazon SageMaker Neo는 엣지 디바이스에서 패키지로 작성하고 배포할 수 있도록 모델을 실행 가능 항목으로 변환하고 컴파일합니다. 모델 패키지를 배포한 후에 Amazon SageMaker Edge Manager 에이전트는 모델 패키지를 압축 해제하고 디바이스에서 모델을 실행합니다.

Q: 엣지 디바이스에 모델을 배포하려면 어떻게 해야 합니까?

Amazon SageMaker Edge Manager는 지정된 Amazon S3 버킷에 모델 패키지를 저장합니다. AWS IoT Greengrass에서 제공하는 무선(OTA) 배포 기능을 사용하거나 원하는 다른 배포 메커니즘을 통해 S3 버킷에서 디바이스로 모델 패키지를 배포할 수 있습니다.

Q: Amazon SageMaker Edge Manager SDK는 SageMaker Neo 런타임(dlr)과 어떻게 다릅니까?

Neo dlr은 Amazon SageMaker Neo 서비스에서 컴파일된 모델만 실행하는 오픈 소스 런타임입니다. 오픈 소스 dlr과 달리, SageMaker Edge Manager SDK는 추가 보안, 모델 관리 및 모델 지원 피처를 포함하는 엔터프라이즈급 디바이스 기반 에이전트를 포함합니다. SageMaker Edge Manager SDK는 대규모 프로덕션 배포에 적합합니다.

Q: Amazon SageMaker Edge Manager는 AWS IoT Greengrass와 어떤 관계입니까?

Amazon SageMaker Edge Manager와 AWS IoT Greengrass는 IoT 솔루션에서 함께 사용할 수 있습니다. ML 모델을 SageMaker Edge Manager에서 패키지로 작성한 후에 AWS IoT Greengrass의 OTA 업데이트 기능을 사용하여 디바이스에 모델 패키지를 배포할 수 있습니다. AWS IoT Greengrass를 사용하면 원격으로 IoT 디바이스를 모니터링하는 동시에, SageMaker Edge Manager가 디바이스에서 ML 모델을 모니터링하고 유지 보수할 수 있습니다.

Q: Amazon SageMaker Edge Manager는 AWS Panorama와 어떤 관계입니까? 언제 Amazon SageMaker Edge Manager를 사용하고, 언제 AWS Panorama를 사용해야 합니까?

AWS는 엣지 디바이스에서 모델을 실행하기 위한 가장 포괄적이고 심층적인 기능을 제공합니다. 그리고 컴퓨터 비전, 음성 인식 및 예측 유지 보수를 포함하여 다양한 사용 사례를 지원하는 서비스도 갖추었습니다.

카메라 및 어플라이언스와 같은 엣지 디바이스에서 컴퓨터 비전을 실행하려는 회사는 AWS Panorama를 사용할 수 있습니다. Panorama는 엣지 디바이스에서 컴퓨터 비전 애플리케이션을 쉽게 배포할 수 있도록 지원합니다. AWS Panorama는 클라우드 콘솔에 로그인하고 Amazon S3 또는 SageMaker에서 사용하려는 모델을 지정한 후 Python 스크립트로 비즈니스 로직을 작성하면 바로 간편하게 시작할 수 있습니다. AWS Panorama는 대상 디바이스에 대해 모델을 컴파일하고 애플리케이션 패키지를 생성하므로, 몇 번의 클릭으로 디바이스에 해당 패키지를 배포할 수 있습니다. 사용자 지정 애플리케이션을 구축하려는 ISV도 AWS Panorama SDK를 사용할 수 있습니다. 디바이스 제조업체는 Device SDK를 사용하여 AWS Panorama에 대해 디바이스를 인증할 수 있습니다.

고유한 모델을 구축하고 모델 피처에 대한 세분화된 제어 기능을 원하는 고객이라면 Amazon SageMaker Edge Manager를 사용할 수 있습니다. SageMaker Edge Manager는 자연어 처리, 사기 탐지 및 예측 유지 보수와 같은 모든 유형의 사용 사례에 사용하는 스마트 카메라, 스마트 스피커, 로봇과 같은 여러 엣지 디바이스 플릿에서 기계 학습(ML) 모델을 준비, 실행, 모니터링 및 업데이트하는 관리형 서비스입니다. SageMaker Edge Manager는 서로 다른 모델 피처 및 드리프트에 대한 모니터 모델 엔지니어링을 포함하여 모델에 대한 제어를 원하는 ML 엣지 개발자에게 적합합니다. 모든 ML 엣지 개발자는 SageMaker 콘솔 및 SageMaker API를 통해 SageMaker Edge Manager를 사용할 수 있습니다. SageMaker Edge Manager는 클라우드의 모델을 엣지 디바이스로 구축, 훈련 및 배포하는 SageMaker의 기능을 활용합니다.

Q: Amazon SageMaker Edge Manager는 어느 AWS 리전에서 사용할 수 있습니까?

Amazon SageMaker Edge Manager는 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오레곤), EU(아일랜드), EU(프랑크푸르트), 아시아 태평양(도쿄)과 같은 6개 AWS 리전에서 사용할 수 있습니다. 자세한 내용은 AWS 리전 표를 참조하세요.

Q: Amazon SageMaker Neo란 무엇입니까?

Amazon SageMaker Neo는 기계 학습 모델이 한 번 학습하여 클라우드와 엣지의 어느 곳에서도 실행할 수 있도록 합니다. SageMaker Neo는 여러 하드웨어 플랫폼에 배포하는 데 사용할 수 있는 인기 딥 러닝 프레임워크로 구축된 모형을 자동으로 최적화합니다. 최적화된 모형은 최대 25배 더 빨리 실행되며 일반적인 기계 학습 모형과 비교해 10분의 1 미만의 리소스를 사용합니다.

Q: Amazon SageMaker Neo를 시작하려면 어떻게 해야 합니까?

Amazon SageMaker Neo를 시작하려면 Amazon SageMaker 콘솔에 로그인하고, 학습된 모델을 선택한 다음, 예제를 따라 모델을 컴파일하고, 결과 모델을 대상 하드웨어 플랫폼에 배포합니다.

Q: Amazon SageMaker Neo의 주요 구성 요소는 무엇입니까?

Amazon SageMaker Neo에는 컴파일러와 런타임이라는 두 가지 주요 구성 요소가 포함됩니다. 먼저, Neo 컴파일러는 다른 프레임워크에서 내보낸 모델을 읽습니다. 그런 다음 프레임워크별 함수와 작업을 프레임워크와 무관한 중간 표시로 변환합니다. 다음에는 일련의 최적화를 수행합니다. 그런 다음, 컴파일러는 최적화된 작업에 대한 바이너리 코드를 생성하고 이 코드를 공유 객체 라이브러리에 기록합니다. 또한 컴파일러는 모델 정의와 파라미터를 개별 파일로 저장합니다. 실행 중에 Neo 런타임은 컴파일러에서 생성된 아티팩트(모델 정의, 파라미터, 모델을 실행하기 위한 공유 객체 라이브러리)를 로드합니다.

Q: Amazon SageMaker Neo를 사용하여 모델을 변환하려면 Amazon SageMaker를 사용하여 모델을 학습해야 합니까?

아니요. 다른 곳에서 모델을 학습하고 Neo를 사용하여 Amazon SageMaker ML 인스턴스 또는 AWS IoT Greengrass 지원 디바이스에 맞게 모델을 최적화할 수 있습니다.

Q: Amazon SageMaker Neo는 어떤 모델을 지원합니까?

현재, Amazon SageMaker Neo는 컴퓨터 비전 애플리케이션을 구동하는 가장 인기 있는 딥 러닝 모델과 오늘날 Amazon SageMaker에서 사용되는 가장 인기 있는 결정 트리 모델을 지원합니다. Neo는 MXNet 및 TensorFlow에서 훈련된 AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet, DenseNet 모델과 XGBoost에서 훈련된 분류 및 Random Cut Forest 모델을 최적화합니다.

Q: Amazon SageMaker Neo는 어떤 하드웨어 플랫폼을 지원합니까?

Amazon SageMaker Neo 설명서에서 지원되는 클라우드 인스턴스, 엣지 디바이스 및 프레임워크 버전의 목록을 확인할 수 있습니다.

Q: Amazon SageMaker Neo는 어느 AWS 리전에서 사용할 수 있습니까?

지원 리전 목록은 AWS 리전 표를 참조하세요.

Amazon SageMaker Savings Plans

Q: Amazon SageMaker Savings Plans란 무엇입니까?

Amazon SageMaker Savings Plans는 1년 또는 3년 기간에 일정 사용량 약정(시간당 USD 요금으로 측정)을 조건으로 하는 Amazon SageMaker에서의 유연한 사용량 기반 요금 모델입니다. Amazon SageMaker Savings Plans는 최대 64%까지 비용을 절감할 수 있는 가장 유연한 요금 모델입니다. 이 요금은 인스턴스 패밀리, 크기 또는 리전에 상관없이 SageMaker Studio 노트북, SageMaker 온디맨드 노트북, SageMaker 처리, SageMaker Data Wrangler, SageMaker 훈련, SageMaker 실시간 추론 및 SageMaker 배치 변환을 포함하여 적격한 SageMaker 기계 학습 인스턴스 사용량에 자동으로 적용됩니다. 예를 들어, 언제라도 추론 워크로드에 대해 미국 동부(오하이오)에서 실행되는 CPU 인스턴스에서 미국 서부(오레곤)의 ml.Inf1 인스턴스로 변경할 수 있으며, 계속해서 자동으로 Savings Plans 요금이 적용됩니다.

Q: Amazon SageMaker Savings Plans를 사용해야 하는 이유는 무엇입니까?

Amazon SageMaker 인스턴스 사용량이 일정한 크기이고(시간당 USD 요금으로 측정됨), 여러 SageMaker 구성 요소를 사용하거나 시간이 지남에 따라 기술 구성(예: 인스턴스 패밀리, 리전)이 변경되리라 예상되는 경우 SageMaker Savings Plans를 사용하면 절감 효과를 극대화하면서 애플리케이션 요구 사항 또는 새로운 혁신에 기반하여 기본적인 기술 구성을 변경하는 유연성을 제공합니다. Savings Plans 요금은 수동으로 수정하지 않고도 적격한 모든 기계 학습 인스턴스 사용량에 자동으로 적용됩니다.

Q: Amazon SageMaker Savings Plans를 시작하려면 어떻게 해야 합니까?

관리 콘솔의 AWS Cost Explorer에서 또는 API/CLI를 사용하여 Savings Plans를 시작할 수 있습니다. AWS Cost Explorer에서 제공되는 권장 사항에 따라 손쉽게 Savings Plans 약정을 체결하여 가장 큰 절감 효과를 얻을 수 있습니다. 권장되는 시간 약정은 이전 온디맨드 사용량 기록과 고객이 선택한 플랜 유형, 기간, 결제 옵션을 기준으로 합니다. Savings Plans에 가입하면 컴퓨팅 사용량에 자동으로 할인된 Savings Plans 요금이 청구되고 약정 사용량을 초과하는 사용량에 대해서는 일반적인 온디맨드 요금이 청구됩니다.

Q: Amazon SageMaker용 Savings Plans는 EC2용 Compute Savings Plans와 어떻게 다릅니까?

Amazon SageMaker용 Savings Plans와 EC2용 Savings Plans의 차이점은 각각 포함하는 서비스에서 나타납니다. SageMaker Savings Plans는 SageMaker 기계 학습 인스턴스 사용량에만 적용 가능합니다.

Q: AWS Organizations/통합 결제에서 Savings Plans는 어떻게 작동합니까?

Savings Plans는 AWS Organization/통합 결제 패밀리 내의 모든 계정에서 구매할 수 있습니다. 기본적으로 Savings Plans에서 제공하는 혜택은 AWS Organization/통합 결제 패밀리 내 모든 계정의 사용량에 적용 가능합니다. 그러나 Savings Plans 혜택을 해당 용량을 구매한 계정으로만 제한할 수도 있습니다.

Amazon SageMaker 요금에 대해 자세히 알아보기

요금 페이지로 이동하기
시작할 준비가 되셨나요?
가입하기
추가 질문이 있으십니까?
AWS에 문의