일반

Q: Amazon SageMaker란 무엇입니까?

Amazon SageMaker는 데이터 과학자 및 개발자가 기계 학습 모델을 빠르고 쉽게 구축, 학습 및 배포할 수 있게 해주는 완전관리형 서비스입니다.

Q: Amazon SageMaker로 어떤 작업을 수행할 수 있습니까?

Amazon SageMaker를 사용하면 개발자와 데이터 과학자가 지능형 예측 앱에 사용할 기계 학습 모델을 구축할 수 있습니다.

Q: Amazon SageMaker를 시작하려면 어떻게 해야 합니까?

Amazon SageMaker를 시작하려면 Amazon SageMaker 콘솔에 로그인하고, 예제 노트북으로 노트북 인스턴스를 시작하고, 데이터 원본에 연결하도록 수정하고, 예제를 따라 모델을 구축/학습/검증하고, 입력 몇 번으로 완성된 모델을 프로덕션에 배포하면 됩니다.

Q: Amazon SageMaker는 어느 지역에서 사용할 수 있습니까?

Amazon SageMaker를 지원하는 AWS 리전 목록은 모든 AWS 글로벌 인프라에 대한 AWS 리전 표를 참조하십시오. 자세한 내용은 AWS 일반 참조의 지역 및 엔드포인트를 참조하십시오.

Q: 보안 분석 및 운영 문제 해결 목적으로 내 계정에서 이루어진 모든 Amazon SageMaker API 호출 기록을 얻을 수 있습니까? 

예. 계정에서 이루어진 Amazon SageMaker API 호출 기록을 받으려면 AWS Management Console에서 AWS CloudTrail을 활성화하기만 하면 됩니다. Amazon SageMaker 런타임에서 InvokeEndpoint API 호출은 기록되거나 제공되지 *않습니다*.

Q: Amazon SageMaker의 서비스 가용성은 어떻습니까?

Amazon SageMaker는 높은 가용성을 제공하도록 설계되었습니다. 유지 관리 기간이나 예약된 가동 중지 시간이 없습니다. Amazon SageMaker API는 가용성이 뛰어나고 입증된 Amazon 데이터 센터에서 실행되며 각 AWS 지역의 시설 세 곳에 서비스 스택 복제가 구성되어 있어 서버 장애나 가용 영역 중단 시에 내결함성을 제공합니다.

Q: Amazon SageMaker에는 어떤 보안 조치가 적용됩니까?

Amazon SageMaker에서는 전송 중이거나 저장 중인 ML 모델 아티팩트 및 기타 시스템 아티팩트가 암호화됩니다. Amazon SageMaker API 및 콘솔에 대한 요청은 보안(SSL) 연결을 통해 전달됩니다. AWS Identity and Access Management 역할을 Amazon SageMaker로 전달하여 교육 및 배포를 위해 사용자 대신 리소스에 액세스할 수 있는 권한을 제공합니다. 모델 아티팩트 및 데이터에 암호화된 S3 버킷을 사용하고 KMS 키를 Amazon SageMaker 노트북, 학습 작업 및 엔드포인트로 전달하여 연결된 ML 스토리지 볼륨을 암호화할 수 있습니다.

Q: Amazon SageMaker는 내 코드를 어떻게 보호합니까?

Amazon SageMaker는 보안 그룹과 저장 중 암호화(선택 사항)로 보호된 ML 스토리지 볼륨에 코드를 저장합니다.

Q: Amazon SageMaker 요금은 어떻게 부과됩니까?

노트북을 호스팅하고 모델을 교육하고 예측을 수행하고 출력을 로깅하는 데 사용하는 ML 컴퓨팅, 스토리지 및 데이터 처리 리소스에 대한 비용을 지불합니다. Amazon SageMaker를 사용하면 호스팅된 노트북, 교육 및 모델 호스팅에 사용되는 인스턴스 수 및 유형을 선택할 수 있습니다. 서비스를 사용하면서 사용한 만큼만 비용을 지불하며 최소 요금 및 사전 약정은 없습니다.

Q: 자체 노트북, 학습 또는 호스팅 환경이 있는 경우는 어떻게 됩니까?

Amazon SageMaker에서는 전체 엔드 투 엔드 워크플로를 제공하지만, Amazon SageMaker와 함께 기존 도구를 계속 사용할 수 있습니다. 비즈니스 요구 사항에 따라 필요한 대로 Amazon SageMaker에서 각 단계의 결과를 손쉽게 송수신할 수 있습니다.

호스팅된 Jupyter 노트북

Q: 지원되는 노트북 유형은 무엇입니까?

현재 Jupyter 노트북이 지원됩니다.

Q: 내 워크스페이스를 중지하는 경우 AWS에서는 노트북 파일을 어떻게 유지합니까?

연결된 ML 스토리지 볼륨에 노트북 파일을 유지할 수 있습니다. ML 스토리지 볼륨은 노트북 인스턴스가 종료되면 분리되고 노트북 인스턴스가 다시 시작되면 다시 연결됩니다. 메모리에 저장된 항목은 유지되지 않습니다.

Q: 내 노트북의 가용 리소스를 늘리려면 어떻게 해야 합니까?

파일과 데이터를 연결된 ML 스토리지 볼륨에 저장한 후, Amazon SageMaker 콘솔에서 노트북 인스턴스를 수정하여 더 큰 프로필을 선택할 수 있습니다. 더 큰 가용성의 리소스를 제공하고 같은 노트북 파일과 라이브러리가 설치된 노트북 인스턴스가 다시 시작됩니다.

Q: Amazon SageMaker 노트북에서 모델을 학습하려면 어떻게 해야 합니까?

예제 노트북을 시작한 후, 사용자의 데이터 소스와 스키마에 맞춰 노트북을 사용자 지정하고 AWS API를 실행하여 교육 작업을 생성할 수 있습니다. 학습 작업의 진행 또는 완료는 Amazon SageMaker 콘솔 또는 AWS API를 통해 수행할 수 있습니다.

모델 학습

Q: 관리형 스팟 학습이란 무엇입니까?

Amazon SageMaker를 통해 관리형 스팟 학습을 수행할 경우 Amazon EC2 스팟 인스턴스를 사용하여 기계 학습 모델을 학습할 수 있으며 모델 학습 비용을 최대 90%나 줄일 수 있습니다.

Q: 관리형 스팟 학습을 이용하려면 어떻게 해야 합니까?

학습 작업을 제출할 때 관리형 스팟 학습 옵션을 활성화하고 스팟 용량을 기다리는 시간도 지정합니다. 그러면 Amazon SageMaker가 Amazon EC2 스팟 인스턴스를 사용하여 작업을 실행하고 스팟 용량을 관리합니다. 작업이 실행 중이거나 용량 대기 중일 때 모두 학습 작업 상태를 완전히 파악할 수 있습니다.

Q: 관리형 스팟 학습은 언제 이용해야 합니까?

관리형 스팟 학습은 학습 실행에 유연성이 있고 학습 작업 비용을 최소화하려는 경우에 이상적입니다. 관리형 스팟 학습을 이용할 경우 기계 학습 모델에 대한 학습 비용을 최대 90%까지 절감할 수 있습니다.

Q: 관리형 스팟 학습은 어떻게 작동합니까?

관리형 스팟 학습은 학습을 위해 Amazon EC2 스팟 인스턴스를 사용하며 AWS에 용량이 필요한 경우 이러한 인스턴스를 선점할 수 있습니다. 결과적으로, 관리형 스팟 학습 작업은 이용 가능한 용량이 생길 때마다 조금씩 실행될 수 있습니다. Amazon SageMaker가 최신 모델 체크포인트를 사용하여 학습 작업을 재개할 수 있으므로 중단이 발생한 경우에도 학습 작업을 처음부터 다시 시작할 필요가 없습니다. Amazon SageMaker를 사용하는 기본 프레임워크 및 기본 컴퓨터 비전 알고리즘이 정기적 체크포인트를 활성화하며 사용자 지정 모델로 체크포인트를 활성화할 수 있습니다.

Q: 관리형 스팟 학습에 대해 정기적으로 체크포인트를 점검해야 합니까?

장기적인 학습 작업을 위한 일반적인 모범 사례로서 주기적으로 체크포인트 점검을 수행할 것을 권장합니다. 이를 통해 용량이 선점된 경우에도 관리형 스팟 학습이 다시 시작되는 것을 방지할 수 있습니다. 체크포인트를 활성화하면 Amazon SageMaker가 마지막 체크포인트에서 관리형 스팟 학습 작업을 재개합니다. 

Q: 관리형 스팟 학습 작업을 통한 비용 절감액을 계산하려면 어떻게 해야 합니까?

관리형 스팟 학습 작업이 완료되면 AWS Management Console에서 절감액을 확인할 수 있고 학습 작업 기간과 청구 대상 기간 사이의 백분율 차이로도 비용 절감액을 계산할 수 있습니다.

관리형 스팟 학습 작업의 중단 횟수와 관계없이 다운로드한 데이터 양에 따라 한 번만 청구됩니다.

Q: 관리형 스팟 학습으로 사용할 수 있는 인스턴스는 무엇입니까?

관리형 스팟 학습은 Amazon SageMaker에서 지원되는 모든 인스턴스와 함께 이용이 가능합니다.

Q: 관리형 스팟 학습은 어떤 AWS 지역에서 지원됩니까?

관리형 스팟 학습은 현재 Amazon SageMaker를 이용 가능한 모든 AWS 지역에서 지원됩니다.

Q: 학습에 사용할 수 있는 데이터 세트의 크기에 제한이 있습니까?

Amazon SageMaker에서 모델 학습에 사용할 수 있는 데이터 세트의 크기 제한은 없습니다.

Q: Amazon SageMaker로 손쉽게 끌어올 수 있는 데이터 소스는 무엇입니까?

학습 작업을 생성하면서 학습 데이터가 저장된 Amazon S3 위치를 지정할 수 있습니다.

Q: Amazon SageMaker에서는 모델을 생성할 때 어떤 알고리즘을 사용합니까?

Amazon SageMaker에는 선형 회귀, 로지스틱 회귀, k-평균 클러스터링, 주성분 분석, 인수 분해 머신, 신경 주제 모델링, LDA(Latent Dirichlet Allocation), 그래디언트 부스티드 트리, sequence2sequence, 시계열 예측, word2vec 및 이미지 분류에 대한 알고리즘이 내장되어 있습니다. 또한, Amazon SageMaker는 최적화된 Apache MXNet, Tensorflow, Chainer 및 PyTorch 컨테이너를 제공합니다. 그뿐만 아니라 Amazon SageMaker는 문서화된 사양을 준수하는 Docker 이미지를 통해 제공된 사용자 지정 학습 알고리즘을 지원합니다.

Q: 자동 모델 튜닝이란 무엇입니까?

대부분 기계 학습 알고리즘에서는 기본 알고리즘이 작동하는 방식을 제어하는 다양한 파라미터를 공개합니다. 이러한 파라미터는 일반적으로 하이퍼파라미터라고 부르며 그 값은 교육된 모델의 품질에 영향을 미칩니다. 자동 모델 튜닝은 알고리즘에서 최적의 모델을 산출할 수 있는 하이퍼파라미터 세트를 찾는 프로세스입니다.

Q: 자동 모델 튜닝으로 어떤 모델을 튜닝할 수 있습니까?

과학적으로 실현 가능한 한, 내장된 SageMaker 알고리즘, 딥신경망 또는 Docker 이미지 형식으로 Amazon SageMaker에 가져오는 임의 알고리즘을 비롯하여 원하는 알고리즘에 대해 Amazon SageMaker에서 자동 모델 튜닝을 실행할 수 있습니다.

Q: Amazon SageMaker 외부에서 자동 모델 튜닝을 사용할 수 있습니까?

현재는 지원되지 않습니다. 최상의 모델 튜닝 성능과 경험은 Amazon SageMaker 내에서 제공됩니다.

Q: 기본 튜닝 알고리즘이란 무엇입니까?

현재 튜닝 하이퍼파라미터에 대한 알고리즘은 베이지안 최적화를 사용자 지정하여 구현한 것입니다. 튜닝 프로세스 전반에 걸쳐 고객이 지정한 목표 지표를 최적화하는 것을 목표로 합니다. 완료된 학습 작업의 객체 지표를 확인하고 지식을 활용하여 다른 학습 작업을 위한 하이퍼파라미터 조합을 추론합니다.

Q: 튜닝을 위해 특정 하이퍼파라미터를 추천하시겠습니까?

아니요. 특정 하이퍼파라미터가 모델 성능에 미치는 영향은 다양한 요소에 따라 다르며 하나의 하이퍼파라미터가 다른 하이퍼파라미터보다 중요하므로 튜닝을 해야 한다고 단정적으로 말하기는 어렵습니다. Amazon SageMaker에 내장된 알고리즘의 경우 AWS에서는 하이퍼파라미터가 튜닝 가능한지 알려드립니다.

Q: 하이퍼파라미터 튜닝 작업은 얼마나 걸립니까?

하이퍼파라미터 튜닝 작업에 걸리는 시간은 데이터 크기, 기본 알고리즘, 하이퍼파라미터의 값 등 여러 요소에 따라 달라집니다. 또한, 고객은 동시 교육 작업 수와 총 교육 작업 수를 선택할 수 있습니다. 이 모든 선택이 하이퍼파라미터 튜닝 작업에 걸리는 시간에 영향을 미칩니다. 

Q: 빠르고 정확하도록 모델처럼 여러 목표를 동시에 최적화할 수 있습니까?

현재는 지원되지 않습니다. 현재는 단일 목표 지표를 지정하여 알고리즘 코드를 최적화하거나 변경하여 2개 이상의 유용한 지표 간 가중 평균인 새로운 지표를 생성해야 하며 튜닝 프로세스를 해당 목표 지표에 맞게 최적화해야 합니다.

Q: 자동 모델 튜닝은 비용이 어떻게 됩니까?

하이퍼파라미터 튜닝 작업 자체는 무료입니다. 모델 학습 요금을 기반으로 하이퍼파라미터 튜닝 작업에서 시작하는 학습 작업에 대한 비용이 부과됩니다.

Q: 강화 학습이란 무엇입니까?

강화 학습은 에이전트가 자신의 작업과 경험의 피드백을 사용하여 시행착오를 통해 대화형 환경에서 학습할 수 있는 기계 학습 기법입니다.

Q: Amazon SageMaker에서 강화 학습 모델을 학습할 수 있습니까?

예, Amazon SageMaker에서 지도 학습 및 비지도 학습에 추가하여 강화 학습 모델을 학습할 수 있습니다.

Q: 강화 학습은 지도 학습과 어떻게 다릅니까?

지도 학습과 강화 학습은 입력 및 출력 간의 매핑을 사용하지만, 태스크를 수행하기 위한 올바른 작업 세트가 에이전트에게 피드백으로 제공되는 지도 학습과는 달리, 강화 학습은 일련의 작업을 통해 장기적인 목표를 실현할 수 있도록 보상 신호를 최적화하는 지연된 피드백을 사용합니다.

Q: 강화 학습은 언제 사용해야 합니까?

지도 학습 기법의 목적은 교육 데이터의 패턴을 기반으로 올바른 답변을 찾는 것인 반면, 비지도 학습 기법의 목적은 데이터 포인트 간의 유사점과 차이점을 찾는 것입니다. 반대로, 강화 학습 기법의 목적은 결과를 달성하는 방법이 확실하지 않더라도 원하는 결과를 달성하는 방법을 학습하는 것입니다. 결과적으로 RL은 로봇 공학, 자율 주행 차량, HVAC, 산업 제어 등과 같이 에이전트가 자율적 결정을 수행할 수 있는 지능형 애플리케이션을 활성화하는 데 더 적합합니다.

Q: 강화 학습 모델을 학습하기 위해 어떤 유형의 환경을 사용할 수 있습니까?

Amazon SageMaker RL은 강화 학습 모델을 교육하기 위해 다양한 환경을 지원합니다. AWS RoboMaker와 같은 AWS 서비스, Open AI Gym 인터페이스를 사용하여 개발된 오픈 소스 환경 또는 사용자 지정 환경, MATLAB 및 SimuLink와 같은 상업용 시뮬레이션 환경을 사용할 수 있습니다.

Q: 강화 학습 모델을 학습하기 위해 고유의 RL 에이전트 알고리즘을 작성해야 합니까?

아니요, Amazon SageMaker RL에는 DQN, PPO, A3C 등과 같은 RL 에이전트 알고리즘의 구현을 제공하는 Coach 및 Ray RLLib와 같은 RL 도구 키트가 포함되어 있습니다.

Q: 고유의 RL 라이브러리 및 알고리즘 구현을 가져와서 Amazon SageMaker RL에서 실행할 수 있습니까?

예, 고유의 RL 라이브러리 및 알고리즘 구현을 도커 컨테이너로 가져온 다음 Amazon SageMaker RL에서 실행할 수 있습니다.

Q: Amazon SageMaker RL을 사용하여 배포된 롤아웃을 수행할 수 있습니까?

예. 다른 유형의 클러스터를 선택할 수도 있습니다. 이 경우 학습은 한 GPU 인스턴스에서 실행될 수 있고 시뮬레이션은 여러 CPU 인스턴스에서 실행될 수 있습니다.

Q: Amazon SageMaker Neo란 무엇입니까?

Amazon SageMaker Neo는 기계 학습 모델을 한 번 교육하여 클라우드와 엣지의 어디서나 실행할 수 있는 새로운 기능입니다. SageMaker Neo는 여러 하드웨어 플랫폼에 배포하는 데 사용할 수 있는 인기 딥 러닝 프레임워크로 구축된 모델을 자동으로 최적화합니다. 최적화된 모델은 최대 2배 더 빨리 실행되며 일반적인 기계 학습 모델의 10분의 1 미만의 리소스를 사용합니다.

Q: Amazon SageMaker Neo를 시작하려면 어떻게 해야 합니까?

Amazon SageMaker Neo를 시작하려면 Amazon SageMaker 콘솔에 로그인하고, 학습된 모델을 선택한 다음, 예제를 따라 모델을 컴파일하고, 결과 모델을 대상 하드웨어 플랫폼에 배포합니다.

Q: Amazon SageMaker Neo의 주요 구성 요소는 무엇입니까?

Amazon SageMaker Neo에는 컴파일러와 런타임이라는 두 가지 주요 구성 요소가 포함됩니다. 먼저, Neo 컴파일러는 다른 프레임워크에서 내보낸 모델을 읽습니다. 그런 다음 프레임워크별 함수와 작업을 프레임워크와 무관한 중간 표시로 변환합니다. 다음에는 일련의 최적화를 수행합니다. 그런 다음, 컴파일러는 최적화된 작업에 대한 바이너리 코드를 생성하고 이 코드를 공유 객체 라이브러리에 기록합니다. 또한 컴파일러는 모델 정의와 파라미터를 개별 파일로 저장합니다. 실행 중에 Neo 런타임은 컴파일러에서 생성된 아티팩트(모델 정의, 파라미터, 모델을 실행하기 위한 공유 객체 라이브러리)를 로드합니다.

Q: Neo를 사용하여 모델을 변환하려면 SageMaker를 사용하여 모델을 학습해야 합니까?

아니요. 다른 곳에서 모델을 학습하고 Neo를 사용하여 SageMaker ML 인스턴스 또는 Greengrass 지원 디바이스에 맞게 모델을 최적화할 수 있습니다. 

Q: SageMaker Neo는 어떤 모델을 지원합니까?

현재, SageMaker Neo는 컴퓨터 비전 애플리케이션을 구동하는 가장 인기 있는 딥 러닝 모델과 오늘날 Amazon SageMaker에서 사용되는 가장 인기 있는 결정 트리 모델을 지원합니다. Neo는 MXNet 및 TensorFlow에서 학습된 AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet, DenseNet 모델과 XGBoost에서 학습된 분류 및 Random Cut Forest 모델을 최적화합니다.

Q: SageMaker Neo는 어떤 플랫폼을 지원합니까?

현재 Neo는 SageMaker ML.C5, ML.C4, ML.M5, ML.M4, ML.P3, ML.P2 인스턴스 및 AWS DeepLens, Raspberry Pi, Jetson TX1 및 TX2 디바이스, Greengrass 디바이스 기반 Intel® Atom 및 Intel® Xeon CPU, ARM Cortex-A CPU, Nvidia Maxwell 및 Pascal GPU를 지원합니다.

Q: 대상 하드웨어에서 지원되는 특정 버전의 프레임워크를 사용해야 합니까?

아니요. 개발자는 프레임워크에 대한 종속성 없이 SageMaker Neo 컨테이너를 사용하여 모델을 실행할 수 있습니다.

Q: SageMaker Neo를 사용하려면 비용이 얼마나 듭니까?

SageMaker Neo를 사용하여 추론을 실행하는 SageMaker ML 인스턴스의 사용에 대해 요금을 결제합니다.

Q: Amazon SageMaker Neo는 어느 AWS 지역에서 사용할 수 있습니까?

현재 버지니아 북부, 오레곤, 오하이오, 아일랜드, 아시아 태평양(도쿄), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(서울), 아시아 태평양(뭄바이), 아시아 태평양(홍콩), 캐나다(중부), EU(프랑크푸르트), EU(런던), EU(파리), EU(스톡홀름), 남아메리카(상파울루), 미국 서부(캘리포니아 북부) AWS 지역에서 SageMaker Neo를 사용할 수 있습니다.

Q: Amazon SageMaker 모델 추적 기능이란 무엇입니까?

Amazon SageMaker 모델 추적 기능을 사용하면 잠재적으로 수백에서 수천 개의 Amazon SageMaker 모델 학습 작업에서 가장 관련성이 높은 모델 학습 실행을 신속하게 찾고 평가할 수 있습니다. SageMaker Search는 AWS Management Console과 Amazon SageMaker용 AWS SDK API를 통해 제공됩니다.

Q: 모델 학습 실행을 정리하고 추적하려면 어떻게 해야 합니까?

모델 추적 기능을 사용하면 학습 작업 생성 시간, 학습 데이터 세트 URI, 하이퍼 파라미터 값 또는 단순한 학습 작업 메타데이터 등의 선택한 학습 작업 속성을 기준으로 모델 학습 실행을 검색하고 정리할 수 있습니다. 관련 학습 작업을 정리하고 함께 그룹화하는 유연한 방법은 태그를 사용하여 모델 학습 작업에 레이블을 지정하는 것입니다. 태그를 검색하면 특정 비즈니스 프로젝트, 연구 실험실 또는 데이터 과학 팀에 관련된 모델 학습 실행을 빠르게 찾을 수 있으며, 모델 학습 실행을 의미 있게 분류하고 카탈로그를 작성할 수 있습니다.

Q: 모델 추적 기능을 사용하여 학습 실행 리더보드를 생성하려면 어떻게 해야 합니까?

모델 학습 작업은 AWS Management Console에서 리더 보드와 비슷한 테이블 형식으로 제공됩니다. 여기에는 정렬 가능한 열에 표시된 모든 하이퍼파라미터와 모델 학습 지표가 포함됩니다. 열 헤더를 클릭하여 리더 보드에서 원하는 객관적인 실적 지표의 순위를 매길 수 있습니다. 또한, 학습 손실 및 검증 정확도와 같은 성능 지표를 기반으로 모델 학습 실행을 신속하게 비교하고 순위를 매길 수 있으므로 리더보드를 사용하여 "성공" 모델을 선정하여 프로덕션 환경에 배포할 수 있습니다.

Q: 모델 또는 엔드포인트 계보를 추적하려면 어떻게 해야 합니까?

Amazon SageMaker에 대한 AWS Management Console에서 "Endpoints(엔드포인트)"로 이동하고 배포된 모든 엔드포인트의 목록에서 엔드포인트를 선택합니다. 그런 다음 선택한 엔드포인트 페이지에서 "Endpoint Configuration Settings(엔드포인트 구성 설정)"으로 아래로 스크롤하여 엔드포인트에 배포된 모든 모델 버전을 봅니다. 각 모델 버전의 바로 옆에서 처음에 모델을 생성한 모델 학습 작업의 직접 링크를 볼 수 있습니다.

모델 배포

Q: Amazon SageMaker를 실행하는 인프라에 액세스할 수 있습니까?

아니요, Amazon SageMaker가 사용자 대신 컴퓨팅 인프라를 운영하여 상태 확인을 수행하고 보안 패치를 적용하며 기타 일상적인 유지 관리를 수행합니다. 사용자는 자체 호스팅 환경에 사용자 지정 추론 코드로 학습한 모델 아티팩트를 배포할 수 있습니다.

Q: Amazon SageMaker 모델이 프로덕션에 배포된 후에는 크기와 성능을 어떻게 조정합니까?

Amazon SageMaker 호스팅은 애플리케이션 Auto Scaling을 사용해 애플리케이션에 필요한 성능에 맞춰 자동으로 조정됩니다. 또한, 엔드포인트 구성을 수정하여 가동 중단 없이 인스턴스 수와 유형을 수동으로 변경할 수 있습니다.

Q: Amazon SageMaker 프로덕션 환경을 모니터링하려면 어떻게 해야 합니까?

Amazon SageMaker는 성능 지표를 Amazon CloudWatch 지표로 내보내므로, 지표를 추적하고, 경보를 설정하고, 프로덕션 트래픽의 변경 사항에 자동으로 대응할 수 있습니다. 또한, Amazon SageMaker는 사용자가 프로덕션 환경을 모니터링하고 문제를 해결할 수 있도록 로그를 Amazon Cloudwatch Logs에 작성합니다.

Q: Amazon SageMaker에서 호스팅할 수 있는 모델 유형은 무엇입니까?

Amazon SageMaker는 추론 Docker 이미지의 문서화된 사양을 준수하는 모든 모델을 호스팅할 수 있습니다. Amazon SageMaker 모델 아티팩트 및 추론 코드에서 생성된 모델이 이에 포함됩니다.

Q: Amazon SageMaker에서는 동시에 몇 개의 실시간 API 요청을 처리할 수 있습니까?

Amazon SageMaker는 초당 상당히 큰 규모의 트랜잭션으로 확장할 수 있도록 설계되었습니다. 정확한 수는 배포된 모델과 모델이 배포된 인스턴스의 수 및 유형에 따라 달라집니다.

Q: 배치 변환이란 무엇입니까?

배치 변환은 대규모 또는 소규모 배치 데이터에 대한 예측을 실행할 수 있게 해 줍니다. 이제 데이터 세트를 여러 데이터 청크로 분할하고 실시간 엔드포인트를 관리할 필요가 없습니다. 간단한 API를 통해 대량 데이터 레코드에 대한 예측을 요청하고 데이터를 쉽고 빠르게 변환할 수 있습니다.

Amazon SageMaker 요금에 대해 자세히 알아보기

요금 페이지로 이동하기
시작할 준비가 되셨습니까?
가입하기
추가 질문이 있으십니까?
AWS에 문의