일반

Q: Amazon Elastic Inference는 무엇입니까?

A: Amazon Elastic Inference (Amazon EI)는 가속화된 컴퓨팅 서비스로, GPU 기반 추론 가속화의 올바른 양을 Amazon EC2 또는 Amazon SageMaker 인스턴스 유형에 연결할 수 있습니다. 이는 애플리케이션의 전체 컴퓨팅, 메모리 및 스토리지 요구 사항에 가장 적합한 인스턴스 유형을 선택한 후 필요한 추론 가속화의 양을 별개로 구성할 수 있음을 의미합니다.

Q: Amazon Elastic Inference 액셀러레이터는 무엇입니까?

A : Amazon Elastic Inference 액셀러레이터는 저렴한 비용으로 딥 러닝 학습 추론 작업량을 가속화하기 위해 모든 EC2 인스턴스 유형과 함께 작동하도록 설계된 GPU 기반 하드웨어 장치입니다. Amazon Elastic Inference를 사용하여 인스턴스를 시작하면 액셀러레이터가 네트워크를 통해 인스턴스에 프로비저닝되고 연결됩니다. Amazon Elastic Inference에 사용할 수 있는 TensorFlow Serving 및 Apache MXNet과 같은 딥 러닝 도구 및 프레임워크는 연결된 엑셀러레이터에 모델 계산을 자동으로 감지하고 오프로드할 수 있습니다.

구성

Q: Amazon Elastic Inference 액셀러레이터를 어떻게 프로비저닝할 수 있습니까?

A: AWS 관리 콘솔, AWS 명령줄 인터페이스 (CLI) 또는 AWS SDK를 사용하여 Amazon Elastic Inference 엑셀러레이터로 Amazon SageMaker 엔드포인트 또는 Amazon EC2 인스턴스를 구성 할 수 있습니다. 액셀러레이터가 있는 EC2 인스턴스를 시작하는데 두 가지 요구 사항이 있습니다. 첫 번째, 액셀러레이터를 시작할 서브넷에 대해 AWS PrivateLink VPC 엔드포인트를 프로비저닝 해야 합니다. 두 번째, 인스턴스를 시작할 때 인스턴스에 액세스하는 사용자가 액셀러레이터에 연결할 수 있도록 인스턴스 역할에 정책을 제공해야 합니다. Amazon EI로 시작을 위해 인스턴스를 구성하면 액셀러레이터는 VPC 엔드포인트 뒤의 동일 가용 영역에 프로비저닝됩니다.

Q: Amazon Elastic Inference의 지원 모델 형식은 무엇입니까?

A: Amazon Elastic Inference는 TensorFlow, Apache MXNet 및 ONNX 모델을 사용하는 교육 모델을 지원합니다.

Q: TensorFlow 또는 Apache MXNet 프레임워크를 사용하여 Amazon Elastic Inference에 모델을 배포 할 수 있습니까?

A: 예. 모델 배포와 추론 호출을 위해 AWS 강화 TensorFlow Serving 및 Apache MXNet 라이브러리를 사용합니다.

Q: AWS 최적 프레임워크에 액세스하려면 어떻게 합니까?

A: AWS 딥 러닝 AMI는 Amazon Elastic Inference 액셀러레이터와 함께 사용하도록 최적화된 TensorFlow Serving과 Apache MXNet의 최신 릴리스가 포함되어 있습니다. 사용자만의 AMI 또는 컨테이너 이미지를 구축하기 위해 Amazon S3를 통해 라이브러리를 얻을 수도 있습니다. 자세한 내용은 설명서를 참조하십시오.

Q: CUDA를 Amazon Elastic Inference 액셀러레이터와 사용할 수 있습니까?

A: 아니오. Amazon Elastic Inference 액셀러레이터에 대한 인터페이스로만 AWS로 강화 TensorFlow Serving이나 Apache MXNet 라이브러리만 사용할 수 있습니다.

요금 및 결제

Q: Amazon Elastic Inference 사용에 대한 요금은 어떻게 부과됩니까?

A: 사용한 Amazon Elastic Inference 액셀러레이터의 시간에 대해서만 지불하면 됩니다. 자세한 내용은 요금 페이지를 참조하십시오.

Q: Amazon Elastic Inference 서비스를 위한 AWS PrivateLink VPC 엔드포인트 비용이 청구됩니까?

아니오. VPC 엔드포인트가 프로비저닝된 가용 영역에서 실행중인 액셀러레이터로 구성된 인스턴스가 하나 이상 있는 경우 Amazon Elastic Inference 서비스에 대한 VPC 엔드포인트는 요금이 부과되지 않습니다.

Product-Page_Standard-Icons_01_Product-Features_SqInk
요금에 대해 자세히 알아보기

자세한 요금 정보는 Amazon Elastic Inference 요금 페이지를 참조하십시오.

자세히 알아보기 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
무료 계정에 가입

AWS 프리 티어에 즉시 액세스할 수 있습니다. 

가입하기 
Product-Page_Standard-Icons_03_Start-Building_SqInk
콘솔에서 구축 시작

Amazon SageMaker 또는 Amazon EC2에서 Amazon Elastic Inference를 시작하십시오.

로그인 
페이지 콘텐츠
일반 구성 요금