게시된 날짜: Jan 18, 2019
Amazon Elastic Inference는 모든 Amazon SageMaker 또는 Amazon EC2 인스턴스 유형에 액셀러레이터를 추가하여 딥러닝 추론 워크로드의 속도를 높일 수 있도록 지원하는 서비스입니다. Elastic Inference 액셀러레이터는 훨씬 저렴한 비용(최대 75%)으로 GPU 가속화의 짧은 지연 시간 및 높은 처리량 이점을 제공합니다. Elastic Inference를 사용하여 추론을 위한 TensorFlow, Apache MXNet 및 ONNX 모델을 배포할 수 있습니다.
Amazon Elastic Inference에서는 이제 최신 버전인 TensorFlow 1.12를 지원합니다. Amazon Elastic Inference 액셀러레이터를 사용하여 TensorFlow 모델을 배포할 수 있는 사용이 간편한 새로운 Python API 함수인 EIPredictor를 제공합니다. EIPredictor를 사용하면 간편하게 실험하고 Amazon Elastic Inference를 사용할 때와 하지 않을 때의 성능을 비교할 수 있습니다. Amazon Elastic Inference를 사용하여 TensorFlow 모델을 실행하는 방법을 자세히 알아보려면 이 블로그 게시물을 참조하십시오.
Amazon Elastic Inference에 대해 자세히 알아보려면 웹 페이지 및 사용 설명서로 이동하십시오.