게시된 날짜: Nov 28, 2018
Amazon Elastic Inference를 이용하면 Amazon EC2 및 Amazon SageMaker 인스턴스에 낮은 비용의 GPU 지원 가속의 적절한 양을 연결해 딥 러닝 추론 비용을 최대 75% 절감할 수 있습니다. Amazon Elastic Inference는 TensorFlow, Apache MXNet 및 ONNX 모델을 지원하며 더 많은 프레임워크가 곧 추가될 예정입니다.
Amazon Elastic Inference를 사용하면 애플리케이션의 전체 CPU 및 메모리 요구 사항에 가장 적합한 인스턴스 유형을 선택한 후 코드를 변경하지 않고도 필요한 추론 가속도를 별도로 구성 할 수 있습니다. 이를 통해 자원을 효율적으로 사용하고 추론 실행 비용을 줄일 수 있습니다. Amazon Elastic Inference에 대한 자세한 내용은 서비스 세부 정보 페이지를 참조하십시오.