게시된 날짜: Sep 17, 2019

Amazon ECS가 Amazon Elastic Inference 액셀러레이터를 컨테이너에 연결하여 딥 러닝 추론 워크로드를 더 경제적으로 실행할 수 있도록 지원합니다. Amazon Elastic Inference를 이용하면 Amazon EC2나 Amazon SageMaker 인스턴스 또는 ECS 작업에 낮은 비용의 GPU 지원 가속의 적절한 양을 연결해 딥 러닝 추론 비용을 최대 75% 절감할 수 있습니다.

ECS에서 Amazon Elastic Inference가 지원됨에 따라 이제 애플리케이션의 요구 사항에 가장 적합한 작업 CPU 및 메모리 구성을 선택한 후 코드를 변경하지 않고도 필요한 추론 가속도를 별도로 구성 할 수 있습니다. 이를 통해 자원을 효율적으로 사용하고 추론 실행 비용을 줄일 수 있습니다. 이 기능은 EC2 시작 유형을 사용하는 Linux 컨테이너 및 작업을 사용할 때 지원됩니다. Amazon Elastic Inference는 TensorFlow, Apache MXNet 및 ONNX 모델을 지원하며 더 많은 프레임워크가 곧 추가될 예정입니다.

ECS의 Amazon Elastic Inference 지원은 ECS 및 Elastic Inference를 사용할 수 있는 모든 지역에서 제공됩니다. 시작하려면 설명서를 참조하십시오