게시된 날짜: Oct 25, 2019

Amazon Elastic Inference에서 8GB의 GPU 메모리를 갖춘 EIA2라는 새로운 Elastic Inference Accelerator를 발표했습니다. 이제 고객이 규모가 더 큰 모델 또는 이미지 처리, 객체 감지, 이미지 분류, 자동 음성 처리와 자연어 처리, 기타 딥 러닝 사용 사례를 지원하기 위해 입력 크기가 더 큰 모델에 Amazon Elastic Inference를 사용할 수 있습니다.

Amazon Elastic Inference를 이용하면 Amazon EC2 인스턴스, Amazon SageMaker 인스턴스 또는 Amazon ECS 작업에 낮은 비용의 GPU 지원 가속의 적절한 양을 연결해 딥 러닝 추론 비용을 최대 75% 절감할 수 있습니다. Amazon Elastic Inference를 사용하면 애플리케이션의 전체 CPU 및 메모리 요구 사항에 가장 적합한 인스턴스 유형을 선택하고 코드를 변경하지 않고도 필요한 추론 가속도를 별도로 구성할 수 있습니다. 종전에는 Elastic Inference에 최대 4GB의 GPU 메모리를 프로비저닝할 수 있었습니다. 이제 각각 2GB, 4GB 및 8GB의 GPU 메모리를 갖춘 3가지 새로운 액셀러레이터 유형 중에서 선택할 수 있습니다. Amazon Elastic Inference는 TensorFlow, Apache MXNet 및 ONNX 모델을 지원하며 더 많은 프레임워크가 곧 추가될 예정입니다.

새로운 Elastic Inference Accelerator는 미국 동부(버지니아), 미국 서부(오레곤), 미국 동부(오하이오), 아시아 태평양(서울), EU(아일랜드)에서 사용할 수 있습니다. 다른 리전에서도 곧 지원될 예정입니다.

자세한 내용은 Amazon Elastic Inference 제품 페이지설명서를 참조하십시오.