게시된 날짜: Dec 3, 2019
오늘 AWS에서는 처음부터 기계 학습 추론 애플리케이션을 지원하도록 새롭게 구축된 인스턴스인 Amazon EC2 Inf1의 정식 출시를 발표합니다. Inf1 인스턴스에는 AWS가 설계하고 제작한 고성능 기계 학습 추론 칩인 AWS Inferentia 칩이 최대 16개 탑재됩니다. 또한 이 추론 칩은 최신 맞춤형 2세대 인텔® 제온® 확장형 프로세서 및 최대 100Gbps의 네트워킹과 결합하여 뛰어난 추론 처리 성능을 제공합니다. 이러한 강력한 구성을 통해 Inf1 인스턴스는 Amazon EC2 G4 인스턴스보다 최대 3배 더 높은 처리 성능과 최대 40% 낮은 비용으로 추론 기능을 제공할 수 있습니다. Amazon EC2 G4 인스턴스 기존에 클라우드에서 사용할 수 있는 최저 비용의 기계 학습 추론용 인스턴스였습니다.
Amazon EC2 Inf1 인스턴스는 클라우드에서 최저 비용 고성능 기계 학습 추론 기능을 제공합니다. 고객은 Inf1 인스턴스를 사용하여 클라우드에서 가장 낮은 비용으로 이미지 인식, 음성 인식, 자연어 처리, 개인화 및 부정 행위 탐지 같은 대규모 기계 학습 추론 애플리케이션을 실행할 수 있습니다.
AWS를 사용하면 Amazon EC2 Inf1 인스턴스에 기계 학습 애플리케이션을 쉽게 배포할 수 있습니다. 모델을 학습시킨 후에는 컴파일러, 런타임 및 프로파일링 도구로 구성된 AWS Inferentia 칩을 사용한 추론 실행용 SDK인 AWS Neuron을 사용할 수 있습니다. Neuron은 TensorFlow, Pytorch, MXNet을 포함한 인기 기계 학습 프레임워크에 사전 통합되어 최적의 EC2 Inf1 인스턴스 성능을 제공합니다. Inf1 인스턴스는 AWS Deep Learning AMI를 사용하여 배포할 수 있으며 Amazon SageMaker, EKS, ECS 등의 관리형 서비스를 통해 이용할 수 있습니다.
Amazon EC2 Inf1 인스턴스는 4가지 크기로 제공되며 미국 동부(버지니아 북부) 및 미국 서부(오레곤) AWS 리전에서 온디맨드, 예약 및 스팟 인스턴스로 사용하거나 Savings Plan의 일부로 사용할 수 있습니다. Inf1 인스턴스에 대한 자세한 내용은 Inf1 페이지를 참조하십시오.