게시된 날짜: Sep 24, 2020
AWS는 EU(파리), 아시아 태평양(뭄바이, 싱가포르) 및 남아메리카(상파울루) 리전으로 Amazon EC2 Inf1 인스턴스의 제공 범위를 확대했습니다. Inf1 인스턴스는 클라우드에서 최저 비용으로 고성능 기계 학습 추론 기능을 제공하도록 AWS가 맞춤형으로 설계한 AWS Inferentia 칩을 기반으로 합니다.
이 인스턴스는 가장 저렴한 GPU 기반 인스턴스보다 최대 30% 높은 처리량과 최대 45% 낮은 추론당 비용을 제공하며 이미지 인식, 자연어 처리, 개인화 및 이상 감지와 같은 응용 분야에 이상적입니다.
Inf1 인스턴스를 시작하는 가장 쉽고 빠른 방법은 기계 학습 모델 구축, 훈련 및 배포를 위한 완전관리형 서비스인 Amazon SageMaker를 사용하는 것입니다. 자체 기계 학습 애플리케이션 개발 플랫폼을 관리하려는 개발자는 Neuron SDK가 포함된 AWS Deep Learning AMI로 Inf1 인스턴스를 시작하거나 컨테이너식 ML 애플리케이션을 위한 Amazon EKS(Elastic Kubernetes Service) 또는 Amazon ECS(Elastic Container Service)를 통해 Inf1 인스턴스를 사용할 수 있습니다.
Amazon EC2 Inf1 인스턴스는 4가지 크기로 제공되며, 최대 16개의 Inferentia 칩, 96개의 vCPU, 192GB 메모리, 100Gbps의 네트워킹 대역폭 및 19Gbps의 Elastic Block Store(EBS) 대역폭을 지원합니다. 온디맨드, 예약 인스턴스, 스팟 인스턴스 또는 Savings Plans의 일부로 이 인스턴스를 구입할 수 있습니다. 이 인스턴스는 미국 서부(버지니아 북부, 오하이오), 미국 서부(오레곤), EU(프랑크푸르트, 아일랜드, 파리), 아시아 태평양(뭄바이, 싱가포르, 시드니, 도쿄), 남아메리카(상파울루) 등 전 세계 11개 리전에서 사용할 수 있습니다.
시작하려면 시작 안내서를 참조하십시오. 자세히 알아보려면 Amazon EC2 Inf1 인스턴스 페이지를 참조하십시오.