게시된 날짜: Nov 19, 2020
AWS는 Amazon EC2 Inf1 인스턴스의 가용성을 미국 서부(캘리포니아 북부), 캐나다(중부), EU(런던), 아시아 태평양(홍콩, 서울), 중동(바레인)으로 확장했습니다. Inf1 인스턴스는 클라우드에서 최저 비용으로 고성능 기계 학습 추론 기능을 제공하도록 AWS가 맞춤형으로 설계한 AWS Inferentia 칩을 기반으로 합니다.
이 인스턴스는 Amazon EC2 G4 인스턴스보다 최대 30% 더 높은 처리 성능과 최대 45% 낮은 비용으로 추론 기능을 제공할 수 있습니다. Amazon EC2 G4 인스턴스는 기존에 클라우드에서 가장 낮은 비용으로 사용할 수 있는 기계 학습 추론용 인스턴스였습니다. Inf1 인스턴스는 이미지 인식, 자연어 처리, 개인화 및 이상 탐지 등의 애플리케이션에 이상적입니다.
개발자는 Neuron SDK가 포함된 AWS Deep Learning AMI로 Inf1 인스턴스를 시작하거나 컨테이너식 ML 애플리케이션을 위한 Amazon EKS(Elastic Kubernetes Service) 또는 Amazon ECS(Elastic Container Service)를 통해 Inf1 인스턴스를 사용하여 자체 기계 학습 애플리케이션 개발 플랫폼을 관리할 수 있습니다. 이러한 새로운 리전에서 Inf1 인스턴스에 대한 SageMaker 지원이 곧 제공될 예정입니다.
Amazon EC2 Inf1 인스턴스는 4가지 크기로 제공되며, 최대 16개의 Inferentia 칩, 96개의 vCPU, 192GB 메모리, 100Gbps의 네트워킹 대역폭 및 19Gbps의 Elastic Block Store(EBS) 대역폭을 지원합니다. 온디맨드, 예약 인스턴스, 스팟 인스턴스 또는 Savings Plans의 일부로 이 인스턴스를 구입할 수 있습니다. 미국 동부(버지니아 북부, 오하이오), 미국 서부(오레곤, 캘리포니아 북부), 캐나다(중부), EU(프랑크푸르트, 아일랜드, 런던, 파리), 아시아 태평양(홍콩, 뭄바이, 서울, 싱가포르, 시드니, 도쿄), 중동(바레인), 남아메리카(상파울루)를 비롯한 17개의 리전에서 전역으로 사용할 수 있습니다.
시작하려면 시작 안내서를 참조하십시오. 자세히 알아보려면 Amazon EC2 Inf1 인스턴스 페이지를 참조하십시오.