게시된 날짜: Mar 23, 2021
AWS에서 Amazon EC2 Inf1 인스턴스의 가용성을 유럽(밀라노), 유럽(스톡홀름) 및 AWS GovCloud(미국) 리전으로 확장했습니다. Inf1 인스턴스는 클라우드에서 최저 비용으로 고성능 기계 학습 추론 기능을 제공하도록 AWS가 맞춤형으로 설계한 AWS Inferentia 칩을 기반으로 합니다.
이 인스턴스는 Amazon EC2 G4dn 인스턴스보다 최대 30% 더 높은 처리 성능과 최대 45% 낮은 비용으로 추론 기능을 제공할 수 있습니다. Amazon EC2 G4dn 인스턴스는 기존에 클라우드에서 가장 낮은 비용으로 사용할 수 있는 기계 학습 추론용 인스턴스였습니다. Inf1 인스턴스는 이미지 인식, 자연어 처리, 개인화 및 이상 탐지 등의 애플리케이션에 이상적입니다. 개발자는 Neuron SDK가 포함된 AWS Deep Learning AMI로 Inf1 인스턴스를 시작하거나 컨테이너식 ML 애플리케이션을 위한 Amazon EKS(Elastic Kubernetes Service) 또는 Amazon ECS(Elastic Container Service)를 통해 Inf1 인스턴스를 사용하여 자체 기계 학습 애플리케이션 개발 플랫폼을 관리할 수 있습니다. 이러한 새로운 리전에서 Inf1 인스턴스에 대한 EKS, ECS 및 SageMaker 지원이 곧 제공될 예정입니다.
Amazon EC2 Inf1 인스턴스는 4가지 크기로 제공되며, 최대 16개의 Inferentia 칩, 96개의 vCPU, 192GB 메모리, 100Gbps의 네트워킹 대역폭 및 19Gbps의 Elastic Block Store(EBS) 대역폭을 지원합니다. 이러한 인스턴스는 온디맨드, 예약 인스턴스, 스팟 인스턴스 또는 Savings Plans의 일부로 구입할 수 있으며 현재 미국 동부(버지니아 북부, 오하이오), 미국 서부(오레곤, 캘리포니아 북부), AWS GovCloud(미국 동부, 미국 서부), 캐나다(중부), 유럽(런던, 밀라노, 스톡홀름, 아일랜드, 파리, 프랑크푸르트), 아시아 태평양(도쿄, 뭄바이, 서울, 시드니, 싱가포르, 홍콩), 중동(바레인) 및 남미(상파울루)를 포함한 전 세계 21개 리전에서 사용할 수 있습니다.
시작하려면 시작 안내서를 참조하세요. 자세히 알아보려면 Amazon EC2 Inf1 인스턴스 페이지를 참조하십시오.