게시된 날짜: Aug 13, 2020
AWS가 미국 동부(오하이오), 유럽(프랑크푸르트, 아일랜드) 및 아시아 태평양(시드니, 도쿄)에서 Amazon EC2 Inf1 인스턴스의 가용성을 확대했습니다. Inf1 인스턴트는 개발자가 매일 대규모로 기계 학습을 사용할 수 있도록 고객에게 클라우드에서의 최저 추론당 비용과 더 낮은 장벽을 제공하도록 Amazon에서 맞춤 설계한 AWS Inferentia 칩으로 구동됩니다.
Inf1 인스턴스는 동급 GPU 기반 인스턴스보다 최대 30% 높은 처리량과 최대 45% 낮은 추론당 비용을 제공하며 이미지 인식, 자연어 처리, 개인화 및 이상 감지와 같은 응용 분야에 이상적입니다. 개발자는 TensorFlow, PyTorch, MXNet 등의 인기 기계 학습 프레임워크와 통합되는 AWS Neuron SDK를 사용하여 Inf1 인스턴스에 기계 학습 모델을 배포할 수 있습니다. AWS Neuron SDK는 AWS Inferentia에서 추론 성능을 최적화하기 위해 컴파일러, 런타임 및 프로파일링 도구로 구성됩니다.
이러한 추가 리전 출시에 따라 이제 미국 동부(버지니아 북부, 오하이오), 미국 서부(오레곤), 유럽(프랑크푸르트, 아일랜드) 및 아시아 태평양(시드니, 도쿄) AWS 리전에서 Inf1 인스턴스를 사용할 수 있습니다. Inf1 인스턴스는 최대 2,000TOPS(Tera Operations per Second)의 처리량과 최대 100Gbps의 네트워크 대역폭을 제공하는 최대 16개의 Inferentia 칩과 함께 4가지 크기로 제공됩니다. 온디맨드, 예약 인스턴스, 스팟 인스턴스 또는 Savings Plans의 일부로 Inf1 인스턴스를 구입할 수 있습니다.
Inf1 인스턴스를 시작하는 가장 쉽고 빠른 방법은 기계 학습 모델 구축, 훈련 및 배포를 위한 완전관리형 서비스인 Amazon SageMaker를 사용하는 것입니다. 자체 기계 학습 애플리케이션 개발 플랫폼을 관리하려는 개발자는 Neuron SDK가 포함된 AWS Deep Learning AMI로 Inf1 인스턴스를 시작하거나 컨테이너식 ML 애플리케이션을 위한 Amazon Elastic Kubernetes Service(EKS) 또는 Amazon Elastic Container Service(ECS)를 통해 Inf1 인스턴스를 사용할 수 있습니다.
자세히 알아보려면 Amazon EC2 Inf1 인스턴스 페이지를 참조하십시오.