게시된 날짜: Jun 25, 2021
Amazon EC2 Inf1 인스턴스와 AWS Neuron은 이제 YOLOv5 및 ResNext 딥 러닝 모델과 최신 오픈 소스 Hugging Face Transformers를 지원합니다. 또한 성능을 향상시키기 위해 Neuron 컴파일러를 최적화했으며 이제 사전 훈련된 BERT 기본 모델에 대해 동급의 GPU 기반 인스턴스보다 12배 높은 처리량을 즉시 확보할 수 있습니다. 이러한 향상된 기능을 통해 고성능 추론 요구 사항을 효과적으로 충족하고 저렴한 비용으로 최첨단 딥 러닝 모델을 배포할 수 있습니다.
EC2 Inf1 인스턴스는 기계 학습 추론을 가속화하기 위해 AWS에서 구축한 사용자 지정 칩인 AWS Inferentia를 기반으로 합니다. 이러한 인스턴스는 클라우드에서 딥 러닝 추론을 위한 최저 비용을 제공합니다. TensorFlow, PyTorch, MXNet 등 널리 사용되는 기계 학습 프레임워크에서 기계 학습 모델을 쉽게 학습시키고 Neuon SDK를 사용하여 EC2 Inf1 인스턴스에 배포할 수 있습니다. Neuron은 널리 사용되는 기계 학습 프레임워크와 통합되므로 최소한의 코드 변경으로 기존 모델을 Inf1 인스턴스에 배포할 수 있습니다. 이를 통해 공급 업체별 솔루션에 얽매이지 않고도 하드웨어 이식성을 유지하고 최신 기술을 활용할 수 있습니다.
Inf1 인스턴스는 Snap, Autodesk 및 Conde Nast와 같은 고객과 Alexa 및 Rekognition과 같은 Amazon 서비스에 의해 광범위하게 채택되었으며 전 세계 23개 AWS 리전에서 사용할 수 있습니다. 당사의 규모 및 오랜 기간 입증된 용량 관리 능력과 결합된 엔지니어링 투자를 통해 당사는 비용 절감 기회를 파악하게 고객에게 제시할 수 있습니다. Amazon EC2 Inf1 인스턴스에서 프로덕션의 딥 러닝 애플리케이션을 더욱 확장할 수 있도록 2021년 6월 1일부터 온디맨드(OD) 요금을 38% 인하한다고 발표했습니다. 추가적인 비용 절감을 위해 Savings Plan 또는 예약 인스턴스(RI)를 활용하려는 고객을 위해 1년 Savings Plan 및 RI 요금을 38%, 3년 Savings Plan 및 RI 요금을 31% 인하합니다. 이러한 저렴한 요금은 Amazon ECS 또는 EKS와 같은 컨테이너 오케스트레이션 서비스를 통해 EC2 Inf1 인스턴스를 사용하는 고객에게도 효과적입니다.
완전관리형 기계 학습 서비스를 선호하는 고객을 위해 Amazon SageMaker에서 ml.Inf1 인스턴스 요금도 인하하고 있습니다. Amazon SageMaker는 모든 개발자 및 데이터 사이언티스트가 기계 학습 모델을 구축, 훈련, 배포할 수 있도록 하는 완전관리형 서비스입니다. 2021년 6월 1일부터 Amazon SageMaker 고객은 온디맨드 인스턴스에서 38% 더 저렴한 요금을 활용할 수 있습니다. 오늘부터 Amazon SageMaker의 요금을 1년 Savings Plan은 최대 38%, 3년 Savings Plan은 최대 25%까지 인하합니다. 이러한 요금 인하로 인해 실시간 추론 요구에 따라 Inf1 인스턴스의 요금 대비 성능이 더욱 높아집니다. Amazon SageMaker의 ml.Inf1 인스턴스 요금은 Amazon SageMaker 요금 페이지를 참조하세요.
Amazon EC2 Inf1 인스턴스는 미국 동부(버지니아 북부, 오하이오), 미국 서부(오레곤, 캘리포니아 북부), AWS GovCloud(미국 동부, 미국 서부), 캐나다(중부), 유럽(프랑크푸르트, 아일랜드, 런던, 밀라노, 파리, 스톡홀름), 아시아 태평양(홍콩, 뭄바이, 서울, 싱가포르, 시드니, 도쿄), 중동(바레인) 및 남미(상파울루), 중국(베이징, 닝샤)를 포함한 23개 리전에서 사용할 수 있습니다. 기계 학습 추론을 위한 실시간 지연 시간 요구 사항을 가장 잘 충족하는 리전에서 Amazon EC2 Inf1 인스턴스를 활용하여 성능을 더욱 최적화하고 비용을 절감할 수 있습니다.
자세히 알아보려면 Amazon EC2 Inf1 인스턴스 페이지를 참조하세요.