게시된 날짜: Aug 9, 2023
오늘부터 미국 서부(오레곤) 리전에서 Amazon Elastic Compute Cloud(Amazon EC2) Inf2 인스턴스를 정식 버전으로 사용할 수 있습니다. 이러한 인스턴스는 생성형 AI 모델을 위한 Amazon EC2에서 가장 저렴한 비용으로 뛰어난 성능을 제공합니다.
Inf2 인스턴스를 사용하면 텍스트 요약, 코드 생성, 비디오 및 이미지 생성, 음성 인식, 개인화 등 널리 사용되는 애플리케이션을 실행할 수 있습니다. Inf2 인스턴스는 고속 비차단 인터커넥트 기술인 NeuronLink를 통해 지원되는 스케일 아웃 분산 추론 기능을 도입한 Amazon EC2 최초의 추론 최적화 인스턴스입니다. Inf2 인스턴스는 최대 2.3페타플롭의 컴퓨팅 성능, 최대 384GB의 총 엑셀러레이터 메모리 및 초당 9.8TB의 대역폭을 제공합니다. Inf2 인스턴스는 동급의 다른 Amazon EC2 인스턴스보다 최대 40% 더 뛰어난 가격 대비 성능을 제공합니다.
AWS Neuron SDK는 널리 사용되는 기계 학습 프레임워크와 기본적으로 통합되므로 기존 프레임워크를 계속 사용하여 Inf2에 배포할 수 있습니다. 개발자는 AWS Deep Learning AMI, AWS Deep Learning Containers 또는 관리형 서비스(예: Amazon Elastic Container Service(Amazon ECS), Amazon Elastic Kubernetes Service(Amazon EKS), Amazon SageMaker)를 사용하여 Inf2 인스턴스 사용을 시작할 수 있습니다.
Inf2 인스턴스는 미국 동부(버지니아 북부), 미국 동부(오하이오) 및 미국 서부(오레곤) AWS 리전에서 4가지 크기(inf2.xlarge, inf2.8xlarge, inf2.24xlarge, inf2.48xlarge)의 온디맨드 인스턴스, 예약형 인스턴스 및 스팟 인스턴스 또는 절감형 플랜의 일부로 제공됩니다.
Inf2 인스턴스에 대해 자세히 알아보려면 Amazon EC2 Inf2 인스턴스 웹페이지 및 AWS Neuron 설명서를 살펴보세요.