Amazon EC2 Inf2 인스턴스, 이제 한국에서 사용 가능
오늘부터 생성형 AI에 최적화된 Amazon Elastic Compute Cloud(Amazon EC2) Inf2 인스턴스가 AWS 아시아 태평양(서울) 리전에서 정식 버전으로 제공됩니다. Amazon EC2 Inf2 인스턴스는 동급 Amazon EC2 인스턴스와 비교하여 추론 비용이 최대 40% 저렴합니다.
Inf2 인스턴스를 사용하면 텍스트 요약, 코드 생성, 비디오 및 이미지 생성, 음성 인식, 개인화 등 널리 활용되는 애플리케이션을 실행할 수 있습니다. Inf2 인스턴스는 Amazon EC2에서 고속 비차단 인터커넥트 기술인 NeuronLink를 통해 지원되는 스케일 아웃 분산 추론 기능을 도입한 최초의 추론 최적화 인스턴스입니다. Inf2 인스턴스는 최대 2.3페타플롭의 컴퓨팅 성능, 최대 384GB의 총 엑셀러레이터 메모리 및 초당 9.8TB의 대역폭을 제공합니다.
AWS Neuron SDK는 널리 사용되는 기계 학습 프레임워크와 기본적으로 통합되므로 기존 프레임워크를 계속 사용하여 Inf2에 배포할 수 있습니다. 개발자는 AWS Deep Learning AMI, AWS Deep Learning Containers 또는 관리형 서비스(Amazon Elastic Container Service(Amazon ECS), Amazon Elastic Kubernetes Service(Amazon EKS), Amazon SageMaker 등)를 사용하여 Inf2 인스턴스를 시작할 수 있습니다.
Inf2 인스턴스는 14개의 AWS 리전에서 온디맨드 인스턴스, 예약 인스턴스, 스팟 인스턴스 또는 절감형 플랜의 일부로 제공되며, 4가지 크기, 즉 inf2.xlarge, inf2.8xlarge, inf2.24xlarge, inf2.48xlarge 중에서 선택할 수 있습니다.
Inf2 인스턴스에 대한 자세한 내용은 Amazon EC2 Inf2 인스턴스 웹 페이지와 AWS Neuron 설명서를 참조하세요.