게시된 날짜: Aug 13, 2021
이제 AWS Inferentia 기반 Amazon EC2 Inf1 인스턴스에서 기계 학습 추론을 실행하기 위한 SDK인 AWS Neuron에서 TensorFlow 2를 지원합니다. Newron 1.15.0부터는 곧 추가될 모델에 대한 지원을 통해 Inf1 인스턴스에서 TensorFlow 2 BERT 기반 모델을 실행할 수 있습니다. Neuron TensorFlow 2 지원에 대해 자세히 알아보려면 TensorFlow 2 FAQ 페이지를 확인하세요.
TensorFlow 2를 시작하는 데 도움이 되는 튜토리얼, AWS Sagemaker 호스팅을 사용하여 Inferentia에 HuggingFace BERT 모델 컨테이너를 배치하는 방법에 대해 안내하는 튜토리얼, 결과를 비교 및 복제하는 데 도움이 되는 추론 성능 페이지, Inferentia에서 즉시 사용할 수 있는 딥 러닝 아키텍처 유형을 찾는 데 도움이 되는 새로운 애플리케이션 노트 등의 새로운 문서를 추가하여 리소스를 업데이트했습니다.
AWS 뉴런은 기본적으로 TensorFlow, PyTorch 및 Apache MXNet와 같은 인기 있는 ML 프레임워크와 통합됩니다. 여기에는 딥 러닝 컴파일러, 런타임 및 애플리케이션에 가장 적합한 성능을 추출하는 데 도움이 되는 도구가 포함됩니다. 자세히 알아보려면 AWS Neuron 페이지 및 AWS Neuron 문서를 참조하세요.
Amazon EC2 Inf1 인스턴스는 최저 요금으로 클라우드 환경에서의 딥 러닝 추론을 제공하며 미국 동부(버지니아 북부, 오하이오), 미국 서부(오레곤, 캘리포니아 북부), AWS GovCloud(미국 동부, 미국 서부), 캐나다(중부), 유럽(프랑크푸르트, 아일랜드, 런던, 밀라노, 파리, 스톡홀름), 아시아 태평양(홍콩, 뭄바이, 서울, 싱가포르, 시드니, 도쿄), 중동(바레인) 및 남미(상파울루), 중국(베이징, 닝샤)를 포함한 23개 리전에서 사용할 수 있습니다. 기계 학습 추론을 위한 실시간 지연 시간 요구 사항을 가장 잘 충족하는 리전에서 Amazon EC2 Inf1 인스턴스를 활용할 수 있습니다. 자세히 알아보려면 Amazon EC2 Inf1 인스턴스 페이지를 참조하세요.