Amazon Web Services 한국 블로그

Apache MXNet 1.0 출시 – AWS 코드 공헌을 통한 신규 기능

Apache MXNet 딥 러닝 엔진의 마일스톤 1.0 릴리스를 발표하고, MXNet을 위한 새로운 모델 지원 기능을 소개했습니다. MXNet의 신규 기능은 사용자에게 다음과 같은 이점을 제공합니다.

1) MXNet의 사용 편리성 향상: MXNet용 모델 서버는 AWS에서 소개한 새로운 기능으로, 단 몇 줄의 코드로 몇 초 만에 딥 러닝 모델을 패키징하고 실행 및 제공하므로 API 엔드포인트를 통해 인터넷으로 액세스할 수 있고 애플리케이션에 쉽게 통합할 수 있습니다. 또한 1.0 릴리스에는 사용자가 더 직관적인 방식으로 행렬 연산을 수행할 수 있는 고급 인덱싱 기능이 포함되어 있습니다.

  • 모델 제공을 통해 예측을 위한 API 엔드포인트 설정: 예측 기능을 실행하고 애플리케이션에 통합하기 위해 API 엔드포인트를 설정하는 작업을 단 몇 줄의 코드로 압축함으로써 개발자의 시간을 절약하고 수고를 줄입니다. 이 기능은 도커 컨테이너 기반 배포 모델을 통해 Python 기반 딥 러닝 프레임워크와 운영 시스템을 이어주는 역할을 합니다.
  • MXNet의 배열 연산을 위한 고급 인덱싱 기능: 개발자가 더욱 직관적으로 MXNet에서 강력한 배열 연산을 활용할 수 있습니다. NumPy/SciPy 배열에 대한 기존 지식을 활용하여 고급 인덱싱 기능을 사용할 수 있습니다. 예를 들어 MXNet NDArray와 Numpy ndarray를 인덱스로 지원합니다(예: a[mx.nd.array([1,2], dtype = ‘int32’]).

2) 더욱 빠른 MXNet: 1.0 릴리스에는 학습 및 추론의 성능을 최적화하는 최첨단 기능이 구현되어 있습니다. 그라디언트 압축을 통해 사용자는 컴퓨팅 노드 간에 통신 대역폭을 줄임으로써 수렴률이나 정확성의 감소 없이 최대 5배 더 빠르게 모델을 학습할 수 있습니다. Alexa 음성 같은 음성 인식 음향 모델링의 경우, 이 기능을 사용하여 학습 중 최대 3배까지 네트워크 대역폭을 줄일 수 있습니다. NCCL(NVIDIA Collective Communication Library)을 지원하므로 다중 GPU 시스템에서 20% 더 빠르게 모델을 학습할 수 있습니다.

  • 그라디언트 압축을 통해 네트워크 대역폭 최적화: 분산 학습에서 각 머신은 가중 벡터를 업데이트하기 위해 서로 자주 통신해야 하며 이를 통해 하나의 단일 모델을 종합적으로 구축해야 합니다. 이 과정에서 높은 네트워크 트래픽이 발생합니다. 그라디언트 압축 알고리즘을 사용하여 각 인스턴스가 통신하는 모델 변경 사항을 최대 5배까지 빠르게 압축하여 모델을 학습할 수 있습니다.
  • NCCL의 이점을 활용하여 학습 성능 최적화: NCCL은 다중 GPU 및 다중 노드 일괄 커뮤니케이션 프리미티브를 구현하며 이는 NVIDIA GPU에 최적화된 성능을 제공합니다. NCCL은 다중 GPU 간에 상호 연결을 통해 고대역폭을 달성하도록 최적화된 커뮤니케이션 루틴을 제공합니다. MXNet은 다중 GPU 시스템에서 약 20% 빠르게 모델을 학습하기 위해 NCCL을 지원합니다.

3) 간편한 상호운용성을 제공하는 MXNet: MXNet에는 사용자가 MXNet의 확장성과 성능을 더욱 쉽게 활용할 수 있도록 하기 위해 Caffe 프레임워크로 작성된 신경망 코드를 MXNet 코드로 변환할 수 있는 새로운 도구가 포함되었습니다.

  • Caffe 모델을 MXNet으로 마이그레이션: 이제 Caffe 코드를 MXNet 코드로 변환하는 새로운 소스 코드 변환 도구를 사용하여 Caffe 코드를 MXNet으로 쉽게 마이그레이션할 수 있습니다.

MXNet은 개발자와 연구원들이 언어 번역에서 자율 주행 자동차 및 생체인식 보안에 이르기까지 모든 것에서 진전을 이룰 수 있도록 지원해왔습니다. 광범위한 분야의 사용자들이 MXNet을 통해 개발하고 학습되는 신경망 모델 기반의 상용 인공 지능 애플리케이션을 만들어 내고 있습니다.

예를 들어 자율주행 기업인 TuSimple은 최근에 MXNet을 사용하여 아리조나 유마에서 캘리포니아 샌디에이고까지의 320km 구간을 자율 주행하는 트럭 테스트를 마쳤습니다. 이 출시에는 정식 기능을 갖춘 Gluon 프로그래밍 인터페이스의 성능 최적화 버전도 포함되었습니다. 사용 편리성과 광범위한 사용 지침서를 모두 갖추고 있으므로 딥 러닝에 입문하는 개발자들에게 큰 호응을 얻고 있습니다. 또한 인터페이스가 유연하기 때문에 특히 자연 언어 처리 부문의 리서치 커뮤니티 내에서도 많은 관심을 보이고 있습니다.

MXNet 시작하기
MXNet을 시작하는 방법은 간단합니다. Gluon 인터페이스와 딥 러닝에 대해 자세히 알아 보려면, 종합 자습서 모음을 참조하면 됩니다. 이 자습서에서는 딥 러닝 소개부터 첨단 신경망 모델의 구현 방법에 이르기까지 자세한 내용을 다룹니다. 기계 학습 프레임워크에 참여한 경력이 있다면, GitHub의 인터페이스 사양도 확인해 보십시오.

Apache MXNet용 모델 서버를 시작하려면 다음 명령을 사용하여 라이브러리를 설치합니다.

$ pip install mxnet-model-server

모델 서버 라이브러리에는 SqueezeNet 1.1 객체 분류 모델을 비롯하여 사전 학습된 딥 러닝 모델 10개가 포함된 Model Zoo가 들어 있습니다. 다음 명령을 사용하여 간단히 SqueezeNet 모델 서비스를 시작할 수 있습니다.

$ mxnet-model-server \
  --models squeezenet=https://s3.amazonaws.com/model-server/models/squeezenet_v1.1/squeezenet_v1.1.model \
  --service dms/model_service/mxnet_vision_service.py

모델 서버에 대한 자세한 내용과 소스 코드, 참조 예제, 사용 지침서는 https://github.com/awslabs/mxnet-model-server/에서 찾아볼 수 있습니다.

-Dr. Matt Wood;

이 글은 AWS Contributes to Milestone 1.0 Release and Adds Model Serving Capability for Apache MXNet의 한국어 번역입니다.