AWS Deep Learning AMI

딥 러닝 애플리케이션을 빠르게 구축할 수 있는 사전 구성된 환경

AWS Deep Learning AMI는 기계 학습 담당자 및 연구원에게 규모와 관계없이 클라우드에서 딥 러닝을 가속화할 수 있는 인프라 및 도구를 제공합니다. Apache MXNet 및 Gluon, TensorFlow, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, PyTorch, Chainer, Keras 등 인기 있는 딥 러닝 프레임워크가 사전 설치된 Amazon EC2 인스턴스를 빠르게 시작하여, 정교한 사용자 지정 AI 모델을 교육하거나 새 알고리즘을 실험하거나 새로운 기술과 기법을 배울 수 있습니다.

필요한 것이 Amazon EC2 GPU 인스턴스든 아니면 CPU 인스턴스든 간에, Deep Learning AMI에는 추가 요금이 없습니다. 애플리케이션을 저장하고 실행하는 데 필요한 AWS 리소스에 대해서만 비용을 지불하면 됩니다.

TensorFlow

TensorFlow 클라우드 프로젝트의 88%가 AWS에서 실행되고 있습니다.

Nucleus Research는 딥 러닝 전문가들이 딥 러닝을 위해 다른 클라우드 공급자 대신 AWS를 선택하는 이유 5가지를 공개합니다.

AWS Deep Learning AMI 선택

경험 많은 기계 학습 담당자라 하더라도 기계 학습을 시작하려면 시간이 많이 걸리고 번거로울 수 있습니다. AWS가 제공하는 AMI는 개발자들의 다양한 요구를 지원합니다. 시작하기 프로세스에 대한 안내는 AMI 선택 설명서 및 기타 딥 러닝 리소스를 참조하십시오.

Conda AMI

별도의 가상 환경에 사전 설치된 딥 러닝 프레임워크 PIP 패키지를 원하는 개발자를 위해, Ubuntu, Amazon Linux 및 Windows 2016 버전의 Conda 기반 AMI를 제공합니다.

Conda AMI의 이점에 대해 자세히 알아본 후 이 단계별 안내서에 따라 시작하십시오.

기본 AMI

백지 상태에서 프라이빗 딥 러닝 엔진 리포지토리 또는 딥 러닝 엔진의 사용자 지정 빌드를 설치하고자 하는 개발자를 위해 UbuntuAmazon Linux 버전의 Base AMI를 제공합니다. 

Base AMI의 이점에 대해 자세히 알아본 후 이 단계별 안내서에 따라 시작하십시오.

딥 러닝 프레임워크 지원

AWS Deep Learning AMI는 인기 있는 모든 딥 러닝 프레임워크를 지원하므로 모델을 정의한 후 대규모로 모델을 교육할 수 있습니다. Amazon Linux 및 Ubuntu용으로 구축된 이 AMI는 Apache MXNet과 Gluon, TensorFlow, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, PyTorch, Chainer 및 Keras 등이 사전 설치되어 있기 때문에 이러한 프레임워크를 대규모로 빠르게 배포하고 실행할 수 있습니다.

600x400_TensorFlow_Logo
600x400_mxnet_Logo
gluon-logo
chainer_600x
600x400_Caffe_Logo
600x400_Theano_Logo
pytorch-logo-flat
600x400_keras_Logo
600x400_Microsoft_Cognitive-Toolkit_Logo
600x400_Caffe2_Logo

모델 교육 가속화

개발 및 모델 교육에 박차를 가할 수 있도록 AWS Deep Learning AMI에는 사전 구성된 CUDA 및 cuDNN 드라이버를 통한 최신 NVIDIA GPU 가속뿐 아니라 인텔 MKL(Math Kernel Library)도 포함되어 있으며, 인기 있는 Python 패키지 및 Anaconda 플랫폼을 설치할 수 있습니다. 

GPU 인스턴스

Nvidia

P3 인스턴스는 이전 세대인 Amazon EC2 GPU 컴퓨팅 인스턴스보다 최대 14배 뛰어난 성능을 발휘합니다. 최대 8개의 NVIDIA Tesla V100 GPU를 갖춘 P3 인스턴스는 최대 1페타플롭스의 혼합 정밀도, 125테라플롭스의 단정밀도, 62테라플롭스의 배정밀도 부동 소수점 성능을 제공합니다.

강력한 컴퓨팅

Intel

C5 인스턴스는 3.0GHz Intel Xeon Scalable 프로세서로 구동되며, Intel Turbo Boost 기술을 사용하여 코어 하나를 최대 3.5GHz로 실행할 수 있습니다. C4 인스턴스에 비해 높은 메모리 대 vCPU 비율과 25% 향상된 가격 대비 성능을 제공하는 C5 인스턴스는 요구 사항이 까다로운 유추 애플리케이션에 이상적입니다.

Python 패키지

python-logo

AWS Deep Learning AMI는 Python용 AWS SDK를 비롯하여 인기 있는 Python 패키지와 함께 Python 2.7 및 Python 3.5 커널이 로딩된 Jupyter 노트북이 설치되어 제공됩니다.

Anaconda 플랫폼

Anaconda_ForTrademark_HorizontalLarge_white

AWS Deep Learning AMI에서는 패키지 관리 및 배포를 간소화하기 위해 대규모 데이터 처리, 예측 분석, 과학 컴퓨팅을 위한 Anaconda2 및 Anaconda3 데이터 과학 플랫폼을 설치합니다.

AWS에서 딥 러닝 시작하기

icon1

AWS 계정 가입

AWS 서비스에 바로 액세스할 수 있습니다.
icon2

AWS Deep Learning AMI 받기

해당 프로젝트에 맞는 적절한 AMI와 인스턴스 유형을 선택합니다.

icon3

AWS를 사용하여 구축 시작

간단한 자습서를 참고하여 구축을 시작합니다.

기계 학습을 위한 Amazon SageMaker

Amazon SageMaker에 대해 자세히 알아보기

Amazon SageMaker는 개발자 및 데이터 과학자가 모든 규모의 기계 학습 모델을 쉽고 빠르게 구축, 교육 및 배포할 수 있게 지원하는 완전관리형 서비스입니다. Amazon SageMaker는 Machine Learning을 사용하려는 개발자가 일반적으로 빠른 속도를 내지 못하게 하는 모든 장벽을 제거합니다.

구축할 준비가 되셨습니까?
AWS Deep Learning AMI 시작하기
추가 질문이 있으십니까?
문의처