Category: Nvidia


차세대 GPU 기반 EC2 인스턴스 (G3) 출시

지난 2013년 처음 G2 인스턴스 타입을 출시했을 때, GPU 기반 컴퓨팅의 이점에 대해 처음 소개했습니다. 출시 이후 AWS 고객들은 G2 인스턴스를 사용하여 모바일 장치, TV 및 데스크톱에 고성능 그래픽 기능을 제공해 오고 있습니다.

오늘 부터 새로운 차세대 G3 인스턴스 타입을 소개합니다. NVIDIA Tesla M60 GPU에 기반하고 있으며, 아래와 같이 세 가지 크기 (모든 VPC 전용 및 EBS 전용)로 제공하게 됩니다.

Model GPUs GPU Memory vCPUs Main Memory EBS Bandwidth
g3.4xlarge 1 8 GiB 16 122 GiB 3.5 Gbps
g3.8xlarge 2 16 GiB 32 244 GiB 7 Gbps
g3.16xlarge 4 32 GiB 64 488 GiB 14 Gbps

각 GPU는 8 GiB의 GPU 메모리, 2048 병렬 처리 코어 및 최대 10 개의 H.265 (HEVC) 1080p30 스트림과 최대 18 개의 H.264 1080p30 스트림을 지원할 수있는 하드웨어 인코더를 지원하므로 3D 렌더링에 매우 적합합니다. 시각화, 가상 현실, 비디오 인코딩, 원격 그래픽 워크 스테이션 (NVIDIA GRID) 및 막대한 양의 병렬 처리 능력을 필요로 하는 서버 측 그래픽 워크로드를 구동할 수 있습니다. GPU는 OpenGL 4.5, DirectX 12.0, CUDA 8.0 및 OpenCL 1.2.를 지원합니다. G3 인스턴스를 시작하면 NVIDIA GRID 가상 워크 스테이션 라이센스에 접근할 수 있으며, 라이센스를 직접 구입하지 않고도 NVIDIA GRID 드라이버를 사용할 수 있습니다.

이 인스턴스는 2.7GHz로 실행되는 Intel Xeon E5-2686 v4 (Broadwell) 프로세서를 사용합니다. 네트워킹 측면에서 강화된 대역폭 (Elastic Network Adapter 사용)을 통해 배치 그룹 내에서 최대 20Gbps의 총 네트워크 대역폭과 함께 최대 14Gbps의 EBS 대역폭을 제공합니다.

이제 AWS 고객들은 대형 3D 지진 모델을 시각화하거나, 3D로 자동차를 구성하며 학생들에게 고급 2D 및 3D 응용 프로그램을 실행할 수 있는 능력을 제공 할 것으로 기대하였습니다. 예를 들어, Calgary Scientific은 언리얼 엔진으로 구동되는 애플리케이션을 가져 와서 협업 지원을 통해 모바일 장치 및 웹 페이지에서 접근할 수 있습니다. 예를 들어, PureWeb RealityDemo Gallery 를 방문해 보세요!

미국 동부 (오하이오), 미국 동부 (버지니아 북부), 미국 서부 (오레곤), 미국 서부 (캘리포니아 북부), AWS GovCloud (미국) 및 EU (아일랜드) 리전에서 온-디멘드로 시작할 수 있습니다. 예약 인스턴스, 스팟 인스턴스 및 전용 호스트가 포함되며 더 많은 리전에서 곧 제공 될 예정입니다.

Jeff;

이 글은 New – Next-Generation GPU-Powered EC2 Instances (G3) 의 한국어 번역입니다.

AWS 및 NVIDIA 딥러닝 파트너쉽 – Volta 기반 GPU 인스턴스, 10만명 딥러닝 교육 등

올해 엔비디아의 GPU Technology Conference에서 AWS와 NVIDIA는 여러 가지 기술 협력을 시작했습니다. 첫 번째는 볼타 기반의 최신 GPU 인스턴스로 LSTM 트레이닝의 3 배 속도 향상을 통해 인공 지능 개발 방식을 완전히 바꿀 것으로 생각됩니다. 둘째, AWS에서 실행되는 DLI (Deep Learning Institute)를 통해 10 만 명이 넘는 개발자를 양성 할 계획입니다. 세 번째는 광범위한 개발자 커뮤니티를 위한 대규모의  딥러닝 개발 도구 공동 개발입니다.

또한, AWS는 GTC에서 Amazon EC2 P2 instances 및 엔비디아의 Jetson TX2 플랫폼 지원을 통해 대규모로 Apache MXNet 교육을 사용하는 세션을 제공합니다.

Volta 기반 GPU 인스턴스 출시 예고
Volta 아키텍처를 기반으로 640 개의 Tensor 코어가 장착 된 Tesla V100은 120 테라 플롭의 정밀 학습이 가능한 획기적인 성능을 제공합니다. AWS는 Amazon EC2 인스턴스에서 V100을 지원하게 될 예정입니다. 현재 성장 중인 딥러닝  커뮤니티 개발자들이 수퍼 컴퓨팅 클래스 기능을 활용하고 딥러닝 모델을 훈련하여 AI의 한계를 뛰어 넘을 수 있음을 의미합니다. 또한, 엔비디아와 공동으로 AWS 엔지니어 및 연구원은 Apache MXNet에서 사전 신경 신경 기계 번역 (NMT) 알고리즘을 최적화했습니다. 이 접근법을 통해 개발자는 Volta 기반 플랫폼에서 가장 빠른 방법을 사용할 수 있습니다.  앞으로 볼타 기반 인스턴스는 개발자들에게 매우 인기 있을 것으로 기대합니다!

10만명의 개발자에게 딥러닝 교육 제공
NVIDIA와 파트너를 맺어 AWS를 기반으로 한 Deep Learning Institute의 교육 코스를 제공하게 됩니다. DLI는 자체 운전 차량, 의료, 웹 서비스, 로봇 공학, 비디오 분석 및 금융 서비스에 대한  딥러닝 사례을 포함하도록 커리큘럼을 확대하고 있습니다. 이 커리큘럼에는 강사 주도 세미나, 워크샵 및 아시아, 유럽 및 미주 지역의 개발자에게 제공되는 강의가 포함됩니다. AWS의 16 개 리전 (향후 3 개 추가) 및 42 개 가용 영역 (8 개 추가 계획)과 에 이르는 AWS의 글로벌 인프라를 통해 AWS는 광범위한 개발자에게 도달 할 수 있는 완벽한 인프라 플랫폼입니다.

딥러닝 개발자에게 확장성 제공
과거에는 딥러닝 교육 및 연구를 위해 요구되는 수준의 컴퓨팅 성능을 충족시키면서 수퍼 컴퓨터를 사용해야했습니다. 또한 MPI (message passing interface)와 같은 분산 컴퓨팅 라이브러리를 이해하고 여러 종속성이 있는 여러 라이브러리 및 패키지를 설정해야 합니다. AWS는 개발자를 위해 확장 가능한 심층 학습을 쉽게 하기위한 목적으로 NVIDIA와 협력하여 최적화 된 개발자 도구를 만들었습니다. 이 도구는 cuDNN, NCCL, TensorRT 및 CUDA 툴킷과 같은 NVIDIA Deep Learning SDK 라이브러리를 사용하여 사전 작성되었습니다. 개발자가 이러한 도구를 사용할 때  효율적인 인스턴스 시간으로  쉽게 GPU로 확장할 수 있습니다

클라우드와 엣지로의 딥러닝 인프라 확대
저전력 디바이스에서 딥러닝 학습은 현재 가장 큰 트렌드 중 하나입니다. 대기 시간 절감 및 데이터 지역성에서 네트워크 가용성에 이르기까지 네트워크 엣지에 있는 장치에서 인공 지능 모델을 실행하는 데는 여러 가지 이유가 있습니다. 이번 주 GTC에서 열리는 AWS 딥러닝 세션에서 P2 인스턴스를 사용하여 최첨단 모델을 어떻게 훈련시킬 수 있는지 보여줍니다. 또한, Jetson TX2 플랫폼을 포함한 다양한 저전력 디바이스에 저전력 디바이스에 최첨단 인공 지능 기능을 제공하는 방법을 쉽게 보여줍니다. 그런 다음 AWS IoTAWS Greengrass와 같은 서비스를 통해 이러한 장치를 관리하고 종단 간 AI 워크 플로를 제공 할 수 있습니다.

자세히 보기

– Amazon AI Blog;

이 글은 Amazon AI Blog의 AWS and NVIDIA Expand Deep Learning Partnership at GTC 2017의 한국어 번역입니다.

딥러닝용 P2 인스턴스 타입, 서울 리전 출시

최근 인공 지능에 대한 관심이 높아짐에 따라 활용 요구가 높은 기계 학습 및 딥러닝(Deep Learning), 유체 역학 컴퓨팅 연산, 지진파 분석, 분자 모델링, 유전학 및 금융 분석 등 대량 컴퓨팅 연산에 도움이 될 P2 인스턴스 타입을 서울 리전에 오늘 출시하였습니다.
P2 인스턴스 타입은 8 NVIDIA Tesla K80 Accelerators (각각 2개의 NVIDIA GK210 GPU)을 지원합니다. 각 GPU는 12GB 메모리를 가지고 있으며 (초당 240GB 메모리 대역폭 제공) 2,496개의 병렬 코어를 지원합니다. 또한, 더블 비트 오류를 검출해서 싱글 비트 오류를 고치는 ECC 메모리 보호 기능을 지원합니다. ECC 메모리 보호 가능 및 이중 플로팅 포인트 기능을 통해 위의 다양한 요구 사항을 수용할 수 있습니다.

아래는 P2 인스턴스 타입 스펙입니다.

Instance Name GPU Count vCPU Count Memory Parallel Processing Cores
GPU Memory
Network Performance
p2.xlarge 1 4 61 GiB 2,496 12 GB High
p2.8xlarge 8 32 488 GiB 19,968 96 GB 10 Gigabit
p2.16xlarge 16 64 732 GiB 39,936 192 GB 20 Gigabit

더 자세히 알아보기

Channy;