Amazon Web Services 한국 블로그
딥러닝용 P2 인스턴스 타입, 서울 리전 출시
P2 인스턴스 타입은 8 NVIDIA Tesla K80 Accelerators (각각 2개의 NVIDIA GK210 GPU)을 지원합니다. 각 GPU는 12GB 메모리를 가지고 있으며 (초당 240GB 메모리 대역폭 제공) 2,496개의 병렬 코어를 지원합니다. 또한, 더블 비트 오류를 검출해서 싱글 비트 오류를 고치는 ECC 메모리 보호 기능을 지원합니다. ECC 메모리 보호 가능 및 이중 플로팅 포인트 기능을 통해 위의 다양한 요구 사항을 수용할 수 있습니다.
아래는 P2 인스턴스 타입 스펙입니다.
Instance Name | GPU Count | vCPU Count | Memory | Parallel Processing Cores |
GPU Memory |
Network Performance |
p2.xlarge | 1 | 4 | 61 GiB | 2,496 | 12 GB | High |
p2.8xlarge | 8 | 32 | 488 GiB | 19,968 | 96 GB | 10 Gigabit |
p2.16xlarge | 16 | 64 | 732 GiB | 39,936 | 192 GB | 20 Gigabit |
더 자세히 알아보기
- Amazon EC2 신규 GPU 인스턴스 타입 – P2 (16 GPU 지원)
- AWS 기반 딥러닝 AMI 및 AWS CloudFormation 템플릿 업데이트
- AWS를 통한 분산 딥러닝(Deep Learning) 구성하기
- AWS로 딥 러닝을 위한 프레임워크 MxNet 활용하기
– Channy;