Amazon EC2 P5 인스턴스

딥 러닝 및 HPC 애플리케이션을 위한 최고 성능의 GPU 기반 인스턴스

Amazon EC2 P5 인스턴스를 사용해야 하는 이유

NVIDIA H100 Tensor Core GPU로 구동되는 Amazon Elastic Compute Cloud(Amazon EC2) P5 인스턴스와 NVIDIA H200 Tensor Core GPU로 구동되는 P5e 및 P5en 인스턴스는 딥 러닝(DL) 및 고성능 컴퓨팅(HPC) 애플리케이션을 위한 Amazon EC2에서 최고의 성능을 제공합니다. 이전 세대 GPU 기반 EC2 인스턴스 대비 솔루션 구현 시간을 최대 4배 앞당기고 ML 모델 훈련 비용을 최대 40%까지 절감할 수 있습니다. 이러한 인스턴스를 사용하면 솔루션을 더 빠르게 반복하여 시장에 더 빨리 출시할 수 있습니다. P5, P5e 및 P5en 인스턴스를 사용하여 점점 복잡해지는 대규모 언어 모델(LLM) 및 가장 까다로운 생성형 인공 지능(AI) 애플리케이션을 지원하는 확산 모델을 훈련하고 배포할 수 있습니다. 이러한 애플리케이션에는 질문 응답, 코드 생성, 비디오 및 이미지 생성, 음성 인식 등이 포함되어 있습니다. 또한 이러한 인스턴스를 사용하여 신약 발견, 지진 분석, 기상 예측, 금융 모델링을 위한 까다로운 HPC 애플리케이션을 대규모로 배포할 수 있습니다.

이러한 성능 개선 사항과 비용 절감을 위해 P5 및 P5e 인스턴스는 이전 세대 GPU 기반 인스턴스 대비 2배 더 뛰어난 CPU 성능, 2배 더 높은 시스템 메모리, 4배 더 많은 로컬 스토리지로 NVIDIA H100 및 H200 Tensor Core GPU를 보완합니다. P5en 인스턴스는 NVIDIA H200 Tensor Core GPU와 고성능 인텔 Sapphire Rapids CPU를 결합하여 CPU와 GPU 간의 Gen5 PCIe를 지원합니다. P5en 인스턴스는 P5e 및 P5 인스턴스에 비해 CPU와 GPU 간에 최대 2배의 대역폭을 제공하고 네트워크 지연 시간이 짧기 때문에 분산 훈련 성능이 향상됩니다. P5 및 P5e 인스턴스 지원은 2세대 Elastic Fabric Adapter(EFA)를 사용하여 최대 3,200Gbps의 네트워킹을 제공합니다. Nitro v5를 사용하는 3세대 EFA를 탑재한 P5en은 이전 세대의 EFA와 Nitro를 사용하는 P5에 비해 지연 시간이 최대 35% 개선되었습니다. 이를 통해 딥 러닝, 생성형 AI, 실시간 데이터 처리, 고성능 컴퓨팅(HPC) 애플리케이션과 같은 분산 훈련 워크로드의 집단 통신 성능을 개선할 수 있습니다. 짧은 지연 시간으로 대규모 컴퓨팅을 제공하기 위해 해당 인스턴스를 페타비트급 비차단 네트워크와 상호 연결된 Amazon EC2 UltraClusters에 배포하여 H100 또는 H200 GPU를 최대 2만 개까지 확장할 수 있습니다. EC2 UltraClusters의 P5, P5e 및 P5en 인스턴스는 슈퍼컴퓨터와 동등한 성능인 최대 20엑사플롭스의 총 컴퓨팅 성능을 제공할 수 있습니다.

Amazon EC2 P5 인스턴스

이점

P5, P5e 및 P5en 인스턴스는 초대형 생성형 AI 모델을 대규모로 훈련할 수 있으며 이전 세대 GPU 기반 EC2 인스턴스보다 최대 4배 높은 성능을 제공합니다.

P5, P5e 및 P5en 인스턴스를 사용하면 훈련 시간과 솔루션 구현 시간을 몇 주에서 며칠로 단축할 수 있습니다. 이를 통해 더 빠른 속도로 반복하고 더 신속하게 시장에 출시할 수 있습니다.

P5, P5e 및 P5en 인스턴스를 사용하면 이전 세대 GPU 기반 EC2 인스턴스에 비해 DL 훈련 및 HPC 인프라 비용을 최대 40% 절감할 수 있습니다.

P5, P5e 및 P5en 인스턴스는 최대 3,200Gbps의 EFA 네트워킹을 제공합니다. 이러한 인스턴스는 EC2 UltraClusters에 배포되며 20엑사플롭스의 총 컴퓨팅 성능을 제공합니다.

기능

P5 인스턴스는 인스턴스당 총 최대 640GB의 HBM3 GPU 메모리와 함께 최대 8개의 NVIDIA H100 GPU를 제공합니다. P5e 및 P5en 인스턴스는 인스턴스당 총 최대 1,128GB의 HBM3e GPU 메모리와 함께 최대 8개의 NVIDIA H200 GPU를 제공합니다. 두 인스턴스 모두 최대 900GB/초의 NVSwitch GPU 상호 연결(각 인스턴스에서 총 3.6TB/초의 양방향 대역폭)을 지원하므로 각 GPU에서 단일 홉 지연 시간으로 동일한 인스턴스의 다른 모든 GPU와 통신할 수 있습니다.

NVIDIA H100 및 H200 GPU에는 FP8 및 16비트 계산을 지능적으로 관리하고 동적으로 선택하는 새로운 트랜스포머 엔진이 있습니다. 이 기능을 통해 이전 세대 A100 GPU에 비해 LLM에서 DL 훈련 속도를 높일 수 있습니다. HPC 워크로드의 경우 NVIDIA H100 및 H200 GPU에는 A100 GPU에 비해 동적 프로그래밍 알고리즘을 더욱 가속화하는 새로운 DPX 명령이 있습니다.

P5, P5e 및 P5en 인스턴스는 최대 3,200Gbps의 EFA 네트워킹을 제공합니다. EFA를 NVIDIA GPUDirect RDMA와 함께 사용하면 운영 체제 바이패스를 통해 여러 서버의 GPU 간 통신 지연 시간을 낮출 수 있습니다.

P5, P5e 및 P5en 인스턴스는 Amazon FSx for Lustre 파일 시스템을 지원하므로 대규모 DL 및 HPC 워크로드에 필요한 수백 GB/초의 처리량과 수백만 IOPS로 데이터에 액세스할 수 있습니다. 각 인스턴스는 또한 대규모 데이터세트에 대한 빠른 액세스를 위해 최대 30TB의 로컬 NVMe SSD 스토리지를 제공합니다. 또한 Amazon Simple Storage Service(Amazon S3)를 통해 비용 효율적인 스토리지를 거의 무제한으로 사용할 수 있습니다.

고객 추천사

고객과 파트너가 Amazon EC2 P4 인스턴스를 사용하여 비즈니스 목표를 달성한 몇 가지 사례를 소개합니다.

  • Anthropic

    Anthropic은 신뢰할 수 있고, 해석할 수 있으며, 조종 가능한 AI 시스템을 구축합니다. 이 시스템은 상업적으로나, 그리고 퍼블릭의 이익을 위하여 가치를 창출할 수 있는 많은 기회를 갖게 될 것입니다.

    Anthropic에서는 신뢰할 수 있고 해석 가능하며 조정 가능한 AI 시스템을 구축하기 위해 노력합니다. 오늘날의 대형 일반 AI 시스템은 상당한 이점이 있지만 예측이 불가능하고 신뢰할 수 없으며 불투명할 수도 있습니다. 우리의 목표는 이러한 문제를 진전시키고 사람들이 유용하다고 생각하는 시스템을 배포하는 것입니다. 우리 조직은 DL 연구의 파운데이션 모델을 구축하고 있는 세계에서 몇 안 되는 조직 중 하나입니다. 파운데이션 모델은 매우 복잡하기 때문에 이러한 최첨단 모델을 개발하고 훈련시키려면 대규모 GPU 클러스터에 효율적으로 배포해야 합니다. 현재 Amazon EC2 P4 인스턴스를 광범위하게 사용 중이며 P5 인스턴스를 출시하게 되어 기쁩니다. P4d 인스턴스에 비해 상당한 가격 대비 성능 이점을 제공할 것으로 예상되며, 차세대 LLM 및 관련 제품을 구축하는 데 필요한 방대한 규모로 사용할 수 있을 것으로 예상됩니다.

    Tom Brown, Anthropic 공동창립자
  • Cohere

    언어 AI 분야의 선도적인 선구자인 Cohere는 모든 개발자와 기업이 데이터를 비공개로 안전하게 유지하면서 세계 최고의 자연어 처리(NLP) 기술을 사용하여 놀라운 제품을 만들 수 있도록 지원합니다.

    Cohere는 모든 기업이 언어 AI의 힘을 활용하여 자연스럽고 직관적인 방식으로 정보를 탐색, 생성, 검색하고 이에 따라 조치를 취하도록 돕고 각 고객에게 가장 적합한 데이터 환경의 여러 클라우드 플랫폼에 배포를 지원하는 데 앞장서고 있습니다. NVIDIA H100 기반 Amazon EC2 P5 인스턴스는 Cohere의 최첨단 LLM 및 생성형 AI 기능과 결합된 컴퓨팅 파워를 통해 기업이 더 빠르게 생성, 성장, 확장할 수 있는 능력을 제공합니다.

    Aidan Gomez, Cohere의 CEO
  • Hugging Face

    Hugging Face는 좋은 기계 학습의 대중화를 사명으로 삼고 있습니다.

    가장 빠르게 성장하는 ML용 오픈 소스 커뮤니티인 우리는 이제 NLP, 컴퓨터 비전, 생물학, 강화 학습 등을 위해 150,000개 이상의 사전 훈련된 모델과 25,000개 이상의 데이터세트를 플랫폼에서 제공합니다. LLM과 생성형 AI가 크게 발전하면서 우리는 AWS와 협력하여 미래의 오픈 소스 모델을 구축하고 기여하고 있습니다. UltraClusters에서 EFA와 함께 대규모로 Amazon SageMaker를 통해 Amazon EC2 P5 인스턴스를 사용하여 모두를 위한 새로운 기반 AI 모델을 빠르게 제공할 수 있기를 기대합니다.

    Julien Chaumond, Hugging Face의 CTO 겸 공동창립자

제품 세부 정보

인스턴스 크기 vCPU 인스턴스 메모리(TiB) GPU   GPU 메모리 네트워크 대역폭(Gbps) GPUDirect RDMA GPU P2P 인스턴스 스토리지(TB) EBS 대역폭(Gbps)
p5.48xlarge 192 2 H100 8개 640GB
HBM3
3,200Gbps EFA 900GB/s NVSwitch 8 x 3.84 NVMe SSD 80
p5e.48xlarge 192 2 H200 8개 1,128GB
HBM3e
3,200Gbps EFA 900GB/s NVSwitch 8 x 3.84 NVMe SSD 80
p5en.48xlarge 192 2 H200 8개 1,128GB HBM3e 3,200Gbps EFA 900GB/s NVSwitch 8 x 3.84 NVMe SSD 100

ML 사용 사례 시작하기

SageMaker는 기계 학습 모델의 구축, 훈련 및 배포를 위한 완전관리형 서비스입니다. SageMaker HyperPod와 함께 사용하면 수십, 수백 또는 수천 개의 GPU로 손쉽게 확장하여 설정과 훈련 클러스터 복원력 관리에 대한 걱정 없이 모든 규모에서 신속하게 모델을 훈련할 수 있습니다.

DLAMI는 ML 실무자 및 연구원에게 규모와 관계없이 클라우드에서 DL을 가속화할 수 있는 인프라 및 도구를 제공합니다. Deep Learning Containers는 DL 프레임워크가 사전에 설치된 Docker 이미지로, 처음부터 환경을 구축하고 최적화하는 복잡한 프로세스를 건너뜀으로써 사용자 지정 기계 학습 환경 배포를 간소화할 수 있도록 지원합니다.

컨테이너 오케스트레이션 서비스를 통해 자체 컨테이너식 워크로드를 관리하려는 경우 Amazon EKS 또는 Amazon ECS를 통해 P5, P5e 및 P5en 인스턴스를 배포할 수 있습니다.

HPC 사용 사례 시작하기

P5, P5e 및 P5en 인스턴스는 엔지니어링 시뮬레이션, 컴퓨팅 금융, 지진 분석, 분자 모델링, 유전체학, 렌더링 및 기타 GPU 기반 HPC 워크로드를 실행하기에 적합한 플랫폼입니다. HPC 애플리케이션에는 뛰어난 네트워크 성능, 빠른 스토리지, 대용량 메모리, 뛰어난 컴퓨팅 성능 또는 위의 모든 성능이 필요할 때가 많습니다. 세 가지 인스턴스가 모두 EFA를 지원하므로 메시지 전달 인터페이스(MPI)를 사용하여 수천 개의 GPU로 확장되는 HPC 애플리케이션을 지원할 수 있습니다. AWS Batch 및 AWS ParallelCluster는 HPC 개발 작업에서 분산 HPC 애플리케이션을 빠르게 구축하고 확장하는 데 도움이 됩니다.

자세히 알아보기