AWS 기술 블로그
Amazon EC2 가속 컴퓨팅 인스턴스 활용하기 – 파트 2 – AWS ParallelCluster
서론
“Amazon EC2 가속 컴퓨팅 인스턴스 활용하기” 블로그 시리즈는 Amazon EC2의 가속 컴퓨팅 인스턴스와 AWS에서 제공되는 다양한 리소스를 이용하여, 멀티 노드 가속 컴퓨팅 환경을 쉽게 구축할 수 있는 방법에 대해서 알아 봅니다. 블로그는 아래와 같이 3개의 시리즈로 구성이 되어 있으며, “Amazon EC2 가속 컴퓨팅 인스턴스 활용하기 – 파트 1 – AWS Deep Learning AMI (DLAMI)”에서 DLAMI를 사용하여 가속 컴퓨팅 환경을, 쉽고 빠르게 구축할 수 있는 방법에 대해서 알아 보았습니다.
- Amazon EC2 가속 컴퓨팅 인스턴스 활용하기 – 파트 1 – AWS Deep Learning AMI (DLAMI)
- Amazon EC2 가속 컴퓨팅 인스턴스 활용하기 – 파트 2 – AWS ParallelCluster
- Amazon EC2 가속 컴퓨팅 인스턴스 활용하기 – 파트 3 – Amazon Elastic Kubernetes Service (EKS) 기반의 GPU 클러스터
파트 2에서는 가속 컴퓨팅 클러스터를 쉽게 배포하고 관리할 수 있게 해 주는 오픈 소스 클러스터 관리 도구인 AWS ParallelCluster에 대해서 알아 볼 것입니다. ParallelCluster는 간단한 그래픽 사용자 인터페이스(GUI) 또는 텍스트 파일을 사용해 자동화되고 안전한 방식으로 HPC 애플리케이션에 필요한 리소스를 모델링하고 프로비저닝합니다. 또한 여러 인스턴스 유형과 작업 제출 대기열, 그리고 AWS Batch 및 Slurm과 같은 작업 스케줄러를 지원하여, 유연하고 손쉽게 컴퓨팅 클러스터를 구성하고 활용할 수 있습니다.
이 블로그 시리즈는 EC2 기반의 가속 컴퓨팅 환경을 활용하는 데에 중점을 두고 있습니다. 만약, AWS의 완전 관리형 기계 학습 서비스에 더 많은 관심이 있으시다면 Amazon SageMaker와 Amazon SageMaker HyperPod을 검토하여 보시기 바랍니다.
AWS ParallelCluster 가속 컴퓨팅 환경 구축
이제부터 ParallelCluster 기반의 가속 컴퓨팅 클러스터를 구축하는 방법에 대해서 알아 보겠습니다. ParallelCluster를 사용하기 위해서는, 먼저 아래의 사전 필요 사항을 충족해야 하며 링크를 참고하여 구성할 수 있습니다.
사전 필요 사항
- AWS 계정, 관리용 사용자, AWS CLI
- 만약, AWS CLI의 프로파일을 “default”로 설정하지 않은 경우에는, 블로그에 사용된 AWS CLI 명령에 추가적으로
--profile PROFILE_NAME
을 명시해야 올바르게 동작합니다.
- 만약, AWS CLI의 프로파일을 “default”로 설정하지 않은 경우에는, 블로그에 사용된 AWS CLI 명령에 추가적으로
- AWS 리소스
- Amazon EC2 vCPU 서비스 할당량 증가
- 블로그 시리즈에서는 2개 이상의 G6 유형의 EC2 인스턴스를 사용합니다. 독자의 환경에 따라 새로운 EC2 인스턴스를 생성하려고 시도할 때, vCPU 할당량 부족으로 인해 오류가 발생하며 생성이 실패할 수 있습니다.
- 이 re:Post 게시글을 참고하여 현재의 vCPU 할당량을 확인하고, 사전에 증가시킨 후에 실습하시는 것을 권장하여 드립니다.
1. (선택 사항) 온디맨드 용량 예약(On-Demand Capacity Reservations, ODCR) 생성
이 단계는 선택 사항입니다. 가속 컴퓨팅 수요의 급증으로 공급이 원활하지 않은 인스턴스를 사용해야 할 경우에는, 온디맨드 용량 예약을 사용하여 필요한 컴퓨팅 용량을 예약하고 확보할 수 있습니다. 하지만, 용량이 계정에 프로비저닝되면, 인스턴스가 예약 용량으로 실행되는지의 여부와 관계 없이, 선택한 인스턴스 유형에 대한 용량 예약이 온디맨드 요금으로 청구되는 점을 점을 유의해야 합니다. 필요한 인스턴스 유형, 플랫폼, 리전과 가용 영역등을 지정하여 용량 예약을 생성합니다.
2. 환경 변수 설정 및 확인
ParallelCluster를 생성하는 데 필요한 환경 변수를 설정합니다. 이를 통하여 클러스터 구성을 보다 자동화할 수 있게 됩니다. 이 단계에서 유의해야 할 사항은, AWS CLI에 사용된 리소스 조회를 위한 인덱스 번호입니다. 사용자의 환경에 맞게 인덱스를 수정하여, 사용하고자 하는 리소스를 지정해 주시기 바랍니다. 또한, 클러스터에 사용할 AWS Deep Learning AMI (DLAMI)의 DLAMI_ID는 DLAMI 릴리즈 노트를 참고하여 조회할 수 있습니다.
3. 파이썬 가상 환경에 ParallelCluster 설치
가장 먼저 파이썬 가상 환경에 ParallelCluster를 설치합니다. ParallelCluster는 오픈 소스 클러스터 관리 도구로, pip 파이썬 패키지 관리자를 이용하여 손쉽게 설치할 수 있습니다. 설치에 관한 전체 절차는 사용자 가이드를 통해서 확인할 수 있습니다.
AWS Cloud Development Kit (AWS CDK) 에서 AWS CloudFormation 템플릿 생성을 위해서 필요한 Node.js를 설치합니다.
4. 커스텀 AMI 생성
ParallelCluster는 Amazon Linux, Ubuntu, RHEL과 같은 다양한 운영체제 기반의 Amazon Machine Image(AMI)를 제공하고 있으며, 아래의 명령으로 확인할 수 있습니다.
그러나, 블로그 시리즈의 파트 1에서 확인한 바와 같이, DLAMI를 사용한다면 보다 더 손쉽고 빠르게 환경을 구축할 수 있을 것입니다. 따라서, 이번 단계에서는 클러스터에 사용할 커스텀 이미지를 DLAMI 기반으로 생성할 것이며, 전체 과정은 사용자 가이드에서 확인할 수 있습니다. 다양한 옵션들이 있지만, 가이드의 간소화를 위하여 InstanceType
과 ParentImage
만 적용하였습니다.
커스텀 이미지의 생성은 약 1시간 정도가 소요되지만, 이미지 구성에 따라서 달라질 수 있습니다. 아래와 같이 이미지의 생성을 모니터링하고 생성된 이미지의 ID를 환경 변수로 저장합니다.
5. 클러스터 생성
DLAMI를 기반으로 한 커스텀 이미지까지 생성이 완료가 되면, 이제 클러스터를 생성할 준비가 완료되었습니다. 클러스터 생성을 위한 전체 과정은 AWS CLI 사용한 클러스터 생성을 추가로 참고하여 주시기 바랍니다. 이 블로그에서 생성하는 클러스터는 편의를 위하여 모든 인스턴스가 퍼블릭 서브넷에 배치가 됩니다. 하지만, 실제 운영 환경에서는 다른 형태의 네트워크 구성이 필요할 수도 있으며, 네트워크 구성 사용자 가이드를 추가로 참고하여 사용자의 환경에 맞게 구성할 수 있습니다.
아래와 같이 클러스터 생성을 위한 YAML 구성 파일을 생성합니다. 이 클러스터는 하나의 m6i.large 인스턴스를 사용한 헤드 노드, g6.12xlarge 인스턴스를 사용하여 최소 2개에서 최대 4개까지 온디맨드로 확장할 수 있는 컴퓨트 노드로 구성이 됩니다. G6 유형의 인스턴스는 최대 8개의 NVIDIA L4 Tensor Core GPU와 192GB의 GPU 메모리를 제공합니다. 또한, 컴퓨트 노드는 고성능 네트워크 인터페이스인 Elastic Fabric Adaptor(EFA)를 사용하며, Amazon EFS를 공유 스토리지로 사용하는 클러스터를 생성합니다. EFS 파일 시스템은 모든 노드의 /shared
디렉토리에 마운트가 됩니다. 클러스터 구성을 위한 전체 파라미터는 사용자 가이드를 참고하십시오.
EFA와 EFS에 대한 보다 자세한 사항은 “AWS 고성능 컴퓨팅 네트워크, 1부: AWS가 제공하는 고속 네트워크 인터페이스, EFA(Elastic Fabric Adaptor)”와 “Amazon EFS의 처리량 및 성능 모드에 대한 이해와 올바른 선택” 블로그를 참고하실 수 있습니다.
만약, 온디맨드 용량 예약을 생성하였다면, 구성 파일의 CapacityReservationTarget
, CapacityReservationId
의 주석을 제거하고 클러스터를 생성합니다. 아래의 명령으로 생성과 모니터링을 수행할 수 있습니다.
6. 클러스터 헤드 노드 연결 및 확인
ParallelCluster는 AWS Batch와 Slurm 스케줄러를 지원하며, 본 블로그에서는 Slurm이 사용되었습니다. Slurm은 오픈 소스 클러스터 및 작업 스케줄링을 관리하는 워크로드 매니저입니다. 생성된 클러스터는 스케줄러를 이용하여 작업을 제출할 수 있는 헤드 노드와, 작업을 실행하는 컴퓨트 노드로 구성이 되어 있습니다. 우선 헤드 노드에 접속하여 구성된 환경을 확인합니다. 헤드 노드에 SSH로 접속하는 방법은 아래의 2가지 중에 하나를 선택하면 됩니다.
성공적으로 로그인이 완료되면 운영체제의 MOTD (Message of the Day)를 확인할 수 있습니다. MOTD에서는 운영체제의 기본 정보, DLAMI에 대한 설명, 그리고 PyTorch 가상 환경을 활성화 할 수 있는 명령을 보여줍니다. 추가적으로 파일 시스템 정보를 확인하여, EFS 파일 시스템이 /shared
디렉토리에 정상적으로 마운트가 되어있는지 확인합니다.
sinfo, squeue, scontrol과 같은 Slurm 명령을 이용하여 클러스터 구성 내역을 확인할 수 있습니다.
클러스터의 구성이 성공적으로 완료된 것을 확인하였고, 간단한 테스트 작업을 실행해 보겠습니다. 아래와 같이 간단한 배치 스크립트를 작성하고 sbatch를 사용하여 배치 작업을 제출합니다. 이 테스트는 사용자 가이드에서도 확인할 수 있습니다.
7. 컴퓨트 노드 연결 및 확인
클러스터의 헤드 노드에서 srun 명령을 사용하여 컴퓨트 노드에 연결을 하거나 리소스를 할당 받을 수 있는 다양한 방법이 있습니다. 아래의 명령들을 사용하여, 컴퓨트 노드에 대한 연결을 확인하여 봅니다.
현재 구성된 노드들의 파일 시스템 정보를 확인하여, EFS 파일 시스템이 /shared
디렉토리에 정상적으로 마운트가 되어있는지 확인합니다. 또한, 헤드 노드의 /home
과 /opt
디렉토리의 일부가 컴퓨트 노드에 올바르게 공유가 되어 있는지 확인합니다.
추가적으로 아래의 명령들을 사용하여 장착된 GPU 정보, CUDA 버전 정보, 그리고 EFA도 확인을 합니다. 4개의 NVIDIA L4 GPU와 1개의 EFA가 장착이 되어 있음을 확인할 수 있습니다.
이제 클러스터 컴퓨트 노드의 GPU를 테스트할 수 있는 환경의 준비가 완료 되었습니다. 먼저 PyTorch 파이썬 가상 환경을 활성화하고, 아래의 샘플 스크립트를 실행하여 결과를 확인합니다. Conda 환경을 처음 시작할 때 로드가 되는 동안 기다려야 합니다. Conda를 사용한 DLAMI는 프레임워크가 처음 활성화될 때 EC2 인스턴스에 가장 최적화된 버전의 프레임워크를 자동으로 설치합니다. 한번 활성화가 된 이후에는 지연이 발생하지 않습니다.
8. 멀티 노드 분산 데이터 병렬 처리
단일 노드에서 단일 GPU를 사용해 보는 테스트를 완료했습니다. 이번에는 2개의 노드와 8개의 GPU를 사용하는 분산 데이터 병렬 처리 테스트를 수행해 보겠습니다. 이는 PyTorch 예제 깃허브의 분산 데이터 병렬 처리 예제를 활용합니다. PyTorch 프레임워크를 사용하여 분산 데이터 병렬 처리를 위한 실습 코드들을 확인할 수 있습니다.
먼저 아래와 같이 헤드 노드에 SSH로 접속하여 깃허브의 코드를 복제합니다. 코드를 복제하는 과정은 깃허브의 클러스터 구성 예제에서 전체 과정을 참고할 수 있습니다.
복제된 깃허브의 sbatch_run.sh를 참고하여 새로운 배치 스크립트를 생성합니다. 이 스크립트는 2개의 노드와 8개의 GPU를 사용하여, torchrun 명령으로 multigpu_torchrun.py를 수행합니다. torchrun 에 대한 개요와 사용 방법은 PyTorch 문서에서 확인할 수 있습니다. 작업이 성공적으로 제출이 되면 8192 번의 Epoch를 수행하며, 1024 번째 Epoch 마다 스냅샷을 저장합니다.
PyTorch 파이썬 가상 환경을 활성화하고, sbatch를 사용하여 배치 작업을 제출합니다.
작업이 수행되는 동안 아래의 명령들을 이용하여, 작업 대기열과 GPU 사용량등의 모니터링이 가능합니다. --nodelist
의 노드명은 환경에 맞게 수정합니다.
제출된 작업이 성공적으로 완료가 되면, slurm-??.out 결과 파일이 생성되며 아래와 같이 수행결과를 확인할 수 있습니다.
9. 리소스 정리
실습을 완료하고 테스트 환경을 지속적으로 사용하지 않을 계획이라면, 추가 과금을 방지하기 위하여 ParallelCluster를 삭제하고 온디맨드 용량 예약을 취소합니다.
결론
AWS는 가속 컴퓨팅을 위하여 다양한 유형의 Amazon EC2의 가속 컴퓨팅 인스턴스 뿐만 아니라, 고성능 네트워크 어댑터 Elastic Fabric Adaptor(EFA), 그리고 Amazon EC2 UltraClusters 아키텍처를 사용하여 리소스를 제공합니다. 그러나, 이런 가속 컴퓨팅 리소스를 이용하여 빠르고 효율적으로 환경을 구축하고 활용할 수 있는 방법이 필요합니다.
이를 위하여, AWS는 AWS Deep Learning AMI (DLAMI), Amazon EKS 최적화 가속 Amazon Linux AMI, AWS Deep Learning Containers, 그리고 AWS Batch, AWS ParallelCluster, Amazon EKS와 같은 작업 및 클러스터 관리 도구도 또한 제공하고 있습니다.
이 블로그 시리즈의 “Amazon EC2 가속 컴퓨팅 인스턴스 활용하기 – 파트 1 – AWS Deep Learning AMI (DLAMI)”에서 DLAMI를 사용하여 가속 컴퓨팅 환경을, 쉽고 빠르게 구축할 수 있는 방법에 대해서 알아 보았습니다. 또한, 지금까지 살펴본 바와 같이 DLAMI의 장점에 더하여 가속 컴퓨팅 클러스터를 손쉽게 구축하고, 유연한 스케일링과 효율적으로 작업을 관리할 수 있는, AWS ParallelCluster를 활용하는 방법을 알아 보았습니다.
마지막으로, 고성능 컴퓨팅(HPC, High Performance Computing) 클러스터 설정과 관리를 지원하는 새로운 관리형 서비스인 AWS Parallel Computing Service (AWS PCS)가 출시가 되었습니다. AWS PCS를 통하여 고성능 가속 컴퓨팅 클러스터 환경을 직접 구축하지 않고도, 관리형 서비스를 이용하여 ParallelCluster의 장점을 누릴 수 있게 되었습니다. 보다 자세한 사항은 “AWS Parallel Computing Service 정식 출시 – 다양한 규모의 HPC 워크로드를 위한 완전 관리서비스” 블로그를 참고하시기 바랍니다.
다음의 블로그 시리즈에서는 컨테이너 환경을 위한 Amazon Elastic Kubernetes Service (EKS) 기반의 GPU 클러스터를 구축하는 방법에 대해서 알아 보겠습니다.