Category: Amazon EC2*


Amazon EC2 차세대 컴퓨팅 최적화 C5 인스턴스 출시

수년 동안 우리는 고객에게 최상의 네트워킹, 스토리지 및 컴퓨팅 성능을 제공하기 위해 끊임없이 노력해 왔으며 AWS에 의해 설계되고 구축 된 전용 하드웨어로 다양한 유형의 작업을 오프로드하는 데 오랜 기간 집중했습니다. 오늘 새로운 Amazon EC2 C5 인스턴스 타입을 추가하여, 최신 세대의 하드웨어 오프로드를 통합하며 하드웨어와 함께 새로운 하이퍼 바이저를 추가하여 했습니다.

EC2 C5 인스턴스 타입 출시
EC2 C5 인스턴스는 Amazon EC2의 차세대 컴퓨팅 최적화 인스턴스로, 3.0GHz Intel® Xeon® Scalable 프로세서(Skylake)로 구동됩니다. C5 인스턴스는 새로운 경량 하이퍼바이저를 사용하여 빌드되며, 이 하이퍼바이저가 고객의 인스턴스에 거의 모든 컴퓨팅 및 메모리 리소스를 제공합니다. 그 결과, C5 인스턴스는 EC2 제품군에서 최상의 가격 대 컴퓨팅 성능 비율을 자랑합니다.

C5 인스턴스의 가격 대 성능비는 C4 인스턴스에 비해 25% 개선되었고 일부 애플리케이션에서는 50% 이상 개선되었습니다. C5 인스턴스는 배치 처리, 분산 분석, 고성능 컴퓨팅(HPC), 머신/딥 러닝 추론, 광고 서비스, 확장성이 높은 멀티플레이어 게임, 비디오 인코딩 등 컴퓨팅 집약적 워크로드를 실행하는 데 이상적입니다.

C5 인스턴스는 6가지 크기로 이용 가능하며, 고객이 효과적으로 워크로드를 병합할 수 있도록 72개 vCPU 및 144GiB 메모리를 제공하는 더 큰 크기의 c5.18xlarge를 새로 출시했습니다.

인스턴스 타입 vCPUs
RAM
EBS 대역폭
네트워크 대역폭
c5.large 2 4 GiB Up to 2.25 Gbps Up to 10 Gbps
c5.xlarge 4 8 GiB Up to 2.25 Gbps Up to 10 Gbps
c5.2xlarge 8 16 GiB Up to 2.25 Gbps Up to 10 Gbps
c5.4xlarge 16 32 GiB 2.25 Gbps Up to 10 Gbps
c5.9xlarge 36 72 GiB 4.5 Gbps 10 Gbps
c5.18xlarge 72 144 GiB 9 Gbps 25 Gbps

차세대 Elastic Network Adapter(ENA) 및 NVM Express(NVMe) 기술이 적용되어 C5 인스턴스는 네트워킹 및 Amazon Elastic Block Storage(Amazon EBS)를 위한 높은 처리량, 낮은 지연 시간 인터페이스를 제공합니다. C5 인스턴스는 최대 25Gbps의 네트워크 대역폭과 최대 9Gbps의 Amazon EBS 대역폭을 제공합니다. 또한 C5 인스턴스는 더 작은 인스턴스 크기에서 월등히 높은 네트워킹 및 Amazon EBS 성능을 자랑합니다. 새로운 Intel Advanced Vector Extensions 512(AVX-512) 명령 집합을 지원하여 이전 세대 C4 인스턴스에 비해 사이클당 코어별 FLOPS가 최대 2배에 달합니다.

정식 출시
C5 인스턴스는 미국 동부, 미국 서부 및 EU에서 온디맨드, 예약 및 스팟 인스턴스로 제공됩니다. 자세히 알아보려면 Amazon EC2 요금 페이지를 참조하십시오.

Jeff;

NVIDIA Tesla V100 GPU 지원 Amazon EC2 P3 인스턴스 타입 정식 출시

AWS는 고객 요청에따라 기술 변화에 맞는 EC2 인스턴스 타입을 지속적으로 추가해 왔습니다. 2006년 m1.small을 시작으로, 컴퓨팅 최적화, 메모리 최적화 혹은 스토리지 및 I/O 등에 최적화된 인스턴스 타입 등 많은 고객 선택 옵션을 제공하고 있습니다.

새로운 P3 인스턴스 타입 출시
오늘 AWS의 4개의 리전에 차세대 GPU 기반 EC2 인스턴스를 출시합니다. 최대 8개의 NVIDIA Tesla V100 GPU로 구동되는 P3 인스턴스는 고성능 컴퓨팅 작업을 요하는 기계 학습, 딥러닝, 전산 유체 역학, 전산 금융, 지진 분석, 분자 모델링 및 유전체 분석 작업 등의 부하를 처리할 수 있게 설계되었습니다.

P3 인스턴스는 최대 2.7GHz로 실행되는 맞춤형 Intel Xeon E5-2686v4 프로세서를 사용합니다. 세 가지 크기 (모든 VPC 전용 및 EBS 전용)로 사용할 수 있습니다.

모델 NVIDIA Tesla V100 GPUs GPU 메모리
NVIDIA NVLink vCPUs 주메모리 네트워크대역폭 EBS 대역폭
p3.2xlarge 1 16 GiB n/a 8 61 GiB Up to 10 Gbps 1.5 Gbps
p3.8xlarge 4 64 GiB 200 GBps 32 244 GiB 10 Gbps 7 Gbps
p3.16xlarge 8 128 GiB 300 GBps 64 488 GiB 25 Gbps 14 Gbps

각 NVIDIA GPU는 5,120개의 CUDA 코어와 640개의 Tensor 코어로 구성되어 있으며 최대 125 TFLOPS의 혼합 부동 소수 정밀도, 15.7 TFLOPS의 단일 부동 소수점 정밀도 및 7.8 TFLOPS의 복수 부동 소수점 정밀도를 지원합니다. 8xlarge 및 16xlarge 사이즈에는 각 GPU가 최대 300GBps의 데이터 속도로 실행되는 NVIDIA NVLink 2.0을 통해 서로 연결됩니다. 이를 통해 GPU는 중간 결과 및 기타 데이터를 CPU 또는 PCI-Express 패브릭을 통해 이동하지 않고 고속으로 교환할 수 있습니다.

텐서코어(Tensor Core) 소개

NVIDIA 블로그에 따르면, Tensor 코어는 딥러닝 신경망 학습 및 추론을 가속화하도록 설계되었습니다. 각 코어는 한 쌍의 4×4 반 정밀도 (FP16이라고도 함) 행렬을 빠르고 효율적으로 연산해서 얻은 4×4 행렬을 다른 반 또는 단일 정밀도 (FP32) 행렬에 더한 다음, 절반 또는 단일 정밀도 형식의 4×4 행렬 NVIDIA 블로그 게시물의 다이어그램은 다음과 같습니다.

이 작업은 딥러닝 네트워크를 위한 학습 과정에서 가장 먼저 실행하는 것으로, 오늘날의 NVIDIA GPU 하드웨어가 매우 구체적인 시장 요구를 해결하기 위해 특별한 방법으로 구축되었는지 보여주는 훌륭한 예입니다. 텐서 코어 성능의 혼합 정밀도 한정자(mixed-precision qualifier)는 16비트 및 32비트 부동 소수점 값의 조합으로 작업하기에 충분히 유연하다는 것을 의미합니다.

정식 출시
NVIDIA Tesla V100 GPU 및 Tensor 코어를 최대한 활용하려면 CUDA 9cuDNN7을 사용해야합니다. 이 드라이버와 라이브러리는 이미 최신 버전의 Windows AMI에 추가되었으며, 11 월 7 일에 출시예정인 업데이트 된 Amazon Linux AMI에 포함될 예정입니다. 새로운 패키지는 기존 Amazon Linux AMI에 설치하려는 경우 이미 레포지터리에서 사용할 수 있습니다.

최신 AWS Deep Learning AMI에는 Apache MXNet, Caffe2 및 Tensorflow (각각 NVIDIA Tesla V100 GPU 지원)의 최신 버전이 사전 설치되어 있으며 Microsoft Cognitive Toolkit과 같은 다른 기계 학습 프레임 워크로 P3 인스턴스를 지원하도록 업데이트됩니다. 이 프레임 워크가 NVIDIA Tesla V100 GPU에 대한 지원을 출시하면, PyTorch를 사용할 수 있습니다. 또한 NGC 용 NVIDIA Volta Deep Learning AMI를 사용할 수도 있습니다.

P3 인스턴스는 On-Demand, Spot, Reserved Instance 및 Dedicated Host 양식의 미국 동부 (버지니아 북부), 미국 서부 (오레곤), EU (아일랜드) 및 아시아 태평양 지역 (도쿄) 지역에서 사용할 수 있습니다. 더 자세한 사항은 P3 인스턴스 소개 페이지를 참고하세요!

Jeff;

이 글은 New – Amazon EC2 Instances with Up to 8 NVIDIA Tesla V100 GPUs (P3)의 한국어 편집본입니다. Amazon 인공 지능에 대한 좀 더 자세한 사항은 아래 한국어 발표 자료 및 동영상을 참고하시기 바랍니다.

자세히 알아보기

Amazon EC2 기반 Microsoft SQL Server 2017 구동하기

며칠 전 출시한 Microsoft SQL Server 2017 에는 그래프 데이터베이스 지원, 데이터베이스 자동 튜닝 및 클러스터되지 않은 가용성 그룹 (Always On Availability Groups)을 만드는 기능을 포함한 강력한 신규 기능이 많이 포함되어 있습니다. Linux 및 Docker 컨테이너에서도 실행할 수 있습니다.

EC2 실행 가능
SQL Server 2017의 Windows Server 2016 및 네 가지 에디션 (웹, 익스프레스, 표준 및 엔터프라이즈)을 EC2 인스턴스에서 지금 시작할 수 있습니다. AMI (Amazon Machine Images)는 현재 모든 AWS 리전에서 사용할 수 있습니다 128 vCPU 및 거의 4 TB의 메모리가있는 새로운 x1e.32xlarge를 비롯하여 다양한 EC2 인스턴스 유형에서 실행됩니다.

이제 AWS 관리 콘솔 또는 AWS Marketplace에서 시작할 수 있습니다. 콘솔에서 검색 방법은 다음과 같습니다.

AWS Marketplace에서도 찾을 수 있습니다.

라이선스 옵션
SQL Server에 대한 많은 라이선스 옵션이 있습니다.

  • 종량 지불 (Pay As You Go) – 이 옵션은 라이선스 구매를 피하고 이미 SQL Server의 이전 버전을 실행하고 업그레이드하려는 경우에 적합합니다. 진실한 업, 소프트웨어 준수 감사 또는 Software Assurance를 처리 할 필요가 없으며 장기간 구매할 필요가 없습니다. SQL Server Standard Edition을 사용하고 있다면 52 %의 비용을 절감하면서 최근의 가격 인하 혜택을 누릴 수 있습니다.
  • 라이선스 이동(License Mobility) – 이 옵션을 사용하면 활성 Software Assurance 계약을 통해 기존 라이선스를 EC2로 가져올 수 있으며 Windows 또는 Linux 인스턴스에서 SQL Server를 실행할 수 있습니다.
  • 기존 라이선스 활용(Bring Your Own Licenses) – 이 옵션을 사용하면 기존에 구매한 라이선스를 활용하면서 업그레이드 비용을 최소화 할 수 있습니다. EC2 전용 인스턴스 또는 EC2 전용 호스트에서 SQL Server를 실행할 수 있으므로 코어 단위로 SQL Server를 라이선스함으로써 운영 비용을 절감 할 수 있습니다. 이 옵션을 사용하면 EC2 Linux 인스턴스 (SUSE, RHEL 및 Ubuntu 지원)에서 SQL Server 2017을 실행할 수 있으며 EC2 Windows 및 Linux 인스턴스에서 실행되는 Docker 기반 환경도 지원합니다. 이러한 옵션에 대한 자세한 내용은 Linux에서 SQL Server 설치 지침Docker로 SQL Server 2017 컨테이너 이미지 실행을 참조하십시오.

더 자세히 보기
SQL Server 2017에 대한 자세한 내용과 라이선스 옵션에 대한 자세한 내용은 SQL Server on AWS 페이지를 참조하십시오.

마이그레이션 작업을 계획 할 때 조언 및 지침이 필요하면 Microsoft Workload Competency를 가진 데이터베이스 솔루션에 중점을 둔 AWS 파트너의 도움을 받으실 수 있습니다.

Jeff;

이 글은 Now Available – Microsoft SQL Server 2017 for Amazon EC2 의 한국어 번역입니다.

Amazon Linux 2017-09 버전 업데이트 출시

https://media.amazonwebservices.com/blog/2017/announcing_amazon_linux_2017_09_400x218_1.gif최신 Amazon Linux 버전 AMI (2017.09) 업데이트를 발표합니다. 최신 AMI에는 EC2에서 실행되는 응용 프로그램에 안정적이고 안전한 고성능 환경을 제공하도록 설계된 지원 및 유지 관리되는 Linux 이미지가 포함되어 있습니다.

간편한 업그레이드
두 개의 명령을 실행하고 리부팅하여, 기존 인스턴스를 업그레이드 할 수 있습니다.

$ sudo yum clean all
$ sudo yum update

다양한 기능
AMI에는 많은 새로운 기능이 포함되어 있으며이 중 많은 기능이 고객의 요청에 따라 추가되었습니다

  • Kernel 4.9.51 – 4.9 안정 커널 시리즈를 기반으로하는이 커널에는 ENA 1.3.0 드라이버와 함께 TCP Bottleneck Bandwidth 및 RTT (BBR)가 지원됩니다. ENA에 대해 자세히 알아 보려면 블로그를 참고하세요.   BBR을 사용 가능하게 설정하는 방법은 출시 정보를 살펴보세요.
  • Amazon SSM Agent – Amazon SSM Agent가 기본적으로 설치됩니다. 즉, 이제 EC2 실행 명령을 사용하여 추가 설정없이 인스턴스에서 스크립트를 구성하고 실행할 수 있습니다. 자세한 내용은 Systems Manager를 사용한 명령 실행블로그 글을 살펴 보세요.
  • Python 3.6 – Python의 최신 버전이 포함되어 있으며 virtualenvalternatives을 통해 관리 할 수 있습니다. 다음과 같이 Python 3.6을 설치할 수 있습니다.
    $ sudo yum install python36 python36-virtualenv python36-pip
  • Ruby 2.4 – 2.4 버전의 Ruby 최신 버전을 사용할 수 있습니다. 다음과 같이 설치하십시오.
    $ sudo yum install ruby24
  • OpenSSL – AMI는 OpenSSL 1.0.2k로 업데이트되었습니다.
  • HTTP/2 – HTTP/2 프로토콜은 AMI의 httpd24, nginx 및 curl 패키지에서 지원됩니다.
  • 관계형 데이터베이스Postgres 9.6 및  MySQL 5.7 를 사용할 수 있으며 다음과 같이 설치할 수 있습니다.
    $ sudo yum install postgresql96
    $ sudo yum install mysql57
    
  • OpenMPIOpenMPI 패키지가 1.6.4에서 2.1.1로 업그레이드되었습니다. OpenMPI 호환 패키지를 사용할 수 있으며 이전 OpenMPI 응용 프로그램을 빌드하고 실행할 수 있습니다.
  • 추가 사항 –  Squid 3.5, Nginx 1.12, Tomcat 8.5GCC 6.4 패키지 등이 업데이트 되었습니다.

정식 출시
본 AMI를 사용하여 모든 AWS 리전에서 EC2 인스턴스를 시작할 수 있습니다. EBS 및 Instance Store 기반 인스턴스에서 사용할 수 있으며 HVM 및 PV 모드를 지원합니다.

Jeff;

이 글은 Now Available – Amazon Linux AMI 2017.09 의 한국어 번역입니다.

새 소식 – EC2 스팟 인스턴스의 워크로드 중지 및 재개

EC2 스팟 인스턴스는 EC2 컴퓨팅 파워 요구량의 최대 90%까지 아껴줍니다. 특정 크기와 개수의 인스턴스를 요청할 수 있는 기능은 물론 원하는 수준의 컴퓨팅 파워를 유지할 수 있는 스팟 집합Auto Scaling 스팟 집합까지 지원하여 스팟 인스턴스의 유용성과 유연성을 훨씬 더 높였습니다.

EC2 사용자는 EBS 볼륨을 연결한 상태에서 인스턴스 실행을 멈추었다가 인스턴스가 다시 실행하면 멈췄던 부분에서 자동으로 시작하는 기능을 오래 전부터 사용했습니다.

스팟 워크로드 중지 및 재개
이제부터는 이 두 중요한 기능을 섞어 가용 용량이 없거나 용량이 입찰가 미만일 때 인스턴스를 중지하는(종료하는 대신) 방식으로 대응하는 스팟 입찰과 스팟 집합을 설정할 수 있습니다. 중지된 인스턴스에 연결된 EBS 볼륨은 EBS 기반 루트 볼륨처럼 그대로 유지됩니다. 가용 용량이 생기면 인스턴스가 시작되어 애플리케이션 프로비저닝, EBS 볼륨 설정, 데이터 다운로드, 네트워크 도메인 연결 등에 시간이 소요되지 않고 계속 진행할 수 있습니다.

많은 AWS 고객들이 체크포인트를 생성하고 이용하는 애플리케이션을 향상시켜, 복원력을 강화하고 프로세스에서 EC2 시작/중지 기능을 사용할 수 있게 되었습니다. 이제 이 고객들은 스팟 인스턴스에서 이러한 애플리케이션을 실행하여 평균 70~90%를 절약할 수 있게 됩니다.

인스턴스가 멈춘 상태에서 EBS 최적화, 사용자 데이터, 램디스크 ID, 종료 시 삭제 속성을 수정할 수 있습니다. 중지한 스팟 인스턴스는 컴퓨팅 시간 비용이 발생하지 않으며, 연결된 EBS 볼륨 공간은 정기 요금으로 청구됩니다.

스팟 입찰 또는 스팟 집합을 생성하여 중지/시작 사용을 지정하는 방법은 다음과 같습니다.

알아야 할 것들
이 기능은 현재 사용할 수 있으며, 스팟 인스턴스가 있는 모든 AWS 리전에서 이 기능을 지금 사용할 수 있습니다. 새로운 EC2 인스턴스 및 EBS 볼륨의 초 단위 과금 방식과 연동되도록 설계되어 스팟 인스턴스의 비용 절감 수준을 한 차원 더 높일 수 있습니다.

EBS 볼륨은 항상 특정 가용 영역(AZ) 안에 존재합니다. 따라서 특정 AZ를 지정하는 스팟 및 스팟 집합 요청은 항상 해당 AZ에서 다시 시작합니다.

이 기능을 인스턴스 유형이 다양할 수 있는 스팟 집합과 함께 사용할 때는 주의하십시오. 인스턴스 집합의 구성은 시간이 지나면 변할 수 있기 때문에 계정의 IP 주소와 EBS 볼륨 한계에 신경써야 합니다.

여러분이 앞으로 이 기능을 얼마나 새롭고 기발하게 사용하게 될지 궁금합니다. 사용 중인 애플리케이션이 스팟 인스턴스에 잘 맞지 않다고 생각되거나 중단 문제를 해결하는 데 비용이 너무 많이 든다면 다시 한 번 고려해보십시오.

Jeff;

이 글은 New – Stop & Resume Workloads on EC2 Spot Instances의 한국어 번역입니다.

Amazon EC2 인스턴스 및 EBS 볼륨 초당 과금 제도 시행

2006년 Amazon EC2 출시 이전에는 컴퓨팅을 위해 필요한 물리 서버를 직접 구매하거나 임대했으나, EC2를 출시한 이후 시간 단위로 가상서버(인스턴스)를 사용하고 그 시간에만 비용을 지불하는 혁신을 가져왔습니다. 사용한 만큼 지불(Pay-as-you-go)하는 모델을 통해 AWS 고객이 다양한 애플리케이션을 개발, 테스트 및 배포하는 새로운 방법에 대해 생각할 수 있게 되었습니다.

최근 AWS Lambda와 같은 서비스는 애플리케이션을 실행한 시간 만큼만 과금하는 혁신을 가져왔고, 최근 콘테이너 기술을 비롯해서 짧은 시간 (불과 몇 분 정도의 실행)이 필요한 경우 효율적으로 활용하는 애플리케이션 개발도 증가하고 있습니다.

EC2 및 EBS에 대한 초 단위 청구
오는 10월 2일부터 온디멘드, 예약 및 스팟 형식의 구매 옵션에 대해 리눅스 인스턴스 사용은 1 초 단위로 과금합니다. 마찬가지로 EBS 볼륨에 대한 프로비저닝 된 스토리지는 1초 단위로 청구됩니다.

1초당 과금 방식은 Amazon EMRAWS Batch에도 적용됩니다.

  • Amazon EMR – EMR 클러스터에 용량을 추가하여 보다 신속하게 데이터 분석 결과를 얻을 수 있는데, 이때 클러스터에 추가되는 EC2 인스턴스에 대한 초당 과금으로 노드를 추가하는 것이 이전보다 훨씬 비용 효율적입니다.
  • AWS Batch – 고객이 실행하는 일괄 처리 작업 중 상당수가 1시간 이내에 완료됩니다. AWS Batch는 스팟 인스턴스를 활용할 수 있으며, 앞으로 초당 과금을 통한 배치 처리로 훨씬 비용이 절감될 것입니다.

AWS 고객 중 일부는 게임, 광고 기술 또는 3D 렌더링 서버 집합을 관리 할 때, 가장 유리한  인스턴스 형태를 전략적으로 선택함으로써 EC2의 가치를 극대화 할 수있는 시스템을 구축했습니다. 이들 고객에게 초당 과금을 통해 인스턴스 관리의 추가 레이어가 필요 없으며, 모든 업무에 비용 절감 효과를 가져옵니다.

이로 인해 많은 부분에서 가격이 인하되는 효과를 가져 올 것이지만, 이것 보다 더 중요한 측면이 있습니다. 이러한 과금 방식의 변화가 여러분의 문제를 새로운 방식으로 풀수 있을 것으로 기대합니다. 예를 들어, 애플리케이션의 지속적인 통합, 테스트 서버의 운용, 데이터 분석, 일괄 처리 및 3D 렌더링 같은 분야에서 더 많은 자원으로 더 짧고 비용 효율적인 방법을 개선할 수 있을 것입니다.

클라우드 컴퓨팅의 많은 장점 중 하나는 필요에 따라 자원을 즉시 제공하고 해제할 수 있는 탄력성입니다. 과금 방식을 초단위로 바꾸면, 여러분은 이러한 자원 탄력성을 높이고 비용을 절감 할 수 있으며 계속해서 발전하는 컴퓨팅의 이점을 누릴 수 있습니다.

알아 두어야 할 것들
초당 과금 변경은 모든 AWS 리전에서 유효하며, 신규 실행 혹은 이미 실행중인 모든 리눅스 인스턴스에 대해 10월 2일부터 적용됩니다. 다만, 별도의 시간별 요금이 부과되는 Microsoft Windows 또는 리눅스 배포판을 실행하는 인스턴스에는 초당 청구가 적용되지 않습니다. 인스턴스 당 최소 1분의 요금이 부과됩니다.

인스턴스당 요금 및 스팟 가격은 시간 단위로 표시되지만, 비용 계산서에는 초단위로 과금된 비용이 청구됩니다.  예약 인스턴스 사용량 역시 한 시간 내에 여러 인스턴스를 시작, 사용 및 종료하는 경우 혜택을 받을 수 있으며, 요금 청구서에는 다음과 같이 십진법으로 시간이 표시됩니다.

단, 리전당 전용 호스팅 서버 요금, EBS Snapshots 및 AWS Marketplace의 제품은 여전히 한 시간 단위로 청구됩니다.

Jeff;

이 글은 New – Per-Second Billing for EC2 Instances and EBS Volumes의 한국어 번역입니다.

 

4TB 메모리 기반 x1e.32xlarge EC2 인스턴스 타입 출시

올해 초 최대 16TB의 메모리 기반 EC2 인스턴스를 출시 계획을 전해 드린바 있습니다. 그 일환으로 오늘 4 개의 AWS리전에서 4TB의 DDR4 메모리를 갖춘 새로운 x1e.32xlarge 인스턴스를 출시합니다. 이전 게시물에서 쓴 것처럼 본 인스턴스는 SAP HANA 및 대용량 메모리 집약적인 애플리케이션을 실행하도록 설계되었습니다. 많은 AWS 고객이 이미 기존 x1.32xlarge 인스턴스에서 SAP 애플리케이션을 정식 운영 환경에서 실행하고 있습니다. 이제 훨씬 더 큰 데이터 세트를 저장하고 처리 할 수 있게 되었습니다.

x1.32xlarge와 마찬가지로 x1e.32xlarge는 2.3GHz(128 vCPU)에서 실행되는 쿼드 소켓 Intel Xeon E7 8880 v3 Haswell 프로세서와 L3 캐시, 대량 메모리 대역폭 및 C상태 및 P상태 관리 기능을 지원합니다.

네트워크 측면에서 각 인스턴스는 최대 8개의 Elastic Network Interface (ENI)를 지원하는 Elastic Network Adapter (ENA)를 기반으로 EC2 배치 그룹 내에서 최대 25 Gbps의 네트워크 대역폭을 사용할 수 있습니다. 각 인스턴스는 기본적으로 EBS 최적화되어 있으며 EBS 볼륨에 14Gbps의 전용 대역폭을 추가로 제공하며, 인스턴스 당 최대 80,000 IOPS를 지원합니다. 각 인스턴스에는 1,920GB SSD 볼륨 페어를 포함합니다.

다음은 x1e.32xlarge와 관련하여 염두에 두어야 할 몇 가지 사항입니다.

  • SAP 인증 – x1e.32xlarge 인스턴스는 HANA (SoH)의 SAP Business Suite, HANA의 SAP Business Warehouse (BWoH) 및 차세대 SAP S 프로덕션 HANA 배포를 위해 SAP에서 인증을 지원하는 최대 규모의 클라우드 고유 인스턴스입니다. 4HANA ERP 및 SAP BW / 4HANA 데이터웨어 하우스 솔루션. 더 작은 X1 인스턴스에서 SAP HANA 작업 부하를 이미 실행하고 있다면 확장이 쉽고 빠릅니다. AWS 클라우드 퀵 스타트 레퍼런스에서 SAP HANA가 업데이트되었으며, 고성능 및 안정성을 위해 SAP 및 AWS 표준을 따르는 설정하는 데 도움이됩니다. SAP HANA Hardware DirectorySAP HANA Sizing Guidelines 역시 도움이 되는 자료입니다.
  • 예약 인스턴스 – 예약 인스턴스의 리전 내 사이즈 유연성은 x1 및 x1e에 적용되지 않습니다.

정식 출시
x1e.32xlarge 인스턴스는 미국 동부 (버지니아 북부), 미국 서부 (오레곤), EU (아일랜드) 및 아시아 태평양 지역 (도쿄) 리에서 온-디맨드 및 예약 인스턴스로 시작할 수 있습니다.  X1 인스턴스에 대한 몇 가지 다른 업그레이드에 대해 알려 드리고자합니다.

  • EBS – 현재 출시 된 X1 인스턴스는 EBS에 최대 14 Gbps의 전용 대역폭과 인스턴스 당 80,000 IOPS를 지원합니다.
  • 네트워크 – 이번 주 초 기존 x1.32xlarge 인스턴스에 대해 배치 그룹 내에서 최대 25Gbps의 네트워크 대역폭을 지원을 발표했습니다.

Jeff;

이 글은 Now Available – EC2 Instances with 4 TB of Memory의 한국어 번역입니다.

보안 그룹 규칙(Security Group Rules)에 대한 설명 기능 추가

Amazon EC2의 초창기에 출시 된 기능 중 얼마나 많은 것이 여전히 존재하는지 살펴 보면, AMI, 가용 영역, 키 쌍, 보안 그룹 및 보안 그룹 규칙은 초기에 출시되어 많은 고객이 활용해 왔습니다. 특히, 보안 그룹 및 보안 그룹 규칙을 사용하여 인스턴스로 들어오고 나가는 트래픽을 세부적으로 제어 할 수있는 권한을 부여했습니다.

각 그룹에는 관련 설명(“운영 중 웹 서버용”, “개발 테스트용” 등)은 있지만, 개별 규칙은 없습니다. 대규모 AWS 고객 중 일부는 각 규칙의 의도를 파악하기 위해 외부 추적 시스템을 만들었지만, 오류가 날 수도 있습니다.

보안 그룹 규칙에 대한 설명
많은 고객들의 요청에 따라, 이제 각 보안 그룹 규칙에 설명 텍스트를 추가 할 수 있습니다! 이렇게하면 원하는 작업이 단순 해지고 개발자의 휴먼 오류가 발생할 가능성이 줄어 듭니다. 각 설명은 최대 255 자까지 (영문으로) 가능하며 AWS 관리 콘솔, AWS 명령 행 인터페이스 (CLI) 및 AWS API에서 직접 설정할 수도 있습니다. 새 규칙을 만들 때 설명을 입력하거나 기존 규칙에 대한 설명을 편집 할 수 있습니다.

새 보안 그룹을 만들 때 설명을 입력하는 방법은 다음과 같습니다 (물론, 임의의 IP 주소에서 SSH 접근을 허용하는 것은 좋지 않습니다).

보안 그룹을 선택하고 모든 설명을 검토 할 수 있습니다.

Edit 버튼을 클릭하여 규칙과 설명을 수정할 수도 있습니다.

CLI에서는 신규 설명 추가를 위해 authorize-security-group-ingress, authorize-security-group-egress 명령과, 기존 설명 변경을 위해 update-security-group-rule-descriptions-ingress, 각 규칙 조회를 위해 update-security-group-rule-descriptions-egress, describe-security-groups를 사용할 수 있습니다.

본 기능은 지금 부터 사용 가능하며 모든 상용 AWS 리전에서 사용할 수 있습니다. VPC 보안 그룹 및 EC2 클래식 보안 그룹에서 작동합니다. CloudFormation 지원이 진행 중입니다!

Jeff;

이 글은 New – Descriptions for Security Group Rules의 한국어 번역입니다.

Amazon EC2 Elastic GPU 정식 출시

작년 re:Invent에서 미리 출시 계획을 밝혔던 Amazon EC2 Elastic GPU를 정식 출시합니다. Elastic GPU는 Amazon EC2 (Elastic Compute Cloud) 인스턴스에 GPU 자원을 추가하여 애플리케이션 그래픽 성능을 가속화 할 수 방식입니다. 추가 가능한 GPU는 medium (1GB), large (2GB), xlarge (4GB) 및 2xlarge (8GB) 크기로 제공되며, G3 또는 G2(OpenGL 3.3용)와 같은 전용 GPU 인스턴스 유형을 늘 사용하지 않는 경우 훨씬 저렴한 방법입니다. 여러분의 워크 로드에 맞게 Elastic GPU를 사용하면 애플리케이션에 적합한 컴퓨팅, 메모리 및 스토리지 균형을 유연하게 선택할 수 있습니다. 오늘 부터 미국 동부의 버지니아(us-east-1)와 오하이오(us-east-2) 리전에 정식 출시합니다.

Elastic GPU 중 eg1.medium의 경우 시간당 0.05 달러에서 시작합니다. 이를 t2.medium ($0.065/hour)에 연결하면, GPU 포함 인스턴스에 대해 시간당 총 12센트 미만을 지불합니다. 이전에는 가장 저렴한 그래픽 워크스테이션 (G2/G3 클래스)은 시간당 76 센트였습니다. 특정 그래픽 작업을 실행하기 위한 가격이 80% 이상 감소한 것입니다.

Elastic GPUs 활용 사례
Elastic GPU는 그래픽 가속 및 OpenGL 지원을 위해 작거나 간헐적 인 추가 GPU 자원이 필요한 애플리케이션에 가장 적합합니다. OpenGL 3.3 API 표준을 지원하며, 곧 확장 API 지원이 제공 될 것입니다.

Elasic GPU는 여러분이 만든 인스턴스의 포함되지 않고 대신 인스턴스를 시작할 때 만들어진 서브넷의 GPU 네트워크 인터페이스를 통해 연결합니다. 아래 그림은 GPU가 어떻게 부착되어 있는지 보여줍니다.

Elastic GPU는 네트워크에 연결되어 있으므로 애플리케이션을 지원할 수있는 적절한 네트워크 대역폭을 갖춘 인스턴스를 제공하는 것이 중요합니다. 또한, 인스턴스 보안 그룹이 포트 2007에서 트래픽을 허용하는지 확인하는 것도 중요합니다. OpenGL API를 사용할 수 있는 모든 애플리케이션은 Elastic GPU를 활용할 수 있으므로, Blender, Google Earth, SIEMENS SolidEdge 등이 모두 Elastic GPU로 실행될 수 있습니다.

자, 이제 인스턴스를 직접 실행하고 사용해 보겠습니다.

Elastic GPUs 사용하기
먼저 EC2 콘솔로 이동하여 인스턴스 실행을 클릭합니다. 다음으로 “Microsoft Windows Server 2016 Base”와 같은 Windows AMI를 선택합니다. 그런 다음 인스턴스 유형을 선택합니다. 그런 다음 “Elastic GPU”섹션을 선택하고 eg1.medium (1GB) Elastic GPU를 할당합니다.

또한, 고급 세부 정보 섹션에 일부 사용자 데이터가 포함하기 위해 Elastic GPU 소프트웨어를 다운로드하고 설치하기위한 간단한 PowerShell 스크립트를 작성합니다.

PowerShell

<powershell>
Start-Transcript -Path "C:\egpu_install.log" -Append
(new-object net.webclient).DownloadFile('http://ec2-elasticgpus.s3-website-us-east-1.amazonaws.com/latest', 'C:\egpu.msi')
Start-Process "msiexec.exe" -Wait -ArgumentList "/i C:\egpu.msi /qn /L*v C:\egpu_msi_install.log"
[Environment]::SetEnvironmentVariable("Path", $env:Path + ";C:\Program Files\Amazon\EC2ElasticGPUs\manager\", [EnvironmentVariableTarget]::Machine)
Restart-Computer -Force
</powershell>

위의 코드를 통해  OpenGL API 호출을 첨부 된 Elastic GPU로 이 프로그램을 보냅니다.

그리고, 보안 그룹에 TCP 포트 2007이 VPC에 노출되어 있는지 확인합니다. 그러면 Elastic GPU가 내 인스턴스에 연결할 수 있습니다. 마지막으로 실행을 클릭하고 인스턴스와 Elastic GPU가 제공 될 때까지 기다립니다.  가장 좋은 방법은 GPU 인스턴스에 연결할 수있는 별도의 보안 그룹를 만들어 두는 것입니다.

아래는 전체 진행과정에 대한 스크린캡쳐입니다.

다음과 같이 AWS CLI을  통해 바로 시작할 수도 있습니다

Bash
$aws ec2 run-instances --elastic-gpu-specification Type=eg1.2xlarge \
--image-id ami-1a2b3c4d \
--subnet subnet-11223344 \
--instance-type r4.large \
--security-groups "default" "elasticgpu-sg"

Elastic GPU 소프트웨어 설치 가이드를 따라서 진행하셔도 됩니다.  설치가 완료되면, 윈도 작업 도구 모음에 Elastic GPU가 설치되어 운용되고 있는 모습을 보실 수 있습니다.

위의 화면 처럼 GPU 상태 상자의 왼쪽 하단에있는 Feedback 링크를 클릭하면 Elastic GPU 사용 경험을 제공해 주실 수 있습니다.

Elastic GPU 데모 보기
이제 Elastic GPU를 활용한 데모를 잠깐 살펴 보겠습니다. 대표적인 우주선 발사 시뮬레이션 3D 프로그램인 Kerbal Space Program (KSP)을 다운로드하고 -force-opengl 라는 매개 변수를 추가하여 OpenGL을 사용하여 렌더링을 수행하는지 확인할 수 있습니다.

Amazon CloudWatch 지표 항목을 확인하고, 데모 중에 사용한 GPU 메모리 양을 확인할 수 있습니다.

game.

정식 출시
오늘 부터 미국 동부 버지니아와 오하이오 리전에서 테스트 가능하며, 향후 리전 확장을 지속할 예정입니다. 또한, AWS 고객을 위한 훌륭한 경험을 지속적으로 제공하기 위해 Elastic GPU에서 OpenGL API를 활용하려는 경우, ANSYS 및 Siemens와 같은 3D 소프트웨어 파트너 인증을 하고 있습니다. 더 자세한 정보는 파트너쉽 정보와 Elastic GPU 가격 정보기술 문서 또한 참고하실 수 있습니다.

Randall

이 글은 New – Amazon EC2 Elastic GPUs for Windows 한국어 편집본입니다.

 

차세대 GPU 기반 EC2 인스턴스 (G3) 출시

지난 2013년 처음 G2 인스턴스 타입을 출시했을 때, GPU 기반 컴퓨팅의 이점에 대해 처음 소개했습니다. 출시 이후 AWS 고객들은 G2 인스턴스를 사용하여 모바일 장치, TV 및 데스크톱에 고성능 그래픽 기능을 제공해 오고 있습니다.

오늘 부터 새로운 차세대 G3 인스턴스 타입을 소개합니다. NVIDIA Tesla M60 GPU에 기반하고 있으며, 아래와 같이 세 가지 크기 (모든 VPC 전용 및 EBS 전용)로 제공하게 됩니다.

Model GPUs GPU Memory vCPUs Main Memory EBS Bandwidth
g3.4xlarge 1 8 GiB 16 122 GiB 3.5 Gbps
g3.8xlarge 2 16 GiB 32 244 GiB 7 Gbps
g3.16xlarge 4 32 GiB 64 488 GiB 14 Gbps

각 GPU는 8 GiB의 GPU 메모리, 2048 병렬 처리 코어 및 최대 10 개의 H.265 (HEVC) 1080p30 스트림과 최대 18 개의 H.264 1080p30 스트림을 지원할 수있는 하드웨어 인코더를 지원하므로 3D 렌더링에 매우 적합합니다. 시각화, 가상 현실, 비디오 인코딩, 원격 그래픽 워크 스테이션 (NVIDIA GRID) 및 막대한 양의 병렬 처리 능력을 필요로 하는 서버 측 그래픽 워크로드를 구동할 수 있습니다. GPU는 OpenGL 4.5, DirectX 12.0, CUDA 8.0 및 OpenCL 1.2.를 지원합니다. G3 인스턴스를 시작하면 NVIDIA GRID 가상 워크 스테이션 라이센스에 접근할 수 있으며, 라이센스를 직접 구입하지 않고도 NVIDIA GRID 드라이버를 사용할 수 있습니다.

이 인스턴스는 2.7GHz로 실행되는 Intel Xeon E5-2686 v4 (Broadwell) 프로세서를 사용합니다. 네트워킹 측면에서 강화된 대역폭 (Elastic Network Adapter 사용)을 통해 배치 그룹 내에서 최대 20Gbps의 총 네트워크 대역폭과 함께 최대 14Gbps의 EBS 대역폭을 제공합니다.

이제 AWS 고객들은 대형 3D 지진 모델을 시각화하거나, 3D로 자동차를 구성하며 학생들에게 고급 2D 및 3D 응용 프로그램을 실행할 수 있는 능력을 제공 할 것으로 기대하였습니다. 예를 들어, Calgary Scientific은 언리얼 엔진으로 구동되는 애플리케이션을 가져 와서 협업 지원을 통해 모바일 장치 및 웹 페이지에서 접근할 수 있습니다. 예를 들어, PureWeb RealityDemo Gallery 를 방문해 보세요!

미국 동부 (오하이오), 미국 동부 (버지니아 북부), 미국 서부 (오레곤), 미국 서부 (캘리포니아 북부), AWS GovCloud (미국) 및 EU (아일랜드) 리전에서 온-디멘드로 시작할 수 있습니다. 예약 인스턴스, 스팟 인스턴스 및 전용 호스트가 포함되며 더 많은 리전에서 곧 제공 될 예정입니다.

Jeff;

이 글은 New – Next-Generation GPU-Powered EC2 Instances (G3) 의 한국어 번역입니다.