メインコンテンツに移動

Amazon EC2

Amazon EC2 G5 インスタンス

グラフィック集約型アプリケーションや機械学習の推論のための高性能 GPU ベースインスタンス

Amazon EC2 G5 インスタンスを使用すべき理由

Amazon EC2 G5 インスタンスは、最新世代の NVIDIA GPU ベースインスタンスで、グラフィック集約型のユースケースや機械学習のユースケースに幅広く使用することができます。 Amazon EC2 G4dn インスタンスと比較して、グラフィックス集約型アプリケーションや機械学習の推論において最大 3 倍のパフォーマンスを、機械学習のトレーニングでは最大 3.3 倍のパフォーマンスを発揮します。

お客様は、リモートワークステーション、ビデオレンダリング、ゲーミングなどのグラフィックス集約型アプリケーションに G5 インスタンスを使用することで、高忠実度のグラフィックスをリアルタイムに作成することができます。G5 インスタンスを使用することで、機械学習のお客様は、自然言語処理、コンピュータビジョン、レコメンダーエンジンのユースケースにおいて、より大規模でより洗練されたモデルをトレーニングし、デプロイするための高性能でコスト効率の高いインフラストラクチャを手に入れることができます。

G5 インスタンスには、最大 8 つの NVIDIA プロセッサと第 2 世代 AMD EPYC プロセッサが搭載されています。また、最大 192 の vCPU、最大 100 Gbps のネットワーク帯域幅、最大 7.6 TB のローカル NVMe SSD ストレージをサポートしています。

メリット

G5 インスタンスは、G4dn インスタンスと比較して最大 3 倍のグラフィックスパフォーマンスと最大 40% 優れた料金パフォーマンスを実現します。他の GPU ベースの EC2 インスタンスよりも多くのレイトレーシングコアを備え、GPU あたり 24 GB のメモリ機能があり、NVIDIA RTX テクノロジーをサポートしています。これは、リアルなシーンの高速レンダリング、強力な仮想ワークステーションの実行、グラフィックスの負荷が高いアプリケーションをより忠実にサポートするのに理想的です。

G5 インスタンスは、G4dn インスタンスと比較して、機械学習推論において最大 3 倍のパフォーマンスと最大 40% 優れた料金パフォーマンスを実現します。TensorRT、CUDA、cuDNN などの NVIDIA ライブラリを使用して ML アプリケーションを実行したいお客様にとって、高パフォーマンスでコスト効率の高いソリューションです。

G5 インスタンスは Amazon EC2 P3 インスタンスと比較してトレーニングコストを最大 15% 削減することができます。G4dn インスタンスと比較して、ML トレーニングで最大 3.3 倍のパフォーマンスを発揮します。これで、自然言語処理、コンピュータビジョン、レコメンダーエンジンのユースケースにおいて、中程度の複雑さで単一ノードの機械学習モデルをトレーニングするためのコスト効率の高いソリューションとなります。

G5 インスタンスは、専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で構築されます。このシステムは、ホストハードウェアのコンピューティングリソースおよびメモリリソースを実質的にすべてお客様のインスタンスに提供し、全体的なパフォーマンスおよびセキュリティを改善します。G5 インスタンスにより、Nitro システムがパススルーモードで GPU をプロビジョニングし、ベアメタルに匹敵するパフォーマンスを提供します。

特徴

G5 インスタンスは、クラウドで初めてグラフィックス集約型や機械学習のアプリケーションに高パフォーマンスを提供する NVIDIA A10G Tensor Core GPU を特徴としています。各インスタンスには、80 個のレイトレーシングコアを備えた A10G Tensor Core GPU が最大 8 個、GPU あたり 24 GB のメモリが搭載されています。また、320 個の第 3 世代 NVIDIA Tensor コアを提供し、最大 250 TOPS を実現するので、ML ワークロードでは高いパフォーマンスを発揮します。

G5 インスタンスは、NVIDIA RTX Enterprise およびゲームドライバーを追加コストなしでお客様に提供します。NVIDIA RTX Enterprise ドライバーを使用して、グラフィックスを大量に使用する各種ワークロードに高品質の仮想ワークステーションを提供できます。NVIDIA ゲームドライバーは、ゲーム開発のための比類のないグラフィックスとコンピューティングのサポートを提供します。G5 インスタンスは、CUDA、cuDNN、NVENC、TensorRT、cuBLAS、OpenCL、DirectX 11/12、Vulkan 1.1、OpenGL 4.5 ライブラリもサポートしています。

G5 インスタンスには、機械学習の推論やグラフィックス集約型アプリケーションの低レイテンシーニーズをサポートできる、最大 100 Gbps のネットワークスループットがあります。GPU あたり 24GB のメモリと、最大 7.6 TB のローカル NVMe SSD ストレージのサポートにより、高パフォーマンスな機械学習のトレーニングや推論用の大規模なモデルやデータセットのローカルストレージを可能にします。また、G5 インスタンスは大容量の動画ファイルをローカルに保存できるため、グラフィックスのパフォーマンスを向上させ、より大きく複雑な動画ファイルをレンダリングすることができます。

G5 インスタンスは AWS Nitro System 上で構築されています。これは構築ブロックを豊富に取り揃えており、従来の仮想化機能の多くを専用のハードウェアとソフトウェアにオフロードして、仮想化のオーバーヘッドを削減しながら、高パフォーマンス、高可用性、および強力なセキュリティを実現します。

製品の詳細

Instance Size
GPU
GPU Memory (GiB)
vCPUs
Memory (GiB)
Storage (GB)
Network Bandwidth (Gbps)
EBS Bandwidth (Gbps)
単一の GPU VM

g5.xlarge

g5.2xlarge

g5.4xlarge

g5.8xlarge

g5.16xlarge

1

1

1

1

1

24

24

24

24

24

4

8

16

32

64

16

32

64

128

256

1x250

1x450

1x600

1x900

1x1900

最大 10

最大 10

最大 25

25

25

最大 3.5

最大 3.5

8

16

16

複数の GPU VM

g5.12xlarge

g5.24xlarge

g5.48xlarge

4

4

8

96

96

192

48

96

192

192

384

768

1x3800

1x3800

2x3800

40

50

100

16

19

19

アテナスコープ

Athenascope は、ゲーマーやコンテンツ制作者がハイライト動画を作成できるようコンピュータビジョンの最先端開発と人工知能を用いてゲームプレイを解析し、最も魅力的なゲームプレイの瞬間を自動的に表示します。 

「シームレスな動画体験を実現するには、CVモデルを使用して低遅延の動画分析を行うことが私たちの基本的な目標です。Amazon EC2 G5 インスタンスでは、以前の G4dn インスタンスを使用したデプロイに比べて、価格/パフォーマンスが 30% 向上しています。」

Chris Kirmse 氏、Athenascope、CEO 兼創設者

Missing alt text value

Netflix

Netflix は世界でも有数のストリーミングエンターテイメントサービスで、190 か国以上で 2 億 1,400 万人を超える有料会員が、幅広いジャンルと言語のテレビシリーズ、ドキュメンタリー、フィーチャー映画を楽しんでいます。  

「新しい Amazon EC2 G5 インスタンスでは、EC2 G4dn インスタンスを備えたワークステーションと比較して最大 3 倍高いパフォーマンスを提供するハイエンドのグラフィックワークステーションをプロビジョニングできます。G5 インスタンスを使用すると、コンテンツクリエーターはより複雑でリアルなコンテンツを視聴者向けに自由に作成できます。」

Netflix、Animation Production Systems Engineering、Technical Lead、Ben Tucker 氏

Missing alt text value

Varjo

「ハイエンドの VR/XR アプリケーションにとって、Amazon EC2 G5 インスタンスはゲームチェンジャーです。これまで使用していたG4dNインスタンスの3倍のフレームレートで、Varjo独自の人間の目の解像度でプロフェッショナルアプリケーションを実行できるため、サーバーからストリーミングする際に、これまでにない体験品質をお客様に提供できます。「」

Varjo、創業者兼 Chief Technology Officer、Urho Konttori 氏

Missing alt text value

G5 インスタンスの開始方法

DLAMI は、その規模を問わず、クラウドで DL を加速するためのインフラストラクチャとツールを ML の実践者と研究者に提供します。 Deep Learning Containers は、深層学習フレームワークがプリインストールされた Docker イメージであり、環境の構築と最適化をゼロから行う複雑なプロセスをスキップして、カスタム ML 環境のデプロイを合理化します。

コンテナオーケストレーションサービスを通じて独自のコンテナ化されたワークロードを管理したい場合は、Amazon EKS または Amazon ECS を利用して G5 インスタンスをデプロイできます。

NVIDIA のドライバーがインストールされた、AWS および NVIDIA が提供するさまざまな Amazon マシンイメージ (AMI) を使用できます。

ML モデルの構築、トレーニング、デプロイ用のフルマネージド型サービスである Amazon SageMaker を使用して、ML モデルを G5 インスタンスにデプロイできます。