Amazon EC2 G5 インスタンス

グラフィック集約型アプリケーションや機械学習の推論のための高性能 GPU ベースインスタンス

Amazon EC2 G5 インスタンスは、最新世代の NVIDIA GPU ベースインスタンスで、グラフィック集約型のユースケースや機械学習のユースケースに幅広く使用することができます。 Amazon EC2 G4dn インスタンスと比較して、グラフィックス集約型アプリケーションや機械学習の推論において最大 3 倍のパフォーマンスを、機械学習のトレーニングでは最大 3.3 倍のパフォーマンスを発揮します。

お客様は、リモートワークステーション、ビデオレンダリング、ゲーミングなどのグラフィックス集約型アプリケーションに G5 インスタンスを使用することで、高忠実度のグラフィックスをリアルタイムに作成することができます。G5 インスタンスを使用することで、機械学習のお客様は、自然言語処理、コンピュータビジョン、レコメンダーエンジンのユースケースにおいて、より大規模でより洗練されたモデルをトレーニングし、デプロイするための高性能でコスト効率の高いインフラストラクチャを手に入れることができます。

G5 インスタンスは、最大 8 つの NVIDIA A10G Tensor Core GPU と第 2 世代 AMD EPYC プロセッサを搭載しています。また、最大 192 の vCPU、最大 100 Gbps のネットワーク帯域幅、最大 7.6 TB のローカル NVMe SSD ストレージをサポートします。

新しい Amazon EC2 G5 インスタンス (1:20)

利点

グラフィック集約型アプリケーション向けの高パフォーマンス

G5 インスタンスは、G4dn インスタンスと比較して最大 3 倍のグラフィックスパフォーマンスと最大 40% 優れた料金パフォーマンスを実現します。他の GPU ベースの EC2 インスタンスよりも多くのレイトレーシングコアを備え、GPU あたり 24 GB のメモリ機能があり、NVIDIA RTX テクノロジーをサポートしています。これは、リアルなシーンの高速レンダリング、強力な仮想ワークステーションの実行、グラフィックスの負荷が高いアプリケーションをより忠実にサポートするのに理想的です。

ML 推論における高パフォーマンスとコスト効率

G5 インスタンスは、G4dn インスタンスと比較して、機械学習推論において最大 3 倍のパフォーマンスと最大 40% 優れた料金パフォーマンスを実現します。TensorRT、CUDA、cuDNN などの NVIDIA ライブラリを使用して ML アプリケーションを実行したいお客様にとって、高パフォーマンスでコスト効率の高いソリューションです。

中程度に複雑な ML モデル向けのコスト効率の高いトレーニング

G5 インスタンスは Amazon EC2 P3 インスタンスと比較してトレーニングコストを最大 15% 削減することができます。G4dn インスタンスと比較して、ML トレーニングで最大 3.3 倍のパフォーマンスを発揮します。これで、自然言語処理、コンピュータビジョン、レコメンダーエンジンのユースケースにおいて、中程度の複雑さで単一ノードの機械学習モデルをトレーニングするためのコスト効率の高いソリューションとなります。

リソース効率性の最大化

G5 インスタンスは、専用ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System で構築されます。このシステムは、ホストハードウェアのコンピューティングリソースおよびメモリリソースを実質的にすべてお客様のインスタンスに提供し、全体的なパフォーマンスおよびセキュリティを改善します。G5 インスタンスにより、Nitro システムがパススルーモードで GPU をプロビジョニングし、ベアメタルに匹敵するパフォーマンスを提供します。

特徴

AWS NVIDIA A10G Tensor Core GPU

G5 インスタンスは、クラウドで初めてグラフィックス集約型や機械学習のアプリケーションに高パフォーマンスを提供する NVIDIA A10G Tensor Core GPU を特徴としています。各インスタンスには、80 個のレイトレーシングコアを備えた A10G Tensor Core GPU が最大 8 個、GPU あたり 24 GB のメモリが搭載されています。また、320 個の第 3 世代 NVIDIA Tensor コアを提供し、最大 250 TOPS を実現するので、ML ワークロードでは高いパフォーマンスを発揮します。

NVIDIA ドライバー

G5 インスタンスは、NVIDIA RTX Enterprise およびゲームドライバーを追加コストなしでお客様に提供します。NVIDIA RTX Enterprise ドライバーを使用して、グラフィックスを大量に使用する各種ワークロードに高品質の仮想ワークステーションを提供できます。NVIDIA ゲームドライバーは、ゲーム開発のための比類のないグラフィックスとコンピューティングのサポートを提供します。G5 インスタンスは、CUDA、cuDNN、NVENC、TensorRT、cuBLAS、OpenCL、DirectX 11/12、Vulkan 1.1、OpenGL 4.5 ライブラリもサポートしています。

高パフォーマンスのネットワークとストレージ

G5 インスタンスには、機械学習の推論やグラフィックス集約型アプリケーションの低レイテンシーニーズをサポートできる、最大 100 Gbps のネットワークスループットがあります。GPU あたり 24GB のメモリと、最大 7.6 TB のローカル NVMe SSD ストレージのサポートにより、高パフォーマンスな機械学習のトレーニングや推論用の大規模なモデルやデータセットのローカルストレージを可能にします。また、G5 インスタンスは大容量の動画ファイルをローカルに保存できるため、グラフィックスのパフォーマンスを向上させ、より大きく複雑な動画ファイルをレンダリングすることができます。

AWS Nitro System での構築

G5 インスタンスは AWS Nitro System 上で構築されています。これは構築ブロックを豊富に取り揃えており、従来の仮想化機能の多くを専用のハードウェアとソフトウェアにオフロードして、仮想化のオーバーヘッドを削減しながら、高パフォーマンス、高可用性、および強力なセキュリティを実現します。

製品の詳細

  インスタンスサイズ GPU GPU メモリ (GiB) vCPU メモリ (GiB) ストレージ (GB) ネットワーク帯域幅 (Gbps) EBS 帯域幅 (Gbps) オンデマンド料金/時間* 1 年間の ISP の実質的時間単価 (Linux) 3 年間の ISP の実質的時間単価 (Linux)
単一の GPU VM g5.xlarge 1 24 4 16 1x250 最大 10 最大 3.5 1.006 USD 0.604 USD 0.402 USD
g5.2xlarge 1 24 8 32 1x450 最大 10 最大 3.5 1.212 USD 0.727 USD 0.485 USD
g5.4xlarge 1 24 16 64 1x600 最大 25 8 1.624 USD 0.974 USD 0.650 USD
g5.8xlarge 1 24 32 128 1x900 25 16 2.448 USD 1.469 USD 0.979 USD
g5.16xlarge 1 24 64 256 1x1900 25 16 4.096 USD 2.458 USD 1.638 USD
                       
複数の GPU VM g5.12xlarge 4 96 48 192 1x3800 40 16 5.672 USD 3.403 USD 2.269 USD
g5.24xlarge 4 96 96 384 1x3800 50 19 8.144 USD 4.886 USD 3.258 USD
g5.48xlarge 8 192 192 768 2x3800 100 19 16.288 USD 9.773 USD 6.515 USD

* ここでは、米国東部 (バージニア北部) の AWS リージョンでご利用いただいた場合の料金を示しています。1 年間または 3 年間のリザーブドインスタンスの料金には、「一部前払い」オプション、あるいは一部前払いオプションのないインスタンス用の「前払いなし」オプションがあります。

お客様の声

Athenascope ロゴ

Athenascope は、ゲーマーやコンテンツ制作者がハイライト動画を作成できるようコンピュータビジョンの最先端開発と人工知能を用いてゲームプレイを解析し、最も魅力的なゲームプレイの瞬間を自動的に表示します。

「シームレスな動画体験を作成するために、CV モデルを使用した低レイテンシーな動画解析をすることが、当社にとって基礎となる目標です。Amazon EC2 G5 インスタンスは、G4dn インスタンスを用いた以前のデプロイと比較して、料金とパフォーマンスで 30% の改善を実現します」。

Chris Kirmse 氏、Athenascope、CEO 兼創設者

Netflix

Netflix は世界でも有数のストリーミングエンターテイメントサービスで、190 か国以上で 2 億 1,400 万人を超える有料会員が、幅広いジャンルと言語のテレビシリーズ、ドキュメンタリー、フィーチャー映画を楽しんでいます。 

「クラウドに視聴者向けのアニメーション、ビジュアルエフェクト、ライブアクションのコンテンツ作成ができるスタジオを構築することを優先事項としています。アーティストが必要なときに、必要な場所で、柔軟にワークステーションにアクセスできるようにしたいと思っています。より強力なワークステーションにアクセスしていただくことで、アーティストのイノベーションを支援する方法を常に模索しています」。

Stephen Kowalski、Netflix、デジタルプロダクションインフラストラクチャエンジニアリング担当ディレクター

「新しい Amazon EC2 G5 インスタンスでは、EC2 G4dn インスタンスのワークステーションと比較して最大 3 倍のパフォーマンスを提供する、さらにハイエンドなグラフィックスワークステーションをプロビジョニングすることができます。G5 インスタンスを使用することで、コンテンツ制作者は、視聴者のために、より複雑でリアルなコンテンツを自由に制作することができます」。

Ben Tucker、Netflix、テクニカルリーダー、アニメーションプロダクションシステムエンジニア

Varjo
「ハイエンドの VR/XR アプリケーションにとって、Amazon EC2 G5 インスタンスは画期的です。Varjo の特徴である人間の目のような解像度で、以前に使用していた G4dn インスタンスと比較して 3 倍のフレームレートでプロフェッショナルアプリケーションを実行でき、サーバーからのストリーミング時に、これまでにない体験品質をお客様に提供できます」。 

Varjo の創設者兼最高技術責任者、Urho Konttori 氏

導入事例を読む »

開始方法

AWS Deep Learning AMIs (DLAMI) および AWS Deep Learning Containers (DLC)

AWS Deep Learning AMIs (DLAMI) と AWS Deep Learning Containers (DLC) は、データサイエンティスト、機械学習の実践者、および研究者に、深層学習フレームワークが事前にインストールされたマシンとコンテナイメージを提供し、ソフトウェア環境をゼロから構築および最適化する複雑なプロセスをスキップすることを可能にすることで、簡単に使用を開始できるようにします。Gaudi アクセラレーター向けの SynapseAI SDK は、AWS DL AMI および DLC に統合されているため、DL1 インスタンスの使用を迅速に開始することを可能にします。

Amazon Elastic Kubernetes Service (EKS) または Elastic Container Service (ECS)

コンテナオーケストレーションサービスを介して独自のコンテナ化されたワークロードを管理することをご希望のお客様は、Amazon EKS または ECS を使用して DL1 インスタンスをデプロイできます。

その他のリソース

Demo: Training deep learning models using Amazon EC2 DL1 instances (2:03)
Introducing Amazon EC2 DL1 instances (3:41)
Amazon EC2 DL1 cost-to-train comparison (0:50)
Get started easily with Amazon EC2 DL1 instances (0:49)

Habana® Gaudi® v0.15 ドキュメント

ドキュメントにアクセス »

Habana® デベロッパーフォーラム

フォーラムにアクセス »

Habana® GitHub リポジトリ

GitHub にアクセスする »

リソース

データシート

NVIDIA A10G tensor core GPU: AWS クラウド向けの高速コンピューティングとグラフィックス

AWS の開始方法

AWS アカウントにサインアップする

AWS アカウントにサインアップする

AWS 無料利用枠をすぐに利用できます。

簡単なチュートリアルで学ぶ

10 分間のチュートリアルで学ぶ

簡単なチュートリアルで学びましょう。

コンソールの EC2 で構築を開始する

コンソールで構築を開始する

お客様の AWS でのプロジェクトを開始するのに役立つステップバイステップガイドを使って構築を開始しましょう。