投稿日: Sep 20, 2019
本日、次世代の GPU を使用したインスタンスファミリーである、Amazon EC2 G4 GPU インスタンスの一般提供が開始されたことをお知らせします。
Amazon EC2 G4 インスタンスは、業界内で最も費用対効果の高い GPU プラットフォームで、機械学習モデルの本番環境へのデプロイやグラフィックスを多用するアプリケーションに適しています。G4 インスタンスでは、最新世代の NVIDIA T4 Tensor Core GPU、AWS 独自の第 2 世代 Intel® Xeon® スケーラブル (Cascade Lake) プロセッサ、最大 50 Gbps のネットワークスループット、最大 900 GB のローカル NVMe ストレージが提供されます。間もなく利用可能になる G4 のベアメタルインスタンスでは、100 Gbps のネットワークスループットや 1.8 TB のローカル NVMe ストレージが提供されます。
EC2 G4 インスタンスは、GPU の低レベルのソフトウェアライブラリにアクセスする必要がある、画像分類、オブジェクト検出、推奨エンジン、自動音声認識、言語翻訳といった機械学習アプリケーションのデプロイに向けて最適化されています。これらのインスタンスはまた、グラフィックスワークステーションへのリモートアクセス、動画変換、クラウド上のゲームストリーミングといったグラフィックスを多用するアプリケーションに対する費用対効果の高いソリューションです。EC2 G4 インスタンスにはさまざまなインスタンスサイズがあり、アクセスする GPU の数 (1 つまたは複数) や、vCPU の数およびメモリの容量が異なるため、ご自分のアプリケーションに適したインスタンスサイズを柔軟に選択できます。
G4 インスタンスは次の AWS リージョンにおいて、オンデマンド、リザーブド、スポットの各インスタンスで利用可能です。米国東部 (バージニア北部、オハイオ)、米国西部 (オレゴン、北カリフォルニア)、欧州 (フランクフルト、アイルランド、ロンドン)、アジアパシフィック (ソウル、東京)。Amazon SageMaker では、G4 インスタンスにもアクセスできます。G4 インスタンスの詳細については G4 のページを参照してください。