投稿日: Nov 21, 2019
生産およびグラフィックス集約型アプリケーションで機械学習モデルをデプロイするための業界で最も費用対効果の高い GPU プラットフォームを提供する Amazon EC2 G4 インスタンスは、アジアパシフィック (香港) および中東 (バーレーン) の AWS リージョンで利用可能で、利用可能なリージョンの総数は 19 になりました。
G4 インスタンスでは、最新世代の NVIDIA T4 Tensor Core GPU、AWS 独自の第 2 世代 Intel® Xeon® スケーラブル (Cascade Lake) プロセッサ、最大 50 Gbps のネットワークスループット、最大 900 GB のローカル NVMe ストレージが提供されます。間もなく利用可能になる G4 のベアメタルインスタンスでは、100 Gbps のネットワークスループットや 1.8 TB のローカル NVMe ストレージが提供されます。
EC2 G4 インスタンスは、画像分類、オブジェクト検出、推奨エンジン、自動音声認識、言語翻訳などの機械学習アプリケーションのデプロイに向けて最適化されています。これらのインスタンスはまた、グラフィックスワークステーションへのリモートアクセス、動画変換、クラウド上のゲームストリーミングといったグラフィックスを多用するアプリケーションに対する費用対効果の高いソリューションです。EC2 G4 インスタンスにはさまざまなインスタンスサイズがあり、アクセスする GPU の数 (1 つまたは複数) や、vCPU の数およびメモリの容量が異なるため、ご自分のアプリケーションに適したインスタンスサイズを柔軟に選択できます。
AWS マネジメントコンソール、AWS コマンドラインインターフェース (CLI)、または AWS SDK を使用して、すぐに Amazon EC2 G4 インスタンスを開始しましょう。G4 インスタンスの詳細については、G4 ページを参照してください。