投稿日: Apr 4, 2024
本日、NVIDIA L4 Tensor Core GPU を搭載した Amazon EC2 G6 インスタンスの一般提供開始を発表します。G6 インスタンスは、グラフィックス集約型のユースケースや機械学習のユースケースに幅広く使用できます。Amazon EC2 G4dn インスタンスと比較して、G6 インスタンスでは深層学習推論とグラフィックワークロードのパフォーマンスが最大 2 倍向上します。
お客様は G6 インスタンスを使用して、自然言語処理、言語翻訳、動画と画像の分析、音声認識、パーソナライゼーションのほか、グラフィックワークロード (リアルタイムの映画品質のグラフィックやゲームストリーミングの作成・レンダリングなど) 用の ML モデルをデプロイできます。G6 インスタンスには、GPU あたり 24 GB のメモリを備えた最大 8 つの NVIDIA L4 Tensor Core GPU と、第 3 世代 AMD EPYC プロセッサが搭載されています。また、最大 192 の vCPU、最大 100 Gbps のネットワーク帯域幅、最大 7.52 TB のローカル NVMe SSD ストレージをサポートしています。
Amazon EC2 G6 インスタンスは、米国東部 (バージニア北部、オハイオ) および米国西部 (オレゴン) の AWS リージョンで本日よりご利用いただけます。G6 インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部としてご購入いただけます。
使用を開始するには、AWS マネジメントコンソール、AWS コマンドラインインターフェイス (CLI)、および AWS SDK にアクセスしてください。詳細については、G6 インスタンスのページをご覧ください。