Amazon EC2 G6e インスタンスの一般提供を発表
本日、NVIDIA L40S Tensor Core GPU を搭載した Amazon EC2 G6e インスタンスの一般提供開始を発表します。G6e インスタンスは、機械学習と空間コンピューティングの幅広いユースケースに使用できます。G6e インスタンスは、G5 インスタンスと比較して最大 2.5 倍のパフォーマンスを実現し、P4d インスタンスよりも推論コストを最大 20% 削減します。
G6e インスタンスを使用して、最大 13B のパラメータを持つ大規模言語モデル (LLM) と、画像、動画、音声を生成するための拡散モデルをデプロイできます。さらに、G6e インスタンスにより、お客様は空間コンピューティングワークロード向けに、より大規模で没入感のある 3D シミュレーションやデジタルツインを作成できるようになります。G6e インスタンスには、384 GB の GPU メモリ (GPU あたり 48 GB) を備えた最大 8 つの NVIDIA L40S Tensor Core GPU と、第 3 世代 AMD EPYC プロセッサが搭載されています。また、最大 192 の vCPU、最大 400 Gbps のネットワーク帯域幅、最大 1.536 TB のシステムメモリ、7.6 TB のローカル NVMe SSD ストレージをサポートしています。デベロッパーは、AWS 深層学習 AMI、AWS 深層学習コンテナ、または Amazon Elastic Kubernetes Service (Amazon EKS) や AWS Batch などのマネージドサービスを使用して G6e インスタンスで AI 推論ワークロードを実行できます。Amazon SageMaker のサポートは間もなく開始されます。
Amazon EC2 G6e インスタンスは、米国東部 (バージニア北部、オハイオ) および米国西部 (オレゴン) の AWS リージョンで本日よりご利用いただけます。G6e インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部としてご購入いただけます。
使用を開始するには、AWS マネジメントコンソール、AWS コマンドラインインターフェイス (CLI)、および AWS SDK にアクセスしてください。詳細については、G6e インスタンスのページをご覧ください。