ストックホルムリージョンで Amazon EC2 G6e インスタンスの提供を開始

投稿日: 2025年2月20日

本日より、NVIDIA L40S Tensor Core GPU を搭載した Amazon EC2 G6e インスタンスが欧州 (ストックホルム) リージョンでご利用いただけるようになりました。G6e インスタンスは、機械学習と空間コンピューティングの幅広いユースケースに使用できます。

G6e インスタンスを使用して、最大 13B のパラメータを持つ大規模言語モデル (LLM) と、画像、動画、音声を生成するための拡散モデルをデプロイできます。さらに、G6e インスタンスにより、お客様は空間コンピューティングワークロード向けに、より大規模で没入感のある 3D シミュレーションやデジタルツインを作成できるようになります。G6e インスタンスには、GPU あたり 48 GB のメモリを備えた最大 8 つの NVIDIA L40S Tensor Core GPU と、第 3 世代 AMD EPYC プロセッサが搭載されています。また、最大 192 の vCPU、最大 400 Gbps のネットワーク帯域幅、最大 1.536 TB のシステムメモリ、最大 7.6 TB のローカル NVMe SSD ストレージをサポートしています。デベロッパーは、AWS 深層学習 AMI、AWS 深層学習コンテナ、または Amazon Elastic Kubernetes Service (Amazon EKS)、AWS Batch および Amazon SageMaker などのマネージドサービスを使用して G6e インスタンスで AI 推論ワークロードを実行できます。

Amazon EC2 G6e インスタンスは、現在、AWS 米国東部 (バージニア北部、オハイオ)、米国西部 (オレゴン)、アジアパシフィック (東京)、欧州 (フランクフルト、スペイン、ストックホルム) リージョンでご利用いただけます。G6e インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部としてご購入いただけます。

使用を開始するには、AWS マネジメントコンソールAWS コマンドラインインターフェイス (CLI)、および AWS SDK にアクセスしてください。詳細については、G6e インスタンスのページをご覧ください。