Amazon Web Services ブログ

新しい C5 インスタンスのサイズとベアメタル インスタンスがいますぐ使用可能

Amazon EC2 C5 インスタンスは、バッチ処理、分散型アナリティクス、ハイパフォーマンスのコンピューティング、機械 / 深層学習推論、ad サーブ、高度にスケーラブルなマルチプレイヤーゲーミング、ビデオエンコーディングなどのような計算負荷の高いワークロードに対して非常に一般的です。

今日、次の特徴をもつ Amazon EC2 C5 ファミリを拡張できることをうれしく思います。

  • 新しいより大きな仮想インスタンスサイズ; 12xlarge と 24xlarge、
  • ベアメタルオプション。

新しい C5 インスタンスサイズは、持続的な全コアターボ周波数 3.6 GHz、最大シングルコアターボ周波数 3.9 GHzの Intel の第二世代 Xeron スケーラブルプロセッサ (コード名 Cascade Lake) で実行されます。

新しいプロセッサはまた、 AVX-512 インストラクションセットに基づいた Intel Deep Learning Boost と呼ばれる新機能も備えています。新しいベクトルニューラルネットワークのインストラクション (AVX-512 VNNI) のおかげで、深層学習フレームワークは、畳み込みなどの代表的な機械学習操作をスピードアップし、自動的に広域ワークロードでの推論性能を改善します。

これらのインスタンスはまた、AWS Nitro System を基礎としており、EBS 処理 (暗号化操作を含む) の専用ハードウェアアクセラレーター、各 Virtual Private Cloud (VPC) 内にあるソフトウェア定義ネットワーク、ENA ネットワーキングを備えています。

新しい C5 インスタンスサイズ: 12xlarge と 24xlarge

以前利用できた最大の C5 インスタンスは C5.18xlarge で、72 の論理プロセッサと 144 GIB のメモリーを備えていました。ご覧の通り、新しい 24xlarge サイズは使用可能なリソースを 33% 増やし、集中的なタスクを計算するために必要なスケールを大きくし、時間を短縮しています。

インスタンス名 論理プロセッサ メモリ EBS最適化帯域幅 ネットワーク帯域幅
c5.12xlarge 48 96 GiB 7 Gbps 12 Gbps
c5.24xlarge 96 192 GiB 14 Gbps 25 Gbps

ベアメタル C5

既存のベアメタルのインスタンス (M5、M5d、R5、R5d、z1d など) と同様に、お使いのオペレーティングシステムは、プロセッサに直接アクセスする既存のハードウェアで直接実行されます。

以前のブログ投稿で説明されているとおり、次のようなアプリケーションにベアメタルのインスタンスを利用することができます。

  • ネストされた仮想化の性能に影響させたくない
  • 物理的なリソースと低レベルなハードウェア機能にアクセスが必要。仮想化された環境で使用可能または完全なサポートを常に必要としないパフォーマンスカウンターや Intel VT など。
  • ハードウェアで直接実行されることを目的とするか、仮想化されていない環境で使用するためにライセンスまたはサポートされている

ベアメタルインスタンスでは、Elastic Load BalancingAuto ScalingAmazon CloudWatch、および AWS のその他サービスを利用することもできます。

インスタンス名 論理プロセッサ メモリ EBS最適化帯域幅 ネットワーク帯域幅
c5.metal 96 192 GiB 14 Gbps 25 Gbps

今すぐ利用可能!

これらの新しいインスタンスを今すぐ、次のリージョンで使用し始めることができます。米国東部 (バージニア北部)米国西部 (オレゴン)欧州 (アイルランド)欧州 (ロンドン), 欧州 (フランクフルト), 欧州 (ストックホルム)欧州 (パリ)アジア太平洋 (シンガポール)アジア太平洋 (シドニー)、および AWS GovCloud (米国西部)

フィードバックをお送りいただき、次世代のコンピューティングで最適化されたインスタンスの構築に活かさせていただければ幸いです。

Julien