Amazon Web Services ブログ

より高いパケット処理パフォーマンスを備えた、Amazon EC2 の汎用、コンピューティング最適化、およびメモリ最適化インスタンスが新たに登場

次世代の Intel 搭載の汎用インスタンス、コンピューティング最適化インスタンス、およびメモリ最適化インスタンスについてご紹介したいと思います。これら 3 つのインスタンスファミリーはすべて、3.5 GHz で動作する第 3 世代インテル Xeon スケーラブルプロセッサ (Ice Lake) を搭載しており、最大 200 Gbps のネットワーク帯域幅、EC2 で最高の EBS パフォーマンス (最大 80 Gbps の帯域幅と最大 350,000 IOPS)、および以前のインスタンスと比べて最大 2 倍のパケット毎秒 (PPS) 処理能力により、データ集約型のワークロードをサポートするように設計されています。

新しい汎用 (M6in/M6idn) インスタンス
オリジナルの汎用 EC2 インスタンス (m1.small) は 2006 年にリリースされ2007 年後半に m1.largem1.xlarge がリリースされるまで、1 年余りの間、唯一のインスタンスタイプでした。その後、2012 年m32015 年m4、続いて 2017 年に始まる m5 インスタンスシリーズの最初のインスタンスを追加しました。2018 年には、ローカルの NVMe ストレージを備えた m5d インスタンスが追加され、ファミリーが枝分かれしました。

こうした経緯を経て、今日、新しいインスタンス m6inm6idn を発表するに至りました。どちらも、次の 9 つのサイズで利用可能です。

名前 vCPU メモリ ローカルストレージ
(m6idn のみ)
ネットワーク帯域幅 EBS 帯域幅 EBS IOPS
m6in.large
m6idn.large
2 8 GiB 118 GB 最大 25 Gbps 最大 20 Gbps 最大 87,500
m6in.xlarge
m6idn.xlarge
4 16 GiB 237 GB 最大 30 Gbps 最大 20 Gbps 最大 87,500
m6in.2xlarge
m6idn.2xlarge
8 32 GiB 474 GB 最大 40 Gbps 最大 20 Gbps 最大 87,500
m6in.4xlarge
m6idn.4xlarge
16 64 GiB 950 GB 最大 50 Gbps 最大 20 Gbps 最大 87,500
m6in.8xlarge
m6idn.8xlarge
32 128 GiB 1,900 GB 50 Gbps 20 Gbps 87,500
m6in.12xlarge
m6idn.12xlarge
48 192 GiB 2,950 GB
(2 x 1,425)
75 Gbps 30 Gbps 131,250
m6in.16xlarge
m6idn.16xlarge
64 256 GiB 3,800 GB
(2 x 1,900)
100 Gbps 40 Gbps 175,000
m6in.24xlarge
m6idn.24xlarge
96 384 GiB 5,700 GB
(4 x 1,425)
150 Gbps 60 Gbps 262,500
m6in.32xlarge
m6idn.32xlarge
128 512 GiB 7,600 GB
(4 x 1,900)
200 Gbps 80 Gbps 350,000

m6in および m6idn インスタンスは、米国東部 (オハイオ、バージニア北部) および欧州 (アイルランド) リージョンで、オンデマンドとスポットでご利用いただけます。Savings Plans およびリザーブドインスタンスを適用できます。

新しい C6in インスタンス
2008 年に、Amazon Elastic Compute Cloud (Amazon EC2) インスタンスシリーズの中でも、高いコンピューティングパフォーマンスを提供し、メモリに対する CPU 処理能力の比率が汎用インスタンスよりも高くなるように設計された最初のインスタンスがリリースされました。これらの最初の c1 インスタンスを皮切りに、2010 年 (cc1)、2011 年 (cc2) と、クラスターコンピューティングインスタンスをリリースし、その後 (名前を決めてから)、インテルのプロセッサを搭載した複数世代のコンピューティング最適化インスタンス (c3 (2013 年)、c4 (2015 年)、c5 (2016 年)) をリリースしました。ネットワークのパフォーマンスが制限要因になり始めていた環境の中で、お客様がこれらのインスタンスを使用するようになったため、2018 年に 100 Gbps のネットワークを備えた c5n インスタンスを導入しました。また、追加のサイズ (ベアメタルを含む) と、超高速のローカル NVMe ストレージを備えたインスタンスを追加して、c5 インスタンスのラインアップを拡大しました。

11 月 28 日、Intel 搭載のコンピューティング最適化インスタンスの最新ラインアップである c6in を発表いたしました。こちらは、次の 9 つのサイズで利用可能です。

名前 vCPU メモリ
ネットワーク帯域幅 EBS 帯域幅
EBS IOPS
c6in.large 2 4 GiB 最大 25 Gbps 最大 20 Gbps 最大 87,500
c6in.xlarge 4 8 GiB 最大 30 Gbps 最大 20 Gbps 最大 87,500
c6in.2xlarge 8 16 GiB 最大 40 Gbps 最大 20 Gbps 最大 87,500
c6in.4xlarge 16 32 GiB 最大 50 Gbps 最大 20 Gbps 最大 87,500
c6in.8xlarge 32 64 GiB 50 Gbps 20 Gbps 87,500
c6in.12xlarge 48 96 GiB 75 Gbps 30 Gbps 131,250
c6in.16xlarge 64 128 GiB 100 Gbps 40 Gbps 175,000
c6in.24xlarge 96 192 GiB 150 Gbps 60 Gbps 262,500
c6in.32xlarge 128 256 GiB 200 Gbps 80 Gbps 350,000

c6in インスタンスは、米国東部 (オハイオ、バージニア北部)、米国西部 (オレゴン)、および欧州 (アイルランド) の各リージョンでご利用いただけます。

先に述べたように、これらのインスタンスは、以前のインスタンスと比べて最大 2 倍のパケット毎秒 (PPS) を処理できるように設計されています。これにより、小サイズのネットワークパケットを大量に処理する必要がある状況でパフォーマンスを向上させることができ、その結果、ネットワーク仮想アプライアンス (ファイアウォール、仮想ルーター、ロードバランサー、および DDoS 攻撃を検出して防御するアプライアンス)、電気通信 (ボイスオーバー IP (VoIP) および 5 G通信)、ビルドサーバー、キャッシュ、インメモリデータベース、ゲームホストなど、多くのアプリケーションやユースケースを高速化できます。より多くのネットワーク帯域幅と PPS オンタップを利用できるようになれば、Amazon Simple Storage Service (Amazon S3) またはデータレイクから大量のデータやオブジェクトを取得して保存する高負荷の分析アプリケーションにメリットが生まれます。低レイテンシーのローカルストレージの利点を活用できるワークロードの場合、新しいインスタンスのディスクバージョンで、前世代の 2 倍のインスタンスストレージが提供されます。

新しいメモリ最適化 (R6in/R6idn) インスタンス
最初のメモリ最適化インスタンスは 2009 年にリリースされた m2 で、「Double Extra Large」と「Quadruple Extra Large」という、今となっては古風な名前が付けられましたが、CPU 処理能力に対するメモリの比率が以前の m1 インスタンスよりも高くなっていました。2013 年に High Memory Cluster Eight Extra Large (別名 cr1.8xlarge) をリリースした後、ようやくネーミングの教訓を学んだことで r プレフィックスに落ち着き、2013 年r3 インスタンス、続いて 2014 年r4 インスタンス、2018 年r5 インスタンスをリリースしました。

m6in と m6idn と同様に、こうした経緯を経て、今日、新しいインスタンス r6inr6idn を発表するに至りました。どちらも、次の 9 つのサイズで利用可能です。

名前 vCPU メモリ ローカルストレージ
(r6idn のみ)
ネットワーク帯域幅 EBS 帯域幅 EBS IOPS
r6in.large
r6idn.large
2 16 GiB 118 GB 最大 25 Gbps 最大 20 Gbps 最大 87,500
r6in.xlarge
r6idn.xlarge
4 32 GiB 237 GB 最大 30 Gbps 最大 20 Gbps 最大 87,500
r6in.2xlarge
r6idn.2xlarge
8 64 GiB 474 GB 最大 40 Gbps 最大 20 Gbps 最大 87,500
r6in.4xlarge
r6idn.4xlarge
16 128 GiB 950 GB 最大 50 Gbps 最大 20 Gbps 最大 87,500
r6in.8xlarge
r6idn.8xlarge
32 256 GiB 1,900 GB 50 Gbps 20 Gbps 87,500
r6in.12xlarge
r6idn.12xlarge
48 384 GiB 2,950 GB
(2 x 1,425)
75 Gbps 30 Gbps 131,250
r6in.16xlarge
r6idn.16xlarge
64 512 GiB 3,800 GB
(2 x 1,900)
100 Gbps 40 Gbps 175,000
r6in.24xlarge
r6idn.24xlarge
96 768 GiB 5,700 GB
(4 x 1,425)
150 Gbps 60 Gbps 262,500
r6in.32xlarge
r6idn.32xlarge
128 1,024 GiB 7,600 GB
(4 x 1,900)
200 Gbps 80 Gbps 350,000

r6in および r6idn インスタンスは、米国東部 (オハイオ、バージニア北部)、米国西部 (オレゴン)、および欧州 (アイルランド) の各リージョンで、オンデマンドとスポットでご利用いただけます。Savings Plans およびリザーブドインスタンスを適用できます。

インスタンス内部
これらの仕様や、c6in インスタンスのリリース時に私が書いたブログ記事から推測できるように、これらの新しいインスタンスタイプすべてには、多くの共通点があります。利用できるその他の便利な機能すべてについて、その記事からカットアンドペーストして (普段はしません)、次でもう一度ご紹介します。

Ice Lake プロセッサ – 第 3 世代インテル Xeon スケーラブルプロセッサは 3.5 GHzで動作し、前世代に比べて平均 1.46 倍 (インテル調べ) のパフォーマンス向上を実現しています。全コアのインテルターボブーストモードは、12xlarge までのすべてのインスタンスサイズで有効になっています。より大きいサイズでは、C ステートの制御が可能です。Intel Total Memory Encryption (TME) が有効化され、プロセッサ内で起動時に生成される単一の一時的な 128 ビットキーでインスタンスメモリを保護します。

NUMA – Non-Uniform Memory Access の略で、この重要なアーキテクチャ機能により、ワークロードを最適化できます。このアーキテクチャでは、メモリの特定ブロックに対するほとんどのリクエストは 1 つのプロセッサからアクセスされ、ブロックはプロセッサにより近くなるように設計されています。24xlarge および 32xlarge インスタンスでは、プロセッサアフィニティの制御 (および NUMA の利用) が可能です 。

ネットワークElastic Network Adapter (ENA) は m6inm6idnc6inr6in、および r6idn インスタンスのすべてのサイズで使用でき、Elastic Fabric Adapter (EFA) は 32xlarge インスタンスで使用できます。これらのアダプタを利用するには、AMI に最新の NVMe および ENA ドライバーが含まれていることを確認する必要があります。クラスタープレイスメントグループを利用することもできます。

io2 Block Express – これらのインスタンスでは、今年初めにリリースした io2 Block Express ボリュームを含め、あらゆるタイプの EBS ボリュームを使用できます。Channy 氏の記事 (「Amazon EC2 R5b インスタンスを使用した Amazon EBS io2 Block Express ボリュームが一般的に利用可能に」) にあるように、これらのボリュームは 64 TiB にもなり、最大 256,000 IOPS を実現できます。上の表からわかるように、24xlarge または 32xlarge インスタンスを使用すると、このレベルのパフォーマンスを実現できます。

適切なインスタンスを選択する
リリース以前は、EC2 インスタンスで最大のネットワーク帯域幅を実現する場合に c5nm5n、または r5n インスタンスを選択したり、最高の EBS IOPS パフォーマンスと広い EBS 帯域幅にアクセスする場合に r5b インスタンスを選択したりできました。現在、高いネットワークおよび EBS パフォーマンスを必要とするお客様は、c6inm6inm6idnr6in、または r6idn インスタンスのいずれかを選択することにより、さまざまなメモリ対 vCPU 比と利用可能なインスタンスストレージオプションを備えたインスタンスのフルポートフォリオから選択できるようになりました。

c6in インスタンスのパフォーマンスがより高くなったことで、ネットワーク仮想アプライアンス、キャッシュサーバー、ゲームホストなど、低メモリを必要とするネットワーク負荷の大きいワークロードを vCPU にスケーリングできるようになります。

m6in インスタンスのパフォーマンスがより高くなったことで、データ分析や 5G ユーザープレーン機能 (UPF) などの通信事業者向けアプリケーションなど、ネットワークおよび/または EBS を多用するワークロードをスケーリングできるようになります。高性能ファイルシステムや分散型ウェブスケールインメモリキャッシュなど、低レイテンシーのローカルストレージの利点を活用できるワークロードでは、m6idn インスタンスを使用するオプションもあります。

同様に、r6in インスタンスのネットワークおよび EBS パフォーマンスがより高くなったことで、低レイテンシーのローカルストレージが必要な場合に r6idn を使用できるオプションを使用して、ネットワーク負荷が高い SQL、NoSQL、およびインメモリデータベースワークロードをスケーリングできるようになります。

Jeff;

原文はこちらです。