投稿日: Feb 5, 2021
本日より、最大 100 Gbps のネットワーク帯域幅を利用できる Amazon EC2 M5n、M5dn、R5n、および R5dn ベアメタルインスタンスと、HPC/ML ワークロード用の Elastic Fabric Adapter (EFA) が一般利用可能となりました。 Amazon EC2 ベアメタルインスタンスでは、アプリケーションは基盤となるサーバーの Intel® Xeon® スケーラブルプロセッサとメモリリソースに直接アクセスできます。これらのインスタンスは、ハードウェアの機能群 (Intel® VT-x など) へのアクセスを要するワークロードや、ライセンス付与やサポートのために非仮想環境で実行する必要のあるアプリケーションに最適です。
ベアメタルインスタンスにより、EC2 のお客様は、ディープパフォーマンス分析ツール、ベアメタルインフラストラクチャへの直接アクセスが必要な特殊なワークロード、仮想環境でサポートされていないレガシーワークロード、ライセンス制限されたアプリケーションなどの恩恵を受けるアプリケーションを実行することが可能となります。ベアメタルのインスタンスはさらに、Clear Linux Containers などの仮想化されたコンテナを実行することも可能にします。ベアメタルインスタンスでのワークロードでは、Amazon Elastic Block Store (EBS)、Elastic Load Balancer (ELB)、Amazon Virtual Private Cloud (VPC) など、AWS クラウドの包括的なサービスや機能の利点を引き続き活用できます。
次世代型の AWS Nitro システムをベースに、M5n、M5dn、R5n、R5dn インスタンスでは、ネットワークの制約があるワークロードで 100 Gbps というネットワーク速度を実現します。カスタムドライバーを使ったりアプリケーションを再コンパイルしたりする必要はありません。改善されたネットワークパフォーマンスを活用することで、Amazon S3 とのデータ転送を加速化することもできます。これにより、アプリケーションでのデータ処理に必要な時間が減り、すばやい処理を実行できます。
M5n、M5dn、R5n、R5dn インスタンスは、全コアターボの周波数を 3.1 GHz で持続可能な第 2 世代カスタム Intel® Xeon® スケーラブルプロセッサ (Cascade Lake) を搭載しています。これらのインスタンスでは、新しい Intel Vector Neural Network Instructions (AVX-512 VNNI) のサポートも提供されています。これは、畳み込みなどの典型的な機械学習オペレーションの速度を向上させます。また、幅広い分野の深層学習ワークロードで推論パフォーマンスを自動的に向上させます。
AWS マネジメントコンソール、AWS コマンドラインインターフェイス (CLI)、または AWS SDK を使用して、すぐに m5n.metal、m5dn.metal、r5n.metal、または r5dn.metal インスタンスを開始しましょう。詳細については、EC2 M5 インスタンス、または EC2 R5 インスタンスページをご参照ください。