投稿日: Jun 5, 2020
Amazon EC2 には、GPU、FPGA、および AWS 独自のカスタム ML 推論チップである AWS Inferentia を特徴とする、ハードウェアアクセラレーションされるインスタンスのクラウドで最も幅広く最も優れたポートフォリオがあります。G4dn インスタンスは、GPU ベースの ML 推論の最高のコストパフォーマンス、複雑性の低い ML モデルのトレーニング、CUDA、CuDNN、NVENC などの NVIDIA ライブラリへのアクセスを必要とするグラフィックアプリケーションなどを提供します。
本日より、Amazon EC2 G4dn ベアメタルインスタンスが一般公開されます。Amazon EC2 G4dn ベアメタルインスタンスは、AWS の最初のベアメタル GPU インスタンスです。これらのインスタンスは、ライセンス付与やサポート要件のため、あるいは自前のハイパーバイザーを使用したいと考えているお客様のために非仮想環境で実行する必要のあるアプリケーション、Intel® VT-x などのハードウェアの機能セットへのアクセスが必要なワークロードに最適です。
G4dn ベアメタルインスタンスは、8 つの NVIDIA T4 Tensor Core GPU、AWS 独自の第 2 世代 Intel® Xeon® スケーラブル (Cascade Lake) プロセッサ、100 Gbps のネットワークスループット、1.8 TB のローカル NVMe ストレージが提供されます。G4dn ベアメタルインスタンスは、大規模で高度なノード間通信を必要とするアプリケーションを実行するために使用できる Elastic Fabric Adapter もサポートし、従来の TCP チャネルよりも低く、かつより一貫したレイテンシーと、より高いスループットを実現します。
Elastic Container Service (ECS) や Elastic Kubernetes Service (EKS) など、G4dn インスタンスをサポートするマネージド型の AWS のサービスは、新しい G4dn ベアメタルインスタンスもサポートします。
Amazon EC2 G4dn ベアメタルインスタンスは、米国東部 (バージニア北部)、米国西部 (オレゴン)、およびアジアパシフィック (東京) で利用できます。Amazon EC2 G4dn インスタンスは、96 の vCPU を備えたベアメタルインスタンスに加えて、4、8、16、32、48、および 64 vCPU の 6 のサイズで利用でき、オンデマンド、リザーブドインスタンス、またはスポットインスタンスとして購入できるほか、Savings Plans の一部としても購入できます。
AWS マネジメントコンソール、AWS コマンドラインインターフェイス (CLI)、または AWS SDK を使用して、すぐに Amazon EC2 G4dn ベアメタルインスタンスを開始しましょう。Amazon EC2 G4dn インスタンスの詳細については、G4dn のページにアクセスしてください。