全般

Q: Amazon Elastic Inference とは何ですか?

A: Amazon Elastic Inference (Amazon EI) は、Amazon EC2 または Amazon SageMaker のインスタンスタイプまたは Amazon ECS タスクに適切な量の GPU による推論アクセラレーションをアタッチさせる、高速コンピューティングサービスです。つまり、アプリケーションの全体的なコンピューティング、メモリ、およびストレージのニーズに最も適したインスタンスタイプを選択し、必要な推論アクセラレーションの程度を個別に構成できます。

Q: Amazon Elastic inference アクセラレーターとは何ですか?

A: Amazon Elastic inference アクセラレーターは、低コストで深層学習の推論ワークロードを加速するために、あらゆる SageMaker インスタンスタイプまたは EC2 インスタンスタイプまたは ECS タスクと連携するように設計された GPU によるハードウェアデバイスです。Amazon Elastic Inference を使用して EC2 インスタンスまたは ECS タスクを起動すると、アクセラレーターがプロビジョニングされ、ネットワーク経由でインスタンスにアタッチされます。Amazon Elastic Inference で有効になっている TensorFlow Serving や Apache MXNet のような深層学習ツールやフレームワークでは、モデル計算を自動的に検出し、アタッチされたアクセラレーターにオフロードできます。

Q: Amazon Elastic inference アクセラレーターファミリータイプの間の違いは?

A: EIA2 アクセラレータ-には、同等の EIA1 アクセラレータの 2 倍の GPU メモリがあります。モデルとテンソルの入力サイズに基づいて GPU メモリのニーズを判断し、ニーズに合った適切なアクセラレーターファミリーとタイプを選択できます。

設定

Q: Amazon Elastic inference アクセラレーターは、どのようにプロビジョニングするのですか?

A: AWS マネジメントコンソール、AWS コマンドラインインターフェース (CLI) 、AWS SDK を使用して、Amazon SageMaker エンドポイントまたは Amazon EC2 インスタンスまたは Amazon ECS タスクを Amazon Elastic Inference アクセラレーターを設定できます。アクセラレーターを使用して EC2 インスタンスを起動するには、2 つの要件があります。まず、アクセラレーターを起動する予定のサブネットに対して、AWS PrivateLink VPC エンドポイントをプロビジョニングする必要があります。その後、インスタンスを起動するときに、インスタンスにアクセスしているユーザーがアクセラレーターに接続できるようにするポリシーをインスタンスロールに指定する必要があります。Amazon EI で起動するようにインスタンスを設定すると、アクセラレーターは VPC エンドポイントのバッググラウンドと同じアベイラビリティーゾーンにプロビジョニングされます。

Q: Amazon Elastic Inference ではどのようなモデルフォーマットがサポートされていますか?

A: Amazon Elastic Inferenceは、TensorFlow、Apache MXNet、および ONNX モデルを使用してトレーニングされたモデルをサポートします。

Q: TensorFlow または Apache MXNet フレームワークを使用して Amazon Elastic Inference モデルをデプロイできますか?

A: はい、AWS で強化された TensorFlow Serving と Apache MXNet ライブラリを使用して、モデルをデプロイし、推論呼び出しを行うことができます。

Q: AWS 最適化フレームワークにアクセスするにはどうすればよいですか?

A: AWS 深層学習 AMIには、Amazon Elastic Inference アクセラレーターで使用するために最適化された TensorFlow Serving と Apache MXNet の最新リリースが含まれています。Amazon S3 経由でライブラリを入手して、独自の AMI またはコンテナイメージを構築することもできます。詳細については、この資料をご覧ください。

Q: CUDA は Amazon Elastic inference アクセラレーターと併用できますか?

A: いいえ、AWS で強化された TensorFlow Serving または Apache MXNet ライブラリは、Amazon Elastic Inference アクセラレーターのインターフェイスとしてのみ使用できます。

料金と請求

Q: Amazon Elastic Inference の使用に対してどのように課金されますか?

A: お支払いいただくのは、実際に使用した Amazon Elastic Inference アクセラレーター時間に対する分のみです。詳細については、料金表ページをご覧ください。

Q: Amazon Elastic Inference サービスの AWS PrivateLink VPC エンドポイントは料金が発生しますか?

いいえ。VPC エンドポイントがプロビジョニングされているアベイラビリティーゾーンで実行されているアクセラレーターで、インスタンスが 1 つ以上構成されている限り、Amazon Elastic Inference サービスの VPC エンドポイントでは料金は発生しません。

Product-Page_Standard-Icons_01_Product-Features_SqInk
料金に関する詳細

詳細な料金情報については、Amazon Elastic Inference の料金ページをご覧ください。

詳細 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
無料のアカウントにサインアップ

AWS 無料利用枠にすぐにアクセスできます。 

サインアップ 
Product-Page_Standard-Icons_03_Start-Building_SqInk
コンソールで構築を開始する

Amazon SageMaker または Amazon EC2 で Amazon Elastic Inference を開始します。

サインイン 
ページの内容
全般 設定 料金