投稿日: Oct 25, 2019

Amazon Elastic Inference は 最高 8 GB の GPU メモリー持つ EIA2 と呼ばれる新しい Elastic Inference Accelerator を導入しました。お客様は、より大きなモデルあるいは画像処理、異物検出、画像分類、自動スピーチ処理、自然言語処理、その他の深層学習使用事例のためのより大きなインプットサイズを持つモデルで Amazon Elastic Inference を使用することができます。

Amazon Elastic Inference では、Amazon EC2 や Amazon SageMaker インスタンス、または ECS タスクに適切な量の GPU アクセラレーションをアタッチすることで、深層学習推論の実行コストを最大 75% まで削減できます。Amazon Elastic Inference を使用すると、アプリケーションの全体的な CPU とメモリのニーズに最も適したインスタンスタイプを選択し、必要な推論アクセラレーションの程度をコードを変更することなく個別に設定できます。これまでは Elastic Inference で最大 4 GB までの設定をすることができました。現在、それぞれ2GB、4GB および 8GB の GPU メモリーを持つ 3 つの新しいアクセラレータの中から選択することができます。Amazon Elastic Inference は、TensorFlow、Apache MXNet、および ONNX モデルをサポートしており、さらにたくさんのフレームワークが近日中に提供される予定です。

新しい Elastic Inference Accelerator は、米国東部 (バージニア)、米国西部 (オレゴン)、米国東部 (オハイオ)、アジアパシフィック (ソウル) および欧州 (アイルランド) で利用可能です。AWS の他のリージョンでも近日中にサポートを開始する予定です。

詳細については、Amazon Elastic Inference の製品ページドキュメント を参照してください。