投稿日: Sep 17, 2019

Amazon ECS では、ディープラーニング推論ワークロードをよりコスト効率良く実行するため、コンテナに Amazon Elastic Inference アクセラレーターをアタッチできます。 Amazon Elastic Inference では、Amazon EC2 や Amazon SageMaker インスタンス、または ECS タスクに適切な量の GPU アクセラレーションをアタッチすることで、ディープラーニング推論の実行コストを最大 75% まで削減できます。

ECS での Amazon Elastic Inference のサポートにより、タスクの CPU とメモリの設定についてアプリケーションのニーズに最適なものを選択し、必要な推論アクセラレーションの程度をコードを変更することなく個別に設定できます。これにより、リソースを効率的に使用し、推論を実行するコストを削減できます。この機能は、Linux コンテナと、EC2 起動タイプを使用するタスクの使用時にサポートされます。Amazon Elastic Inference は、TensorFlow、Apache MXNet、および ONNX モデルをサポートしており、さらにたくさんのフレームワークが近日中に提供される予定です。

ECS での Amazon Elastic Inference のサポートは、ECS と Elastic Inference が利用可能なすべてのリージョンで提供されています。使用を開始するには、ドキュメントを参照してください。