投稿日: Feb 4, 2019
今日、Amazon Elastic Container Service (ECS) が EC2 GPU インスタンスで実行中の機械学習およびハイパフォーマンスコンピューティングアプリケーションのサポートの強化を発表しました。ECS タスク定義で、特定のコンテナに割り当てる GPU の数を指定できるようになりました。ECS はそれに応じてワークロードの隔離と最適なパフォーマンスを確保します。
ECS で GPU を活用するには、以前はカスタム構成された AMI を用意し、物理 GPU を特定のコンテナに割り当てるためのプロキシとしてカスタム vCPU 配置ロジックを使う必要がありました。しかも、ピン留めも分離もできませんでした。これからは、事前設定された Nvidia カーネルドライバー、環境に合った Docker GPU ランタイム、デフォルトバージョンの CUDA を持つすぐに使用可能な p2 と p3 インスタンスを備えた、ECS GPU に最適化された AMI を使用することができます。タスク定義により、ECS がスケジューリングメカニズムとして使用する特定のコンテナに割り当てる GPU の数を指定できるようになります。コンテナがこれらのインスタンスに配置されると、ワークロードの隔離と最適なパフォーマンスを実現するために、ECS が物理 GPU を目的のコンテナに固定します。
詳細については、AWS のブログあるいはドキュメントを参照してください。ECS を利用できるリージョンについては、リージョンテーブルをご覧ください。