投稿日: Apr 4, 2019
AWS では、AWS Batch の利用により、ハイパフォーマンスコンピューティング (HPC)、機械学習、その他のバッチジョブをシームレスに高速化できるようになりました。これは、各ジョブが必要とする GPU の数を指定するだけで可能です。本日から、AWS Batch を使用して、ジョブがジョブ定義入力変数として必要とするアクセラレーターの数とタイプを、現在の vCPU とメモリのオプションと併せて指定できるようになりました。AWS Batch では GPU の必要数に基づいてジョブに合わせたインスタンスがスケールアップされ、各ジョブのニーズに合わせてアクセラレーターが隔離されます。そのため、アクセラレーターには適切なコンテナのみがアクセスできます。
グラフィックス処理装置 (GPU) などハードウェアベースのコンピューティングアクセラレーターが、専用ハードウェアを使用して、アプリケーションのスループットの向上やレイテンシーの低減を実現します。これまで、AWS Batch でアクセラレーターを活用するには、カスタム AMI を構築し、適切なドライバーをインストールし、vCPU やメモリの特性に基づいて AWS Batch に GPU 高速化 EC2 P タイプインスタンスをスケールさせることが必要でした。現在は、希望する GPU の数とタイプを vCPU やメモリの場合と同様に指定するだけで、Batch でジョブの実行に必要な EC2 P タイプインスタンスを起動できます。さらに、Batch では GPU がコンテナに対して隔離されるため、各コンテナが取得するリソースはそれぞれに必要な分だけです。
AWS Batch の GPU サポートの詳細については、こちらを参照してください。