投稿日: Jun 23, 2023
Amazon SageMaker Inference Recommender は、負荷テストとモデルチューニングを SageMaker の機械学習 (ML) インスタンス全体で自動化することで、本番環境で機械学習モデルを取得するために必要な時間を短縮する、Amazon SageMaker の機能です。本日、SageMaker Inference Recommender では、2 つの重要な機能を発表します。1 つ目は、SageMaker 向けの AWS コンソールから Inference Recommender を使用できるようになったことです。2 つ目は、Inference Recommender で、モデルの作成時にモデルをデプロイする予定のインスタンスに関する推奨事項が表示されるようになったことです。
ユーザーは、モデル作成のワークフローの一環として、モデルをデプロイする予定のインスタンスの一覧を表示できるようになりました。モデルの作成時に提供される推奨事項を最適なコストまたはパフォーマンスに合わせて調整するため、カスタムのサンプル入力ペイロードを使用してベンチマークや負荷テストのジョブを実行できます。DescribeModel API を使用することで、プログラムによって、または SageMaker コンソール UI を介して、推奨されるインスタンスの一覧を表示できます。
さらに、AWS コンソールから SageMaker Inference Recommender にアクセスするできるようになりました。これまで、Inference Recommender のジョブは、AWS SDK、AWS CLI、SageMaker Studio のいずれかを使用しなければ実行できませんでした。AWS コンソールを使用するユーザーは、推奨事項を取得する際に SDK、Studio、AWS コンソール間を移動しなければならず、AWS コンソールのみを使用するユーザーにはまったくメリットがありませんでした。今回のリリースにより、AWS コンソールのユーザーは、コンソールから [推論レコメンダー] ジョブを実行して想定されるインスタンスタイプを取得したり、ベンチマークジョブを実行してコストとパフォーマンスが最適化された推奨事項を取得したりできるようになりました。
今回のリリースに関する詳細は、こちらおよびこちらのドキュメントを参照してください。使用を開始するには、Amazon SageMaker コンソールにログインしてください。