投稿日: Feb 5, 2021
AWS ソリューション実装である AWS MLOps フレームワークが更新され、モデルのモニタリング用のパイプラインが提供されるようになりました。BYOM (bring-your-own-model) パイプラインに加えて、このソリューションでは、Amazon SageMaker エンドポイントにデプロイされた ML モデルの品質を定期的にモニタリングする複数のモデルモニタリングパイプラインをプロビジョニングする機能を提供します。この追加された機能では、モデル品質、バイアス、特徴の重要性のドリフトが運用環境で発生した場合に通知されるので、モデルパフォーマンスを保証することができます。
AWS MLOps フレームワークは、パイプラインのデプロイプロセスを合理化し、機械学習 (ML) モデル開発用のアーキテクチャのベストプラクティスを強化します。このソリューションは、複数の ML ワークフロー自動化ツールを導入する際の一般的なオペレーションの問題を解決します。
お客様は、トレーニング済みモデルのアップロード、パイプラインのオーケストレーションの構成、デプロイプロセスの開始、さまざまなデプロイステージへのモデルの移動、オペレーションの結果のモニタリングを行うことができます。お客様は、バッチおよびリアルタイムのデータ推論を使用して、ビジネスコンテキストのパイプラインを構成できます。
このソリューションの主な機能は次の通りです。
- API 呼び出しまたは Git リポジトリを介して事前に設定されたパイプラインを開始する
- トレーニング済のモデルを自動的にデプロイし、推論エンドポイントを提供する
- デプロイされた機械学習モデルを継続的にモニタリングし、その品質の逸脱を検出する
- デプロイされたモデルが期待を満足しているか確認するために、独自の結合テストの実行をサポートする
- ML モデルのライフサイクルをサポートするために、複数の環境をプロビジョニングできるようにする
AWS ソリューション実装のウェブページでは、その他の AWS ソリューションもご利用になれます。このページでは、ソリューションを製品カテゴリや業界別に参照し、AWS が厳しい審査の上で自動化したターンキーリファレンス実装の中から、お客様の特定のビジネスニーズに対応するものを見つけることができます。