投稿日: Jun 3, 2021
AWS Solutions は、パイプラインのデプロイプロセスを合理化し、機械学習 (ML) モデルの本稼働化のためのアーキテクチャのベストプラクティスを実施する AWS ソリューション実装である AWS MLOps Framework を更新しました。このソリューションは、複数の ML ワークフロー自動化ツールを導入する際の一般的なオペレーションの問題を解決します。
この更新により、お客様が異なるアカウント間で複数の環境 (開発、ステージング、本稼働など) をプロビジョニングできるようにするマルチアカウント機能が追加されます。これにより、適切な制御手段で本稼働用データを保護しながら、ML ワークロードのデプロイのガバナンスとセキュリティが改善されます。この新しいバージョンには、Amazon Sagemaker エンドポイントでのモデルのデプロイに使用されるカスタムアルゴリズムの Docker イメージを構築および登録するための新しいパイプラインも含まれています。
このソリューションの主な機能は次のとおりです。
- API 呼び出しまたは Git リポジトリを介して事前に設定されたパイプラインを開始する
- トレーニング済のモデルを自動的にデプロイし、推論エンドポイントを提供する
- デプロイされた機械学習モデルを継続的にモニタリングし、その品質の逸脱を検出する
- デプロイされたモデルが期待を満足しているか確認するために、独自の結合テストの実行をサポートする
- ML モデルのライフサイクルをサポートするために、複数の環境をプロビジョニングできるようにする
- モデルの持ち込みとモデルモニターのパイプラインのマルチアカウントサポート。
- お客様が、Amazon Sagemaker エンドポイントでのモデルのデプロイに使用するカスタムアルゴリズムの Docker イメージを構築および登録できるようにします。
AWS ソリューション実装のウェブページでは、その他の AWS ソリューションもご利用になれます。このページでは、ソリューションを製品カテゴリや業界別に参照し、AWS が厳しい審査の上で自動化したターンキーリファレンス実装の中から、お客様の特定のビジネスニーズに対応するものを見つけることができます。