投稿日: Jul 27, 2021
AWS Solutions は、パイプラインのデプロイプロセスを合理化し、機械学習 (ML) モデルの本稼働化のためのアーキテクチャのベストプラクティスを実施する AWS ソリューション実装である AWS MLOps Framework を更新しました。このソリューションは、複数の ML ワークフローオートメーションツールを導入する際の一般的なオペレーションの問題を解決します。
今回の更新により、複数アカウントにソリューションをデプロイする機能が拡張され、お客様は AWS Organizations および AWS CloudFormation StackSets を使用して、委任された管理者アカウントを使って、組織内で複数の環境 (開発環境、ステージング環境、本番環境など) をプロビジョニングできるようになりました。これにより、適切な制御手段で本稼働用データを保護しながら、ML ワークロードのデプロイのガバナンスとセキュリティが改善されます。新しいバージョンには、Amazon SageMaker Model Registry を使用してバージョン管理されたモデルをデプロイするオプションも追加されています。モデルレジストリを利用すると、本番用モデルのカタログ化、モデルのバージョン管理、モデルとメタデータの関連付け、モデルの承認ステータスの管理、本番環境へのモデルのデプロイ、CI/CD によるモデルデプロイの自動化などができます。
このソリューションの主な機能は次のとおりです。
- API 呼び出しまたは Git リポジトリを介して事前に設定されたパイプラインを開始する
- トレーニング済のモデルを自動的にデプロイし、推論エンドポイントを提供する
- デプロイされた機械学習モデルを継続的にモニタリングし、その品質の逸脱を検出する
- デプロイされたモデルが期待を満足しているか確認するために、独自の結合テストの実行をサポートする
- ML モデルのライフサイクルをサポートするために、複数の環境をプロビジョニングできるようにする
- Amazon SageMaker Model Registry を使用してバージョン管理されたモデルをデプロイするオプション
- 個人用端末の業務利用 (BYOD) モデルとモデルモニターのパイプラインのマルチアカウントサポート
- お客様が、Amazon Sagemaker エンドポイントでのモデルのデプロイに使用するカスタムアルゴリズムの Docker イメージを構築および登録できるようにします。
AWS ソリューション実装のウェブページでは、その他の AWS ソリューションもご利用になれます。このページでは、ソリューションを製品カテゴリや業界別に参照し、AWS が厳しい審査の上で自動化したターンキーリファレンス実装の中から、お客様の特定のビジネスニーズに対応するものを見つけることができます。