MLOps ワークロードオーケストレーター

マネージドオートメーションツールと ML サービスを使用した堅牢なパイプラインを導入し、ML モデルの開発と生産を簡素化します。

概要

MLOps ワークロードオーケストレーターソリューションは、機械学習 (ML) モデルのプロダクショナイゼーション向けにアーキテクチャのベストプラクティスを合理化および強制するのに役立ちます。このソリューションは、AWS の機械学習サービスとサードパーティーサービスの機械学習パイプラインを管理するための標準インターフェイスを提供する、拡張可能なフレームワークです。このソリューションのテンプレートにより、お客様は以下のことが可能になります。

  • モデルのトレーニング
  • 学習済みモデルのアップロード (Bring Your Own Model [BYOM] とも呼ばれる)
  • パイプラインオーケストレーションの設定
  • パイプラインの運用を監視する

このソリューションでは、成功可能なプロセスを大量に繰り返し実行できるようにすることで、チームの俊敏性と効率の向上を図ります。

 

利点

事前に設定された機械学習パイプラインを活用する
ソリューションのリファレンスアーキテクチャを使用して、API 呼び出しまたは Git リポジトリを介して事前構成されたパイプラインを開始する。
トレーニング済のモデルと推論エンドポイントを自動的にデプロイする
ソリューションのフレームワークを使用して、モデルモニターパイプラインまたは Amazon SageMaker BYOM パイプラインを自動化します。サーバーレスマイクロサービスとしてパッケージ化されたモデルドリフト検出を備えた推論エンドポイントを提供します。
ダッシュボードでリソースを表示する

Amazon SageMaker モデルダッシュボードを使用して、ソリューションで作成した Amazon SageMaker リソース (モデル、エンドポイント、モデルカード、バッチ変換ジョブなど) を表示する。

技術的な詳細情報

さまざまなユースケースとビジネスニーズをサポートするために、このソリューションでは 2つの AWS CloudFormation テンプレートが提供されています。

  1. 単一のアカウントテンプレートを使用して、ソリューションのすべてのパイプラインを同じ AWS アカウントにデプロイします。このオプションは、実験、開発、または小規模の本番ワークロードに適しています。
  2. マルチアカウントテンプレートを使用して、異なる AWS アカウント間で複数の環境 (開発、ステージング、本番環境など) をプロビジョニングします。これにより、ガバナンスが改善され、ML パイプラインのデプロイのセキュリティと制御が向上し、安全な実験とより迅速なイノベーションが提供され、本番データとワークロードが安全かつ利用可能に保たれるだけでなく、ビジネスの継続性が確保されます。
  • オプション 1 - 単一アカウントのデプロイ
  • オプション 2 - マルチアカウントデプロイ
導入事例
Cognizant MLOps Model Lifecycle オーケストレーター、AWSソリューションを利用して機械学習モデルの展開を週次から時間単位に高速化

Cognizant は、AWS パートナーソリューションアーキテクトと AWS ソリューションライブラリチームと協力し、MLOps ワークロードオーケストレーターソリューションの上に、MLOps Model Lifecycle Orchestrator ソリューションを構築しています。

導入事例を読む 
この AWS ソリューションのユースケース
機械学習の運用化 ML 運用およびインフラストラクチャ
このデプロイについて
バージョン
2.1.1
リリース
01/2023
筆者
AWS
予想されるデプロイ時間
3 分
予想費用
ソースコード  CloudFormation のテンプレート  RSS フィードを購読 
デプロイオプション
開始のステップ
AWS コンソールでこのソリューションを起動し、デプロイする

サポートが必要ですか? パートナーとデプロイ
このデプロイメントを支援する AWS 認定サードパーティエキスパートを探す
この AWS ソリューションは役に立ちましたか?
フィードバックを送る