AWS における MLOps ワークロードオーケストレーター

マネージドオートメーションツールと ML サービスを使用した堅牢なパイプラインを導入し、ML モデルの開発と生産を簡素化します。

概要

MLOps ワークロードオーケストレーターは、機械学習 (ML) モデルの実稼働化のためのアーキテクチャのベストプラクティスを合理化し、適用するのに役立ちます。この AWS ソリューションは、AWS の機械学習サービスとサードパーティーサービスの機械学習パイプラインを管理するための標準インターフェイスを提供する、拡張可能なフレームワークです。

このソリューションのテンプレートを使用すると、モデルをトレーニングし、トレーニング済みのモデルをアップロードし (独自のモデルを持ち込む [BYOM]とも呼ばれる)、パイプラインのオーケストレーションを構成し、パイプラインの運用をモニタリングできます。このソリューションを使用することで、チームが成功したプロセスを大規模に繰り返せるようになるため、チームの俊敏性と効率性を高めることができます。

メリット

事前設定済みの ML パイプラインを活用
ソリューションのリファレンスアーキテクチャを使用して、API コールまたは Git リポジトリを介して事前構成されたパイプラインを開始する。
トレーニング済のモデルと推論エンドポイントを自動的にデプロイする
ソリューションのフレームワークを使用して、モデルモニターパイプラインまたは Amazon SageMaker BYOM パイプラインを自動化します。サーバーレスマイクロサービスとしてパッケージ化されたモデルドリフト検出を備えた推論エンドポイントを提供します。
ダッシュボードでリソースを表示する

Amazon SageMaker モデルダッシュボードを使用して、ソリューションで作成した Amazon SageMaker リソース (モデル、エンドポイント、モデルカード、バッチ変換ジョブなど) を表示する。

技術的な詳細情報

このアーキテクチャは、実装ガイドと付属する AWS CloudFormation テンプレートを使用して自動的にデプロイできます。さまざまなユースケースとビジネスニーズをサポートするために、このソリューションでは 2つの AWS CloudFormation テンプレートが提供されています:

  1. 単一のアカウントテンプレートを使用して、ソリューションのすべてのパイプラインを同じ AWS アカウントにデプロイします。このオプションは、実験、開発、または小規模の本番ワークロードに適しています。
  2. マルチアカウントテンプレートを使用して、異なる AWS アカウント間で複数の環境 (開発、ステージング、本番環境など) をプロビジョニングします。これにより、ガバナンスが改善され、ML パイプラインのデプロイのセキュリティと制御が向上し、安全な実験とより迅速なイノベーションが提供され、本番データとワークロードが安全かつ利用可能に保たれるだけでなく、ビジネスの継続性が確保されます。
  • オプション 1 - 単一アカウントのデプロイ
  • オプション 2 - マルチアカウントデプロイ
導入事例
Cognizant MLOps Model Lifecycle オーケストレーター、AWSソリューションを利用して機械学習モデルの展開を週次から時間単位に高速化

Cognizant は、AWS パートナーソリューションアーキテクトと AWS ソリューションライブラリチームと協力し、MLOps ワークロードオーケストレーターソリューションの上に、MLOps Model Lifecycle Orchestrator ソリューションを構築しています。

導入事例を読む 
この AWS ソリューションのユースケース
  • ヘッドライン
その他…
デプロイオプション
開始のステップ
AWS コンソールでこのソリューションを起動し、デプロイする

サポートが必要ですか? パートナーとデプロイ。
このデプロイメントを支援する AWS 認定サードパーティエキスパートを探す

このページは役に立ちましたか?