AWS における MLOps ワークロードオーケストレーター

マネージドオートメーションツールと ML サービスを使用した堅牢なパイプラインを導入し、ML モデルの開発と生産を簡素化します。

概要

機械学習オペレーション (MLOps) ワークロードオーケストレーターは、機械学習モデルのデプロイを効率化し、スケーラビリティ、信頼性、効率性に関するベストプラクティスを適用します。この AWS ソリューションは、AWS 機械学習とサードパーティサービス全体の機械学習パイプラインを管理するための標準インターフェイスを備えた拡張可能なフレームワークです。

このソリューションには、AWS CloudFormation テンプレートが含まれています。このテンプレートにより、モデルトレーニング、事前トレーニング済みモデルのアップロード (Bring Your Own Model、または BYOM とも呼ばれる)、パイプラインオーケストレーション構成、パイプライン運用の監視が可能になります。このソリューションを導入することで、チームは俊敏性と効率を高め、成功したプロセスを大規模に繰り返すことができます。

メリット

事前設定済みの ML パイプラインで起動

API コールまたは Amazon S3 バケットを使用して、事前設定されたパイプラインを開始します。

トレーニング済のモデルと推論エンドポイントを自動的にデプロイする

Amazon SageMaker BYOM を使用してモデルモニタリングを自動化し、ドリフト検出機能を備えたサーバーレス推論エンドポイントを提供します。

ML リソースを一元的に可視化

Amazon SageMaker Model Dashboard を使用して、モデル、エンドポイント、モデルカード、バッチ変換ジョブなど、すべての Amazon SageMaker リソースを表示、検索、調べることができます。

技術的な詳細情報

このアーキテクチャは、実装ガイドと付属する AWS CloudFormation テンプレートを使用して自動的にデプロイできます。さまざまなユースケースとビジネスニーズをサポートするために、このソリューションでは 2つの AWS CloudFormation テンプレートが提供されています:

  1. 単一のアカウントテンプレートを使用して、ソリューションのすべてのパイプラインを同じ AWS アカウントにデプロイします。このオプションは、実験、開発、または小規模の本番ワークロードに適しています。
  2. マルチアカウントテンプレートを使用して、異なる AWS アカウント間で複数の環境 (開発、ステージング、本番環境など) をプロビジョニングします。これにより、ガバナンスが改善され、ML パイプラインのデプロイのセキュリティと制御が向上し、安全な実験とより迅速なイノベーションが提供され、本番データとワークロードが安全かつ利用可能に保たれるだけでなく、ビジネスの継続性が確保されます。
  • オプション 1 - 単一アカウントのデプロイ
  • オプション 2 - マルチアカウントデプロイ
導入事例
Cognizant MLOps Model Lifecycle オーケストレーター、AWS ソリューションを利用して機械学習モデルの展開を週次から時間単位に高速化

Cognizant は、AWS パートナーソリューションアーキテクトと AWS ソリューションライブラリチームと協力し、MLOps ワークロードオーケストレーターソリューションの上に、MLOps Model Lifecycle Orchestrator ソリューションを構築しています。

導入事例を読む 
この AWS ソリューションのユースケース
  • ヘッドライン
その他…
デプロイオプション
開始のステップ
AWS コンソールでこのソリューションを起動し、デプロイする

サポートが必要ですか? パートナーとデプロイ。
このデプロイメントを支援する AWS 認定サードパーティエキスパートを探す

このページは役に立ちましたか?