投稿日: Nov 30, 2022
Amazon SageMaker はシャドウテストをサポートしており、新しい機械学習 (ML) モデルを本番モデルと比較することによりパフォーマンスを検証できます。シャドウテストにより、潜在的な設定エラーやパフォーマンスの問題を、エンドユーザーに影響を与える前に発見できます。SageMaker では、シャドウテストのためのインフラストラクチャ構築にかかる数週間の時間を削減し、モデルをより早く本番環境にリリースできます。
モデルの更新をテストするには、本番モデルが受け取った推論リクエストのコピーを新しいモデルに送信し、そのパフォーマンスを追跡します。ただし、独自のテストインフラストラクチャを構築し、推論リクエストをミラーリングし、モデルのパフォーマンスを比較するためには、数週間の時間が必要となる場合があります。Amazon SageMaker では、現在デプロイされている本番モデルとパフォーマンスを比較テストすることで、新しい ML モデルを評価できます。テストしたい本番モデルを選択すると、SageMaker は自動的に新しいモデルを推論用にデプロイします。SageMaker は、本番モデルが受け取った推論リクエストのコピーを新しいモデルにルーティングし、レイテンシーやエラー率などの主要メトリクスにおけるパフォーマンスの差異をリアルタイムで表示するライブダッシュボードを作成します。パフォーマンスメトリクスを確認し、モデルのパフォーマンス検証で問題がなければ、モデルをすぐに本番環境に導入できます。
詳細については、Amazon SageMaker シャドウテストのウェブページをご覧ください。料金については、Amazon SageMaker の料金をご覧ください。SageMaker シャドウテストのサポートは、中国 (北京、Sinnet が運営)、中国 (寧夏、NWCD が運営)、AWS GovCloud (米国) リージョンを除く、SageMaker Inference が利用可能なすべての AWS リージョンで一般提供されています。
使用を開始するには、以下のリソースのリストをご覧ください。