投稿日: Dec 3, 2019
Amazon SageMaker Experiments は、Amazon SageMaker で機械学習トレーニングの実験を整理、追跡、比較することを可能にする新機能です。
機械学習は反復プロセスです。このような段階的な変更がモデルの精度に与える影響を観察しながら、データ、アルゴリズム、パラメータをいくつか組み合わせて実験する必要があります。時間が経つにつれて、この反復的な実験により、数百および数千のモデルトレーニングの実行とモデルバージョンが発生します。これにより、最高のパフォーマンスを発揮するモデルとその入力設定を追跡することが難しくなります。また、アクティブな実験を過去の試みと比較して、さらに段階的に改善する機会を特定することも困難です。
Amazon SageMaker Experiments を使用すると、機械学習の実験を簡単に管理できます。すべての入力、パラメータ、構成、および反復した結果をトライアルとして自動的に追跡します。このトライアルを実験に割り当て、グループ化し、整理することもできます。SageMaker Experiments は Amazon SageMaker Studio と統合されて、アクティブおよび過去の実験を閲覧し、主要なパフォーマンスメトリクスで実験を比較し、最高のパフォーマンスメトリクスを特定するビジュアルインターフェイスを提供します。SageMaker Experiments には、SageMaker Notebook でこれらの検索および分析機能に簡単にアクセスできる Python SDK も備わっています。さらに、SageMaker Experiments では、モデルの作成と認証に至るすべてのステップとアーティファクトの追跡が可能であるため、本番環境で生産の問題のトラブルシューティングやコンプライアンスのためのモデルの監査を行っているときに、モデルの系統をすばやく追跡できます。