Amazon SageMaker Experiments

有效管理機器學習實驗

免費方案

每月內嵌 100,000 條指標記錄,每月透過 API 擷取 100 萬條指標記錄,每月存放 100,000 條指標記錄。免費方案在前 6 個月提供。

分析和比較 ML 訓練迭代以選擇效能最佳的模型

追蹤參數、指標和成品以排除模型問題和重現模型
為團隊提供一個中央環境來進行 ML 實驗以提高生產力

SageMaker Experiments 是一項受管服務,用於大規模追蹤和分析 ML 實驗。

運作方式

記錄在任何 IDE 中執行的實驗

ML 實驗在不同的環境中執行,例如本機筆記本和 IDE、在雲端中執行的訓練程式碼或在雲端中受管的 IDE (例如 SageMaker Studio)。藉助 SageMaker Experiments,您只需使用幾行資料科學家友好的 Python 程式碼,即可從任何環境或 IDE 開始集中追蹤實驗。

集中管理 ML 實驗中繼資料

開發 ML 模型的過程涉及對資料、演算法和參數的各種組合進行實驗,同時評估增量變化對模型效能的影響。藉助 Sagemaker Experiments,您可以追蹤 ML 迭代並自動將所有相關中繼資料 (例如指標、參數和成品) 存放在一個中央位置。

評估實驗

為了從多次迭代中找到最佳模型,需要對模型效能進行分析和比較。SageMaker Experiments 提供散佈圖、橫條圖和長條圖等視覺化效果。此外,Sagemaker Experiments SDK 允許您將記錄的資料載入到筆記本中以進行離線分析。

協作建置模型

組織內以團隊為中心的協作是資料科學專案成功的關鍵。 SageMaker Experiments 與 SageMaker Studio 整合,允許團隊成員存取相同的資訊並確認實驗結果一致,從而讓協作更加輕鬆。使用 SageMaker Studio 的搜尋功能快速尋找過去的相關實驗。

重現和稽核 ML 實驗

當模型的效能發生變化時,您需要了解變化的根本原因。有時您想記錄模型開發過程,以便對其進行重現和輕鬆測試。藉助 Sagemaker Experiments,您可以從追蹤的實驗中存取和重現 ML 工作流程。

如何開始使用

指南

了解 SageMaker Experiments 的運作方式

詳細了解實驗管理、記錄中繼資料和分析。

部落格

組織、追蹤和比較 ML 訓練互動