发布于: Aug 2, 2019

适用于 Amazon SageMaker 的新模型跟踪功能现已在推出 Amazon SageMaker 的所有 AWS 区域全面推出。借助这些新功能,您可以快速轻松地找到和比较机器学习 (ML) 模型训练实验。使用 AWS 管理控制台或 AWS 软件开发工具包,可以快速搜索成千上万的模型训练实验并比较指标,以评估不同迭代的性能,从而加快确定性能最佳的模型。

开发 ML 模型是一个迭代过程。您可以尝试不同的数据、算法和参数组合来微调模型。这种连续试验通常会产生大量的模型版本,从而难以跟踪实验并减慢最有效模型的发现。此外,随着时间的推移,跟踪特定模型版本的变量会变得繁琐,从而阻碍审计和合规性验证。借助 Amazon SageMaker 中的新模型跟踪功能,您可以通过搜索不同参数(包括学习算法、超参数设置以及训练运行期间添加的任何标签)快速识别最相关的模型。您还可以根据训练损失和验证准确性等性能指标对训练运行进行比较和排名,以快速识别性能最高的模型。

您可以开始使用我们的示例笔记本,并在博客开发人员指南中了解更多有关该功能的信息。