在机器学习模型中测量偏差是缓解偏差的第一步。偏差可以在训练之前(作为数据准备的一部分)、训练之后(使用 Amazon SageMaker Experiments)以及部署模型的推理期间(使用 Amazon SageMaker Model Monitor)进行测量。每个超过 20 的偏差指标都对应不同的公平概念。您可以选择对正在调查的应用程序和情况有效的指标。例如,在训练之前,类别不平衡和各组标签分布的差异等指标会检查训练数据是否代表总体人群。SageMaker Clarify 会考虑正面(有利)结果差异和个体标签分布差异,以检测群体的代表性是否不足。在训练结束后或部署期间,偏差指标有助于衡量模型在不同组中的性能是否存在差异以及差异有多大。平等代表性和差异影响等指标衡量正面预测的差异。相同性能指标,例如精度(正面预测正确的可能性)和召回率(模型正确标记正面示例的可能性)的差异,用于评估各组间的误差均匀分布。要了解更多信息,请参阅此博客文章。