Amazon Bedrock Model Distillation 现已推出预览版
借助 Amazon Bedrock Model Distillation,客户可以使用更小、更快、更具成本效益的模型,这些模型可提供与 Amazon Bedrock 中最强大的模型相媲美的、特定于使用案例的准确性。
如今,微调较小且具有成本效益的模型以提高其特定于客户使用案例的准确性是一个迭代过程,客户需要编写提示词和响应,完善训练数据集,确保训练数据集捕获不同的示例,并调整训练参数。
Amazon Bedrock Model Distillation 可自动执行基于教师模型生成合成数据所需的流程,训练和评估学生模型,然后托管最终的蒸馏模型进行推理。为了减轻一些迭代负担,Model Distillation 可以选择应用最适合您的使用案例的不同数据合成方法,以创建与特定使用案例的高级模型大致匹配的蒸馏模型。例如,Bedrock 可以通过生成相似的提示词来扩展训练数据集,或者使用客户提供的提示词-响应对作为黄金示例来生成高质量的合成响应。
有关更多信息,请参阅我们的文档和博客。