在 AWS 负责任地构建人工智能
生成式人工智能的快速发展带来了前景广阔的新创新,同时也带来了新的挑战。在 AWS,我们致力于以负责任的方式开发人工智能,采用以人为本的方法,优先考虑教育、科学和我们的客户,在端到端人工智能生命周期内集成负责任的人工智能。

负责任的人工智能的核心维度
公平
考虑对不同利益相关者群体的影响
可解释性
了解和评估系统输出
隐私与安全性
适当地获取、使用和保护数据和模型
安全
防止有害的系统输出和滥用
可控性
拥有监控和引导人工智能系统行为的机制
真实性和稳健性
即使具有意外或对抗性输入,也能实现正确的系统输出
治理
将最佳实践融入包括提供商和部署者的人工智能供应链
透明度
使利益相关者能够在与人工智能系统互动时做出明智的选择
服务和工具
AWS 提供各种服务和工具,帮助您负责任地设计、构建和运行人工智能系统。
在生成式人工智能中实施安全措施
Amazon Bedrock 护栏可帮助您实施针对自己的生成式人工智能应用程序量身定制,并且符合您负责任的人工智能政策的安全措施。除基础模型的原生保护之外,护栏还提供额外的可定制保护措施,从而提供业内最佳的安全保护,包括:
- 阻止高达 85% 的有害内容
- 过滤超过 75% 的 RAG 和汇总工作负载幻觉响应
- 支持客户在单个解决方案中自定义和应用安全性、隐私和真实性保护措施

基础模型(FM)评估
Amazon Bedrock 上的模型评估可帮助您根据准确性、耐用性和危害性等自定义指标,评估、比较和选择最适合您的具体使用案例的基础模型。您也可以使用 Amazon SageMaker Clarify 和 fmeval 进行模型评估。

发现偏差并解释预测内容
偏差是指数据的不平衡或模型在不同组之间的表现差异。 在数据准备期间、模型训练完成后和部署的模型中,Amazon SageMaker Clarify 可通过检查指定的属性来检测可能存在的偏差,从而帮助您减少偏差。
了解模型的行为对于开发更准确的模型和做出更好的决策非常重要。Amazon SageMaker Clarify 可提高模型行为可见性,因此您可以为利益相关者提供透明度,为人类提供用于决策的信息,并跟踪模型是否按预期执行。

监控与人工审核
监控对于维护高质量的机器学习(ML)模型和确保准确预测非常重要。Amazon SageMaker Model Monitor 可自动检测部署的模型所生成的不准确预测,并向您发出警报。借助 Amazon SageMaker Ground Truth,您可以在机器学习生命周期中应用人工反馈,以提高模型的准确性和相关性。

改善治理
Amazon SageMaker 中的机器学习治理提供了专门构建的工具,可让您更严格地控制和更密切地了解机器学习模型,从而改善机器学习项目治理。您可以在同一个地方轻松采集和共享模型信息,随时了解模型行为,例如偏差。

AWS 人工智能服务卡
人工智能服务卡为您提供了一种集中的资源方式来查找有关我们人工智能服务和模型的预期使用案例、限制、负责任的人工智能设计选择以及性能优化最佳实践的信息,提升了透明度。

社区贡献和协作
合作伙伴关系
通过与经济合作与发展组织人工智能工作组、人工智能伙伴关系和负责任的人工智能研究所等多个利益相关方组织的深入合作,以及与全球大学的战略合作伙伴关系,我们致力于与其他组织合作,以负责任的方式开发人工智能和机器学习技术并建立信任。
多元化、公平性和包容性
我们采取以人为本的方法,通过人工智能和机器学习奖学金计划以及 We Power Tech 等计划来教育下一代人工智能领导者,以增加技术领域处于弱势或代表性不足的人员获得实践学习、奖学金和指导的机会。
公共政策
我们在安全、透明和负责任的生成式人工智能方面的投入包括了与全球社区和政策制定者的合作,其中有 G7 人工智能广岛进程行为准则、英国人工智能安全峰会以及对 ISO 42001(推进负责任的人工智能的新基础标准)的支持。我们支持制定有效的基于风险的人工智能监管框架,以保护公民权利,同时允许持续创新。
研究
负责任的人工智能是 Amazon 积极发展的研发领域。我们与加州理工学院等学术界以及 Amazon Scholars 都建立了战略合作伙伴关系,后者中的顶尖专家应用其学术研究帮助 Amazon 打造负责任的人工智能工作流。
我们与客户共同创新,始终站在新趋势和研究的最前沿创造价值,通过 Amazon Research Awards 和 Amazon Science 发表的科学出版物持续提供研究资助。在这篇 Amazon Science 博客中,您可以收获更多有关负责任地构建生成式人工智能的科学知识,了解最重要的新兴挑战和解决方案。