亚马逊AWS官方博客

负责任人工智能的良好实践:促进采用负责任且值得信赖的人工智能系统

AI 平衡

生成式人工智能的诞生使种种变革成为可能,我们的工作、生活和与世界互动的方式也可能由此受益。但是,这项技术如此强大,我们必须认识到随之而来的责任。

这段时间,从我与高管们的交谈中,我发现他们都意识到了,人们对可以开始使用人工智能这件事热情高涨,而对于生成式人工智能的出现则更是激动不已。但是高管们经常会问:“我怎样才能以安全负责的方式实施该技术,为我的客户提供出色体验?” 这是一个重要的问题,尤其是我们现在已经看到了生成式人工智能所带来的新挑战。

在这篇博文中,我将分享负责任人工智能的一些考虑事项和良好实践,这些考虑事项和良好实践的重点是确保公平性、透明度、问责制和隐私,我还将谈一谈高管、董事会成员和领导者在采用这项令人兴奋的新技术并着手创新时,应考虑采取的负责任构建措施。

生成式人工智能时代的负责任人工智能

生成式人工智能具有更强大的能力和越来越广泛的普及性,它使人们有机会进行创新、取得重大进展和收获显著成果,着实令人振奋。但与此同时,它也对人们提出了更高的要求,我们需要承担起更大的责任,更好地理解和解决潜在的偏见和危害。就在最近,AWS 与白宫、政策制定者、技术组织和人工智能社区联合起来,通过自愿承诺的方式,推动负责任且安全地使用人工智能。因为我们都认识到,要以安全且负责任的方式开发未来的生成式人工智能模型,需要各方面的共同努力。

负责任人工智能良好实践对于促进在人工智能系统使用方面形成担责、问责和透明度机制至关重要。随着人工智能技术的不断进步并渗透到我们生活的方方面面,制定指导方针和框架以促进负责任的人工智能采用势在必行。这些良好实践应解决与人工智能相关的潜在风险、偏见和社会影响,同时还能利用人工智能的变革潜力使个人、组织和社会受益。

下文论述的这九条负责任人工智能良好实践不仅限于技术层面,还侧重于人工智能采用的组织和文化层面。这些良好实践强调,为了在组织内部促进负责任人工智能文化的形成,组织需要领导层的承诺、跨职能团队间的密切协作以及制定持续的教育和意识培养计划。

采取以人为本的方法

1.建立多元化、多学科的团队

要确定需要制定哪些必要的政策和战略,组建一支由人工智能专家、数据科学家、伦理学家、法律专业人员和领域专家等组成的跨专业多元化团队不失为良策。该团队应全面了解人工智能技术、负责任人工智能的考虑事项、法律框架以及部署人工智能的具体领域。这种多学科方法可确保对人工智能的影响形成整体视角和全面理解。在任何组织中,这样一支团队对塑造和贯彻负责任人工智能思维都起着关键作用。

重要的是要记住,仅凭单个实体或团队的力量无法实现负责任人工智能;这需要多方协作,需要人工智能生态系统中所有利益相关者的积极参与和承诺。

2.将教育作为一项要务

有关负责任人工智能实践的教育不能仅限于人工智能开发人员和数据科学家,还必须涵盖员工、利益相关者和更广泛的社区。教育计划应侧重于提高对负责任人工智能考虑事项、潜在风险和良好实践(包括负责任人工智能政策和程序)的意识,尤其应将重点放在提供有关减少偏见、隐私保护、人工智能系统可解释性以及负责任地使用人工智能技术的培训方面。

此外,我还建议组织创建一些内部资源,包括指南、良好实践文档、案例研究和负责任人工智能实施范例。这些资源应易于访问并定期更新,以反映负责任人工智能不断变化的形势。这里提供了一些有用的资源。

3.在人工智能的能力与人类判断之间取得平衡

生成式人工智能技术可以创建高度逼真的内容,包括文本、图像和视频。但是,人工智能也可能生成看似可信但经不起验证的错误输出。您可能已经看过最近的一篇新闻报道,一位律师使用生成式人工智能来准备案情摘要,但生成式人工智能引述的案例并不存在。这些不实可能是由于过度优化、数据偏差、情境理解有限以及训练数据不足或过时等因素造成的。

尽管人工智能系统在简化流程和提高效率方面能力突出,但仍应充分考虑人类的判断。人类具有广泛的知识、因果推理、同理心、同情心和情境理解等基本素质,这些在复杂和高风险的决策场景中可能至关重要。必须在人工智能的能力和人类判断之间取得适当的平衡,以促进负责任地使用和部署涉及人工智能的应用程序。

您应该根据人工智能系统决策的关键性和复杂性来确定适当的人类参与水平。参与水平可以分为三种:人在环中,即人类与人工智能系统共同在决策过程中发挥积极作用;人在环上,即人类可以监督和控制人工智能系统,但不积极参与实时决策过程;最后一种是人优于环,即人类掌握最终决策权并控制人工智能系统。

确定新的机制和技术,以减少偏见和提高透明度

4.减少偏见

生成式人工智能模型是使用大量数据训练而成的。如果偏见被引入基础模型或训练数据,这些偏见可能会在生成的输出中被放大和延续,如不加以控制,则将导致不公平的实施,延续刻板印象,并限制多元化和代表性。如果训练数据存在偏差、样本量存在悬殊或相关特征缺乏多元化,则可能会出现偏见。

减少人工智能中的偏见需要采用双管齐下的方法。首先,组织应在人工智能模型训练期间优先使用多元化且具有广泛代表性的数据。整合多个具有代表性的数据集,从而覆盖各种观点、背景和人群,有助于减少偏见。其次,在人工智能系统开发和部署的整个过程中采用可减少偏见的技术也至关重要。这包括对数据进行预处理以减少偏见,以及实施一些后处理技术,以促进生成公平且经过调整的人工智能输出。

5.提高透明度和可解释性

生成式人工智能模型可能很复杂,人们可能很难理解模型是如何得出某个输出的。您应该考虑何时需要告知最终用户,他们正在使用生成式人工智能。同样重要的是,您还需要考虑何时可能需要解释生成式人工智能模型是如何得出某个输出的。

您应该将重点放在建立机制上,这些机制应当能够促进人们采用与模型开发和部署相关的适当流程,可能包括模型架构、输入数据摘要、训练过程和决策机制。不妨利用可解释的算法和技术,例如决策树或基于规则的系统,来增强对模型工作原理的理解。这可能涉及特征重要性分析、注意力机制或可突出显示对模型输出影响最大的因素的显著性图等技术。

6.测试、测试、再测试

持续的测试和评估对于确保负责任人工智能计划的有效性十分必要。确保此测试既涵盖模型,又涵盖您用来训练模型的数据集。在评估负责任人工智能实践时,应考虑纳入评估公平性的指标,这些指标将衡量不同人群的代表性是否存在悬殊或结果是否存在偏见。此外,还应该通过调查、反馈机制或用户体验评估来衡量用户对人工智能系统的满意度和信任度。考虑适当地记录这些调查发现并与利益相关者沟通,以推动负责任人工智能计划的改进。

引入关键的保障和防护机制,以尽可能降低风险并保护隐私

7.纳入隐私考虑事项

生成式人工智能依赖大型数据集来训练模型。必须实施有关个人数据处理的良好实践,包括在训练期间遵循这些实践以及实施匿名化技术,以帮助尽可能降低风险。您还应考虑适用的隐私法律法规,包括数据收集、处理和使用限制,并将隐私考虑事项纳入任何人工智能治理框架。

8.为应用程序定义具体的应用场景

广泛使用生成式人工智能可能很诱人,甚至有些人希望生成式人工智能成为“百事通”,可以回答数不胜数的开放式问题。但是,我建议 AWS 客户不要这样做,而是应该为应用程序定义具体的高价值应用场景,专注于满足特定的业务需求。为应用程序定义了具体的应用场景后,您就可以确立更明确的问责制和所有权,更轻松地实现透明度,并简化风险评估和缓解措施。这样做也使您可以实施更具针对性的测试、监控和错误处理程序。

9.保护和尊重知识产权

生成式人工智能的兴起带来了复杂的知识产权(IP)挑战,例如输入、输出和模型本身的版权、人工智能生成内容的所有权以及商业秘密保护。由于生成式人工智能模型可以独立创作内容,这一自主性质模糊了传统意义上的创作者权益和所有者权益的边界。因此,使用生成式人工智能需要仔细考虑知识产权法律框架,以促进输入和输入的适当使用。

将人工智能系统中使用的专有算法、技术或流程作为商业秘密加以保护至关重要,这需要采取强大的安全措施来防止未经授权的访问或泄露机密信息。此外,了解给定模型的数据流也很重要,您需要确保模型是安全的,并且您的输入不会以您不希望的方式与第三方共享。

结论

积极采取措施,以负责任的方式构建人工智能,对于充分利用人工智能的潜力,同时促进取得负责任且公平的成果至关重要。适逢带领组织步入人工智能创新下一个十年的良机,高管们需要在把握机遇的同时,促进以安全且值得信赖的方式利用人工智能。通过遵循透明、公平、问责和隐私原则并解决偏见问题,组织可以在建立信任、促进社会公益和降低人工智能系统相关风险的同时,充分利用生成式人工智能的潜力。

本篇作者

Tom Godden

Tom Godden

Tom Godden 是 Amazon Web Services(AWS)的 Enterprise Strategist 兼 Evangelist。在加入 AWS 之前,Tom 曾担任 Foundation Medicine 的首席信息官,他帮助建立了受 FDA 监管的先进癌症基因组学诊断、研究和患者预后平台,以改善疗效并为开发下一代精准医疗提供信息。此前,Tom 曾在荷兰莱茵河畔阿尔芬的 Wolters Kluwer 集团担任过多个高级技术领导职务,在医疗保健和生命科学行业拥有超过 17 年的经验。Tom 拥有亚利桑那州立大学的学士学位。