亚马逊AWS官方博客

Amazon Bedrock 防护机制(预览版)可针对您的用例和负责任的人工智能策略实施定制的保护措施



作为负责任的人工智能(AI)策略的一部分,您现在可以使用 Amazon Bedrock 防护机制(预览版),通过实施针对您的用例和负责任的人工智能策略定制的保护措施,来促进用户与生成式人工智能应用程序之间的安全交互。

AWS 致力于以负责任、以人为本的方式开发生成式人工智能,专注于教育和科学领域,帮助开发人员在整个人工智能生命周期整合负责任的人工智能。借助 Amazon Bedrock 防护机制,您可以持续实施保护措施,提供符合公司政策和原则的相关、安全的用户体验。防护机制可帮助您定义拒绝的主题和内容筛选器,以便从用户与应用程序之间的交互中删除不希望出现的有害内容。这在基础模型(FM)中内置的任何保护措施之上提供了额外的控制级别。

您可以对 Amazon Bedrock 中的所有大型语言模型(LLM)应用防护机制,包括微调模型和 Amazon Bedrock 代理。这样,您就可以在跨应用程序部署首选项时保持一致,从而在根据需求密切管理用户体验的同时,安全地进行创新。通过标准化的安全和隐私控制,Amazon Bedrock 防护机制可以帮助您构建符合负责任的人工智能目标的生成式人工智能应用程序。

Amazon Bedrock 防护机制

下面我快速介绍一下 Amazon Bedrock 防护机制中可用的主要控件。

主要控件
通过 Amazon Bedrock 防护机制,您可以定义一组策略,以便在应用程序中创建保护措施。

拒绝的主题 – 您可以使用简短的自然语言描述来定义一组在应用程序上下文中不希望出现的主题。例如,作为银行的开发人员,您可能需要为网上银行应用程序设置一个助手,以避免提供投资建议。

我指定了一个名为“投资建议”的拒绝主题,还提供了自然语言描述,例如,“投资建议是指以产生回报或实现特定财务目标为目的,就资金或资产的管理或分配提供咨询、指导或建议”。

Amazon Bedrock 防护机制

Amazon Bedrock 防护机制

内容筛选器 – 您可以配置阈值以筛选仇恨、侮辱、性和暴力等类别的有害内容。虽然许多 FM 已经提供了内置保护,来防止产生不希望出现的有害响应,但防护机制可为您提供额外的控制,根据您的用例和负责任的人工智能策略,将此类互动筛选到必要的程度。筛选器强度越高,筛选就越严格。

Amazon Bedrock 防护机制

PII 编辑(正在开发中)- 您可以选择一组个人身份信息(PII),比如姓名、电子邮件地址和电话号码,这些信息可以在 FM 生成的响应中编辑,或阻止用户输入(如果其中包含 PII)。

Amazon Bedrock 防护机制与 Amazon CloudWatch 相集成,因此,您可以监控和分析违反防护机制中定义的策略的用户输入和 FM 响应。

申请试用预览版
Amazon Bedrock 防护机制现已推出限量预览版。如果您想访问 Amazon Bedrock 防护机制,请通过常用的 AWS Support 联系方式联系我们。

在预览期间,可将防护机制应用于 Amazon Bedrock 中的所有大型语言模型(LLM),包括 Amazon Titan Text、Anthropic Claude、Meta Llama 2、AI21 Jurassic 和 Cohere Command。还可以将防护机制与自定义模型和 Amazon Bedrock 代理一起使用。

要了解更多信息,请访问 Amazon Bedrock 防护机制网页。

— Antje