发布于: Apr 23, 2024

今天,我们宣布全面推出 Amazon Bedrock 的防护机制,它使客户能够根据其应用场景和负责任的人工智能策略,在大型语言模型 (LLM) 中实施保障措施。客户可以创建针对不同应用场景量身定制的多项防护机制,并将其应用于多个 LLM,从而提供一致的用户体验并实现生成式人工智能应用程序安全控制的标准化。

尽管许多基础模型内置了筛除有害内容的保护措施,但客户希望进一步定制交互以保护其生成式人工智能应用程序,从而提供相关且安全的用户体验。防护机制提供了一套全面的安全和隐私控制措施,用于管理生成式人工智能应用程序中的用户交互。首先,客户可以定义一组拒绝的主题,这些主题在其应用程序环境中不受欢迎。其次,他们可以配置阈值来筛除有害类别的内容,例如仇恨、侮辱、性、暴力、不当行为(包括犯罪活动)和提示性攻击(越狱和提示注入)。第三,客户可以定义一组应用程序中屏蔽的令人反感和不恰当的词语。最后,客户可以筛除包含敏感信息(例如个人身份信息)的用户输入,或根据应用场景编辑模型响应中的机密信息。

所有 LLM 和 Amazon Bedrock 上经过微调的模型均支持对英语内容使用防护机制。Amazon Bedrock 的防护机制在美国东部(弗吉尼亚州北部)和美国西部(俄勒冈州)区域推出。

要详细了解 Amazon Bedrock 的防护机制,请访问功能页面并阅读新闻博客