Guardrails for Amazon Bedrock

Implemente proteções personalizadas de acordo com os requisitos das aplicações e das políticas de IA responsáveis

Crie aplicações de IA responsáveis com as barreiras de proteção do Amazon Bedrock

Veja demonstrações sobre como criar e aplicar barreiras de proteção personalizadas com modelos de base (FMs) para implementar políticas de IA responsável em suas aplicações de IA generativa.

Ofereça um nível consistente de segurança de IA em todas as suas aplicações

O Guardrails for Amazon Bedrock avalia as entradas do usuário e as respostas do FM com base em políticas específicas de casos de uso e fornece uma camada adicional de proteção, independentemente do FM subjacente. Barreiras de proteção podem ser aplicadas em todos os grandes modelos de linguagem (LLMs) no Amazon Bedrock, incluindo modelos aperfeiçoados. Os clientes podem criar várias barreiras de proteção, cada uma configurada com uma combinação variada de controles, e usá-las em diferentes aplicações e casos de uso. 

Captura de tela da interface

Bloqueie tópicos indesejáveis nas aplicações de IA generativa

As organizações reconhecem a necessidade de gerenciar as interações nas aplicações de IA generativa para garantir uma experiência relevante e segura para os usuários. Elas querem personalizar ainda mais as interações para se aterem em tópicos relevantes aos negócios e se alinharem às políticas da empresa. Usando uma breve descrição em linguagem natural, o Guardrails for Amazon Bedrock permite que você defina um conjunto de tópicos a serem evitados no contexto da aplicação. O Guardrails detecta e bloqueia as entradas de usuários e as respostas do FM que se enquadrarem nos tópicos restritos. Por exemplo, um assistente de banco pode ser projetado para evitar tópicos relacionados à consultoria de investimentos.

filtros de conteúdo do Guardrails for Amazon Bedrock

Filtre conteúdo nocivo com base em políticas de IA responsáveis

O Guardrails for Amazon Bedrock fornece filtros de conteúdo com limites configuráveis para filtrar conteúdo nocivo, incluindo ódio, insultos, sexo, violência, má conduta (incluindo atividades criminosas) e ataques de prompt (injeção e jailbreak de prompts). A maioria dos FMs já fornece proteções integradas para evitar a geração de respostas nocivas. Além dessas proteções, o Guardrails permite que você configure limites nas diferentes categorias para filtrar interações nocivas. Aumentar a resistência do filtro aumenta a agressividade da filtragem. O Guardrails avalia automaticamente as consultas de usuários e as respostas do FM para detectar e ajudar a evitar conteúdo que se enquadre em categorias restritas. Por exemplo, um site de comércio eletrônico pode criar um assistente on-line para evitar o uso de linguagem imprópria, como discurso de ódio ou insultos.

Tópicos negados do Guardrails for Amazon Bedrock

Oculte informações confidenciais (PII) para proteger a privacidade

O Guardrails for Amazon Bedrock permite detectar conteúdo confidencial, como informações de identificação pessoal (PII), nas entradas dos usuários e respostas de FMs. Você pode selecionar em uma lista de PIIs predefinidas ou definir um tipo personalizado de informações confidenciais usando expressões regulares (RegEx). Com base no caso de uso, você pode rejeitar seletivamente as entradas que contêm informações confidenciais ou ocultá-las nas respostas dos FMs. Por exemplo, você pode editar as informações pessoais dos usuários enquanto gera resumos das transcrições de conversas com clientes e atendentes em uma central de atendimento.

pseudonimização e ícone do GDPR

Bloqueie conteúdo impróprio com um filtro de palavras personalizadas

O Guardrails for Amazon Bedrock permite que você configure um conjunto de palavras ou frases personalizadas que deseja detectar e bloquear na interação entre seus usuários e aplicações de IA generativa. Isso também permitirá que você detecte e bloqueie palavrões, bem como palavras personalizadas específicas, como nomes de concorrentes ou outras palavras ofensivas.

captura de tela do filtro de conteúdo