Publicado: Apr 23, 2024

Hoje, estamos anunciando a disponibilidade geral das barreiras de proteção para o Amazon Bedrock, que permite aos clientes implementar proteções em grandes modelos de linguagem (LLMs) com base em seus casos de uso e políticas de IA responsáveis. Os clientes podem criar várias barreiras de proteção personalizadas para diferentes casos de uso e aplicá-las em vários FMs, fornecendo uma experiência de usuário consistente e padronizando os controles de segurança nas aplicações de IA generativa.

Embora muitos FMs tenham proteções integradas para filtrar conteúdo prejudicial, os clientes querem personalizar ainda mais as interações para proteger suas aplicações de IA generativa para uma experiência de usuário relevante e segura. As barreiras de proteção fornecem um conjunto abrangente de controles de segurança e privacidade para gerenciar as interações do usuário em aplicações de IA generativa. Primeiro, os clientes podem definir um conjunto de tópicos negados que são indesejáveis no contexto de sua aplicação. Em segundo lugar, eles podem configurar limites para filtrar conteúdo em categorias prejudiciais, como ódio, insultos, violência sexual, violência, má conduta (incluindo atividades criminosas) e ataques imediatos (jailbreak e injeções imediatas). Em terceiro lugar, os clientes podem definir um conjunto de palavras ofensivas e inapropriadas a serem bloqueadas em sua aplicação. Por fim, os clientes podem filtrar as entradas do usuário que contêm informações confidenciais (por exemplo, informações de identificação pessoal) ou redigir informações confidenciais em respostas de modelos com base em casos de uso.

As barreiras de proteção são compatíveis com conteúdo em inglês em todos os LLMs e modelos aperfeiçoados no Amazon Bedrock. As barreiras de proteção do Amazon Bedrock estão disponíveis nas regiões Leste dos EUA (N. da Virgínia) e Oeste dos EUA (Oregon).

Para saber mais sobre as barreiras de proteção do Amazon Bedrock, acesse a página do atributo e leia o blog de notícias.