Guardrails for Amazon Bedrock já pode detectar alucinações e proteger aplicações usando qualquer FM
O Guardrails for Amazon Bedrock permite que os clientes implementem proteções com base em requisitos das aplicações e políticas responsáveis de IA. Hoje, o Guardrails adiciona verificações de fundamento contextual e apresenta uma nova API ApplyGuardrail para criar aplicações de IA generativa confiáveis usando qualquer modelo de base (FM).
Os clientes confiam nas funcionalidades inerentes dos FMs para gerar respostas fundamentadas (confiáveis) baseadas nos dados de origem da empresa. No entanto, os FMs podem combinar várias informações e gerar informações incorretas ou novas, o que afeta a confiabilidade da aplicação. Agora, com as verificações de fundamento contextual, o Guardrails pode detectar alucinações nas respostas do modelo para aplicações de RAG (geração aumentada de recuperação) e conversação. Essa proteção ajuda a detectar e filtrar respostas que são factualmente incorretas com base em uma fonte de referência e irrelevantes para a consulta dos usuários. Os clientes podem configurar limites de confiança para filtrar respostas com baixa confiança de fundamento ou relevância.
Além disso, para oferecer suporte à escolha de aplicações de proteção usando diferentes FMs, o Guardrails já oferece suporte à API ApplyGuardrail para avaliar as entradas dos usuários e as respostas dos modelos para qualquer FM personalizado e de terceiros, além dos FMs que já têm suporte no Amazon Bedrock. A API ApplyGuardrail já oferece segurança e governança centralizadas para todas as aplicações de IA generativa.
O Guardrails é a única oferta de um dos principais provedores de nuvem que fornece proteções de segurança, privacidade e veracidade em uma única solução. A verificação de fundamento contextual e a API ApplyGuardrail têm suporte em todas as regiões da AWS que oferecem o Guardrails for Amazon Bedrock.
Para saber mais sobre as barreiras de proteção do Amazon Bedrock, acesse a página do recurso e leia o blog de notícias.