Publicado: Mar 1, 2024
Temos o prazer de anunciar a disponibilidade geral do QnAIntent no Amazon Lex. O recurso permite que desenvolvedores conectem com segurança os modelos de base (FMs) aos dados da empresa para fins de geração aumentada de recuperação (RAG). Apresentado na versão de pré-visualização no re:Invent em novembro de 2023, o QnAIntent utiliza dados corporativos e modelos de base no Amazon Bedrock para gerar respostas relevantes, precisas e contextuais. O QnAIntent pode ser usado com bots novos ou atuais do Lex para automatizar perguntas frequentes (FAQs) por meio de canais de texto e voz, como o Amazon Connect.
O QnAIntent ajuda desenvolvedores de bots a automatizar as perguntas dos clientes e evitar transferências desnecessárias para representantes humanos. Os desenvolvedores não precisam mais criar variações de intenções, exemplos de frases, slots e instruções para prever e lidar com uma grande variedade de perguntas frequentes. Basta conectar o novo QnAIntent às fontes de conhecimento da empresa para que os bots respondam imediatamente perguntas sobre o conteúdo permitido, como “quais documentos eu preciso enviar para uma solicitação de reembolso de acidente?”. O QnAIntent oferece suporte a bases de conhecimento para Amazon Bedrock, Amazon OpenSearch e Amazon Kendra. Além disso, os desenvolvedores podem escolher entre um resumo de respostas generativas ou uma correspondência exata da resposta, o que permite controlar o conteúdo da resposta do bot. O QnAIntent já está disponível para o público em geral no idioma inglês nas regiões Leste dos EUA (Norte da Virgínia) e Oeste dos EUA (Oregon). Para saber mais, acesse a página de documentação do Amazon Lex.