Publicado en: Mar 1, 2024

Nos complace presentar la disponibilidad general de QNAIntent en Amazon Lex, que permite a los desarrolladores conectar de forma segura los modelos fundacionales (FM) con los datos de la empresa para la generación aumentada de recuperación (RAG). La versión preliminar de QNAIntent se presentó en re:Invent en noviembre de 2023. Este servicio aprovecha los datos empresariales y los modelos fundacionales de Amazon Bedrock para generar respuestas relevantes, precisas y contextuales. QnAIntent se puede usar con bots de Lex nuevos o existentes para automatizar las preguntas frecuentes (FAQ) mediante canales de texto y voz, como Amazon Connect.

QNAIntent ayuda a los desarrolladores de bots a automatizar las preguntas de los clientes y evitar transferencias innecesarias a representantes humanos. Los desarrolladores ya no necesitan crear variaciones de intenciones, expresiones de ejemplo, ranuras e indicaciones para predecir y gestionar una amplia variedad de preguntas frecuentes. Con solo conectar el nuevo QNAIntent a las fuentes de conocimiento de la empresa, un bot puede responder inmediatamente a preguntas con el contenido permitido, como “¿qué documentos debo presentar para una reclamación por accidente?”. Actualmente, QNAIntent es compatible con las bases de conocimiento de Amazon Bedrock, Amazon OpenSearch y Amazon Kendra. Los desarrolladores también pueden elegir entre un resumen de respuestas generativas o una coincidencia de respuesta exacta, lo que les permite controlar la respuesta dada por el bot. QNAIntent ahora está disponible de forma general en inglés en las regiones Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón). Para obtener más información, visite la página de la documentación de Amazon Lex.