Información general
QnABot en AWS es una interfaz de conversación (chatbot) multicanal y multilingüe que responde a las preguntas, respuestas y comentarios de sus clientes. Permite implementar un chatbot totalmente funcional a través de varios canales, como chat, voz, SMS y Amazon Alexa.
Beneficios
Ofrece tutoriales personalizados y facilita el modelo de preguntas y respuestas con una interacción inteligente multiparte. Use la interfaz de la línea de comandos (CLI) para importar y exportar preguntas desde su configuración de QnABot. Use las capacidades de procesamiento de lenguaje natural (NLP) de Amazon Kendra para comprender mejor las preguntas humanas.
Automatice los flujos de trabajo de atención al cliente.
Cree interacciones atrayentes y similares a las humanas para los chatbots. Use las coincidencias de intenciones y espacios para implementar diferentes tipos de flujos de trabajo de preguntas y respuestas.
Detalles técnicos
Puede implementar automáticamente esta arquitectura con la guía de implementación y la plantilla de AWS CloudFormation asociada.
Paso 1
Implemente esta solución de AWS en su cuenta de AWS. Abra la interfaz de usuario (UI) del diseñador de contenidos o el cliente web de Amazon Lex y utilice Amazon Cognito para autenticarse.
Paso 2
Tras la autenticación, Amazon API Gateway y Amazon Simple Storage Service (Amazon S3) entregan el contenido de la interfaz de usuario del diseñador de contenidos.
Paso 3
Configure las preguntas y respuestas en el diseñador de contenidos. La interfaz de usuario envía las solicitudes a API Gateway para guardar las preguntas y respuestas.
Paso 4
La función de AWS Lambda del diseñador de contenidos guarda la entrada en Amazon OpenSearch Service en un índice de banco de preguntas. Si utiliza incrustaciones de texto, estas solicitudes pasan por un modelo de machine learning (ML), alojado en Amazon SageMaker, para generar incrustaciones antes de guardarlas en el banco de preguntas de OpenSearch Service.
Paso 5
Los usuarios del chatbot interactúan con Amazon Lex a través de la interfaz de usuario del cliente web o de Amazon Connect.
Paso 6
Amazon Lex reenvía las solicitudes a la función de Lambda Bot Fulfillment. Los usuarios del chatbot también pueden enviar solicitudes a esta función de Lambda a través de dispositivos con Amazon Alexa.
Paso 7
La función de Lambda Bot Fulfillment toma la entrada del usuario y usa Amazon Comprehend y Amazon Translate (en caso de que sea necesario) para traducir las solicitudes que no están en inglés al inglés y, a continuación, busca la respuesta en OpenSearch Service.
Si utiliza modelos de lenguaje de gran tamaño (LLM), conocidos como modelos fundacionales (FM), como la generación y la incrustación de texto, estas solicitudes pasan primero por varios modelos de ML alojados en SageMaker. SageMaker genera la consulta de búsqueda y las incrustaciones para compararlas con las guardadas en el banco de preguntas de OpenSearch Service.
Paso 8
Si un índice de Amazon Kendra está configurado como opción alternativa, la función de Lambda Bot Fulfillment reenvía la solicitud a Amazon Kendra si el banco de preguntas de OpenSearch Service no devuelve ninguna coincidencia. Puede utilizar el LLM de generación de texto para crear la consulta de búsqueda y sintetizar una respuesta a partir de los extractos del documento devuelto.
Paso 9
Las interacciones de los usuarios con la función Bot Fulfillment generan registros y datos de métricas, que se envían a Amazon Kinesis Data Firehose y, a continuación, a Amazon S3 para su posterior análisis de datos.
Contenido relacionado
- Fecha de publicación