Présentation
QnABot sur AWS est une interface conversationnelle (chatbot) multicanal et multilingue qui répond aux questions, réponses et commentaires de vos clients. Elle vous permet de déployer un chatbot entièrement fonctionnel sur plusieurs canaux, notamment le chat, la voix, les SMS et Amazon Alexa.
Avantages
Fournir des tutoriels personnalisés et une assistance sous forme de questions et réponses avec une interaction intelligente en plusieurs parties. Utilisez l'interface de ligne de commande (CLI) pour importer et exporter des questions de votre configuration QnABot. Utilisez les capacités de traitement du langage naturel (NLP) d'Amazon Kendra pour mieux comprendre les questions humaines.
Automatiser les flux d'assistance à la clientèle.
Créer des interactions intéressantes et proches de l'humain pour les chatbots. Utilisez la correspondance des intentions et des créneaux pour mettre en œuvre différents types de flux de questions-réponses.
Détails techniques
Vous pouvez déployer automatiquement cette architecture à l’aide du guide d’implémentation et du modèle AWS CloudFormation qui l’accompagne.
Étape 1
Déployez cette solution AWS sur votre compte AWS. Ouvrez l'interface utilisateur (UI) Content Designer ou le client Web Amazon Lex et utilisez Amazon Cognito pour vous authentifier.
Étape 2
Après l'authentification, Amazon API Gateway et Amazon Simple Storage Service (Amazon S3) délivrent le contenu de l'interface utilisateur Content Designer.
Étape 3
Configurez les questions et réponses dans le Content Designer. L'interface utilisateur envoie des demandes à la passerelle API pour enregistrer les questions et réponses.
Étape 4
La fonction AWS Lambda de Content Designer enregistre l'entrée dans Amazon OpenSearch Service dans un index de banque de questions. Si vous utilisez des intégrations de texte, ces demandes passent par un modèle de machine learning (ML), hébergé sur Amazon SageMaker, pour générer des intégrations avant d'être enregistrées dans la banque de questions d'OpenSearch Service.
Étape 5
Les utilisateurs du chatbot interagissent avec Amazon Lex via l'interface utilisateur du client Web ou Amazon Connect.
Étape 6
Amazon Lex transmet les demandes à la fonction Lambda Bot Fulfillment. Les utilisateurs de chatbots peuvent également envoyer des demandes à cette fonction Lambda via les appareils Amazon Alexa.
Étape 7
La fonction Lambda Bot Fulfillment prend l'entrée des utilisateurs et utilise Amazon Comprehend et Amazon Translate (si nécessaire) pour traduire les demandes non anglaises en anglais, puis recherche la réponse dans OpenSearch Service.
Si vous utilisez des grands modèles de langage (LLM) communément appelés modèles de fondation (FM), telles que la génération de texte et l'intégration de texte, ces demandes passent d'abord par différents modèles de machine learning hébergés sur SageMaker. SageMaker génère la requête de recherche et les intégrations à comparer avec celles enregistrées dans la banque de questions d' OpenSearch Service.
Étape 8
Si un index Amazon Kendra est configuré pour le repli, la fonction Lambda Bot Fulfillment transmet la demande à Amazon Kendra si aucune correspondance n'a été renvoyée par la banque de questions OpenSearch Service. La génération de texte LLM peut être utilisée pour créer la requête de recherche et pour synthétiser une réponse à partir des extraits du document renvoyé.
Étape 9
Les interactions des utilisateurs avec les fonctions Bot Fulfillment génèrent des journaux et des données métriques, qui sont envoyés à Amazon Kinesis Data Firehose, puis à Amazon S3 pour une analyse ultérieure des données.
Rubriques connexes
- Date de publication