Übersicht
QnABot in AWS ist eine mehrkanalige, mehrsprachige Konversationsschnittstelle (Chatbot), die auf die Fragen, Antworten und das Feedback Ihrer Kunden antwortet. Es ermöglicht Ihnen, einen voll funktionsfähigen Chatbot über mehrere Kanäle hinweg bereitzustellen, darunter Chat, Sprache, SMS und Amazon Alexa.
Vorteile
Bereitstellung von personalisierten Tutorials sowie Frage- und Antwort-Support mit intelligenter mehrteiliger Interaktion. Verwenden Sie die Befehlszeilenschnittstelle (CLI), um Fragen aus Ihrer QnABot-Einrichtung zu importieren und zu exportieren. Verwenden Sie die Funktionen der natürlichen Sprachverarbeitung (NLP) von Amazon Kendra, um die Fragen der Menschen besser zu verstehen.
Automatisierung von Kundensupport-Workflows
Erstellen von ansprechenden, menschenähnlichen Interaktionen für Chatbots Verwenden Sie Absicht und Slot-Matching, um verschiedene Arten von Frage-und-Antwort-Workflows zu implementieren.
Technische Details
Sie können diese Architektur mit dem Implementierungsleitfaden und der dazugehörigen Vorlage für AWS CloudFormation automatisch bereitstellen.
Schritt 1
Stellen Sie diese AWS-Lösung in Ihrem AWS-Konto bereit. Öffnen Sie die Content-Designer-Benutzeroberfläche (UI) oder den Amazon Lex-Webclient und verwenden Sie Amazon Cognito zur Authentifizierung.
Schritt 2
Nach der Authentifizierung liefern Amazon API Gateway und Amazon Simple Storage Service (Amazon S3) die Inhalte der Content-Designer-Benutzeroberfläche.
Schritt 3
Konfigurieren Sie Fragen und Antworten im Content Designer. Die Benutzeroberfläche sendet Anfragen an API Gateway, um die Fragen und Antworten zu speichern.
Schritt 4
Die AWS-Lambda-Funktion von Content Designer speichert die Eingabe in Amazon OpenSearch Service in einem Fragenkatalogindex. Wenn Texteinbettungen verwendet werden, durchlaufen diese Anfragen ein Machine-Learning-Modell (ML), das auf Amazon SageMaker gehostet wird, um Einbettungen zu generieren, bevor sie in der Fragenbank von OpenSearch Service gespeichert werden.
Schritt 5
Chatbot-Benutzer interagieren über die Benutzeroberfläche des Webclients oder Amazon Connect mit Amazon Lex.
Schritt 6
Amazon Lex leitet Anfragen an die Bot-Fulfillment-Lambda-Funktion weiter. Chatbot-Benutzer können Anfragen auch über Amazon-Alexa-Geräte an diese Lambda-Funktion senden.
Schritt 7
Die Bot-Fulfillment-Lambda-Funktion nimmt die Benutzereingaben auf, übersetzt ggf. anderssprachige Anfragen mithilfe von Amazon Comprehend und Amazon Translate ins Englische, und sucht dann die Antwort in OpenSearch Service.
Bei der Verwendung von großen Sprachmodellen (LLMs), die allgemein als Fundamentmodelle (FMs) bezeichnet werden, wie z. B. Texterzeugung und Texteinbettung, durchlaufen diese Anfragen zunächst verschiedene ML-Modelle, die auf SageMaker bereitgestellt werden. SageMaker generiert die Suchabfrage und die Einbettungen, um sie mit denen zu vergleichen, die in der Fragenbank von OpenSearch Service gespeichert sind.
Schritt 8
Wenn ein Amazon Kendra-Index für Fallback konfiguriert ist, leitet die Bot-Fulfillment-Lambda-Funktion die Anfrage an Amazon Kendra weiter, wenn keine Treffer aus der OpenSearch-Service-Fragenbank zurückgegeben wurden. Das große Sprachmodell (LMM) zur Textgenerierung kann zur Erstellung der Suchanfrage und zur Synthese einer Antwort aus den Auszügen des zurückgegebenen Dokuments verwendet werden.
Schritt 9
Bei Benutzerinteraktionen mit der Bot-Fulfillment-Funktionen werden Protokolle und Metrikdaten erzeugt, die an Amazon Kinesis Data Firehose und anschließend an Amazon S3 zur späteren Datenanalyse gesendet werden.
Ähnliche Inhalte
- Datum der Veröffentlichung