Veröffentlicht am: Mar 1, 2024
Wir freuen uns, Ihnen die allgemeine Verfügbarkeit von QnAIntent in Amazon Lex ankündigen zu können, mit dem Entwickler Basismodelle (FM) sicher mit Unternehmensdaten für Retrieval Augmented Generation (RAG) verbinden können. QnAIntent, das im November 2023 auf der re:Invent als Vorschauversion veröffentlicht wurde, nutzt Unternehmensdaten und Basismodelle auf Amazon Bedrock, um relevante, genaue und kontextbezogene Antworten zu generieren. QnAIntent kann mit neuen oder vorhandenen Lex-Bots verwendet werden, um häufig gestellte Fragen (FAQs) über Text- und Sprachkanäle wie Amazon Connect zu automatisieren.
QnAIntent hilft Bot-Entwicklern dabei, Kundenfragen zu automatisieren und unnötige Weiterleitungen an Mitarbeiter zu vermeiden. Entwickler müssen nicht länger Variationen von Absichten, Beispieläußerungen, Slots und Eingabeaufforderungen erstellen, um ein breites Spektrum an häufig gestellten Fragen vorherzusagen und zu bearbeiten. Wenn das neue QnAIntent-Feature einfach mit den Wissensquellen des Unternehmens verbunden wird, kann ein Bot sofort Fragen zu den erlaubten Inhalten beantworten, wie z. B. „Welche Dokumente muss ich für die Meldung eines Unfallschadens einreichen?“. Aktuell unterstützt QnAIntent Wissensdatenbanken für Amazon Bedrock, Amazon OpenSearch und Amazon Kendra. Entwickler können auch zwischen einer Zusammenfassung der generativen Antworten oder einer exakten Übereinstimmung der Antworten wählen, sodass Entwickler Kontrolle über den Inhalt der Bot-Antwort haben. QnAIntent ist jetzt in den Regionen USA Ost (Nord-Virginia) und USA West (Oregon) in englischer Sprache allgemein verfügbar. Weitere Informationen finden Sie auf der Dokumentationsseite zu Amazon Lex.