Publié le: Mar 1, 2024
Nous sommes ravis d'annoncer la disponibilité générale du QnAIntent dans Amazon Lex, qui permet aux développeurs de connecter en toute sécurité des modèles de fondation (FM) aux données de l'entreprise pour la génération augmentée d'extraction (RAG). Présenté en avant-première à re:Invent en novembre 2023, le QnAIntent exploite les données d'entreprise et les modèles de fondation sur Amazon Bedrock pour générer des réponses pertinentes, précises et contextuelles. Le QnAIntent peut être utilisé avec des robots Lex nouveaux ou existants pour automatiser les questions fréquemment posées (FAQ) par le biais de canaux texte et vocaux, tels qu'Amazon Connect.
Le QnAIntent aide les développeurs de robots à automatiser les questions des clients et à éviter les transferts inutiles vers des représentants humains. Les développeurs n'ont plus besoin de créer des variantes d'intentions, d'exemples d'énoncés, de créneaux et d'instructions pour prévoir et gérer un large éventail de FAQ. En connectant simplement le nouveau QnAIntent aux sources de connaissances de l'entreprise, un bot peut immédiatement répondre aux questions sur le contenu autorisé, telles que « Quels documents dois-je soumettre pour une réclamation en cas d'accident ? ». Le QnAIntent prend actuellement en charge les bases de connaissances pour Amazon Bedrock, Amazon OpenSearch et Amazon Kendra. Les développeurs peuvent également choisir entre un résumé des réponses génératif ou une correspondance exacte des réponses, ce qui leur permet de contrôler les réponses fournies par le bot. QnAIntent est maintenant disponible en version préliminaire en anglais dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon). Pour en savoir plus, consultez la page de documentation d'Amazon Lex.