Publié le: Jun 7, 2023

Amazon Lex est un service qui permet de créer des interfaces conversationnelles dans les applications reposant sur la voix et le texte. Grâce à Amazon Lex, vous pouvez créer rapidement et facilement des robots conversationnels (« chatbots ») sophistiqués, des agents virtuels et des systèmes de réponse vocale interactive (RVI). Aujourd'hui, nous sommes ravis de présenter Test Workbench sur Amazon Lex, qui permet aux clients de créer et d'exécuter des ensembles de tests afin de mesurer les performances des robots et d'accélérer leur développement.

Les clients doivent continuellement mettre à jour leurs robots à mesure qu'ils ajoutent de nouveaux cas d'utilisation ou qu'ils améliorent l'expérience de conversation sur des cas d'utilisation existants. À chaque mise à jour, les clients doivent s'assurer que leur bot répond aux critères de performance. Jusqu'à présent, les clients devaient créer manuellement des ensembles de tests en organisant les données conversationnelles et en écrivant des scripts personnalisés pour exécuter les tests. Ces tests ont généré un ensemble limité de métriques non standardisées qui ne fournissaient pas suffisamment d'informations pour déboguer et améliorer le bot. En outre, ils ont dû créer et gérer l'infrastructure de la suite de tests. Avec Test Workbench, les clients peuvent créer et exécuter des ensembles de tests en quelques clics, accélérant ainsi le développement et les tests des robots. Il permet aux clients de générer automatiquement des ensembles de tests audio et textuels à partir des interactions des utilisateurs, ce qui permet d'économiser du temps et des efforts manuels. Les clients peuvent également télécharger des conversations de test personnalisées au format CSV. Les résultats de l'exécution des tests fournissent des informations agrégées et détaillées sur la transcription vocale, la correspondance des intentions et la résolution des créneaux.

Test Workbench est généralement disponible dans toutes les régions AWS où Amazon Lex V2 fonctionne. Pour en savoir plus, consultez notre blog, regardez la vidéo explicative ou consultez la page de documentation