Publié le: Jan 22, 2021

Dans une conversation, nous mettons souvent en pause pour rechercher des informations ou interrompons un interlocuteur avec une réponse avant qu’il ne finisse de poser une question. Aujourd’hui, nous lançons les API de conversation streaming afin que vous puissiez facilement configurer votre bot pour qu’il gère ces pauses et interruptions d’une conversation. Grâce à des fonctionnalités de streaming, les créateurs de bots ont la possibilité d’améliorer rapidement la capacité des agents virtuels de centre de contact et des assistants intelligents. 

Auparavant, vous deviez configurer les attributs clients et implémenter un code Lambda pour traiter les pauses et les interruptions d’une conversation. Grâce à une API de conversation streaming, toutes les entrées des utilisateurs sur plusieurs tours sont traitées dans un appel d’API. Le bot écoute en continu et peut être conçu pour répondre de façon proactive. Par exemple, un mandataire peut demander à mettre en pause une conversation ou « mettre en attente » la ligne pour trouver des informations telles que des coordonnées bancaires. Désormais, vous avez la possibilité d’ajouter des réponses « wait » et « continue » pour gérer ce dialogue. Le bot attend une entrée pendant que le mandataire obtient les informations puis continue la conversation en fonction des files d’attente pré-configurées. De la même manière, les interruptions peuvent être configurées comme attributs dans l’invite. Globalement, la conception et l’implémentation de la conversation sont simplifiées et plus faciles à gérer.

Dès aujourd’hui, vous pouvez utiliser les API de conversation streaming dans toutes les régions AWS où Amazon Lex est disponible. Pour en savoir plus, consultez la liste des ressources suivante :