Publicado: Jan 22, 2021

Em uma conversa, com frequência fazemos uma pausa para procurar informações ou interrompemos o interlocutor com a resposta antes dele terminar de fazer a pergunta. Estamos lançando hoje as APIs de conversa por streaming, para você poder configurar facilmente seu bot para manipular essas pausas e interrupções que costumam ocorrer em uma conversa. Com os recursos de streaming, os construtores de bots podem melhorar rapidamente a habilidade dos assistentes inteligentes e agentes virtuais das centrais de contato. 

Anteriormente, era preciso configurar atributos de cliente e implementar código Lambda para manipular as pausas e interrupções que ocorrem em uma conversa. Com uma API de conversa por streaming, todas as entradas do usuário entre os vários intervalos são processadas como uma única chamada de API. O bot escuta continuamente e pode ser designado para responder de maneira proativa. Por exemplo, um chamador poderia solicitar uma pausa na conversa ou para “aguardar“ na linha enquanto procura informações, como os detalhes do cartão de crédito. Agora você pode adicionar as respostas “espere“ e “continue“ para manipular esse diálogo. O bot espera a entrada enquanto o chamador procura informações e, depois, continua a conversa de acordo com pistas pré-configuradas. Da mesma forma, interrupções podem ser configuradas como atributos para um prompt. De um modo geral, o design e a implementação da conversa são simplificados e tornam-se mais fáceis de gerenciar.

A partir de hoje, você pode usar as APIs de conversa por streaming em todas as regiões da AWS onde o Amazon Lex opera. Para saber mais, consulte a lista de recursos a seguir: