Publicado en: Jan 22, 2021

En una conversación, a menudo hacemos pausas para buscar información o interrumpimos a quien habla con una respuesta antes de que termine de formular la pregunta. Hoy, lanzamos las API de streaming de conversaciones para que pueda configurar fácilmente el bot a fin de que pueda gestionar esas pausas e interrupciones que se podrían presentar durante las conversaciones. Con capacidades de streaming, los creadores de bot pueden mejorar rápidamente la capacidad de los agentes de centro de contacto virtual y los asistentes inteligentes. 

Antes, debía configurar los atributos del cliente e implementar código de Lambda para gestionar las pausas y las interrupciones que ocurren durante una conversación. Con una API de streaming de conversaciones, todas las entradas del usuario en diferentes turnos se procesan como una sola llamada a la API. El bot escucha de forma continua. Además, se puede diseñar para que responda de manera proactiva. Por ejemplo, un llamante puede solicitar pausar la conversación o poner la línea en “espera” para encontrar información, como los detalles de la tarjeta de crédito. Ahora puede agregar respuestas de “esperar” y “continuar” para gestionar este diálogo. El bot espera la entrada mientras el llamante recupera la información y, tras ello, continua la conversación en función de señales configuradas previamente. De la misma forma, las interrupciones se pueden configurar como atributos en una indicación. En términos generales, el diseño y la implementación de la conversación se simplifican y se administran más fácilmente.

A partir de hoy, puede utilizar las API de streaming de conversaciones en todas las regiones de AWS en las que funciona Amazon Lex. Para obtener más información, consulte la siguiente lista de recursos: