Veröffentlicht am: Jan 22, 2021

Wir unterbrechen ein Gespräch häufig, um Informationen nachzuschlagen, oder unterbrechen den Sprecher mit einer Antwort, bevor er die Frage vollständig stellen kann. Heute führen wir die Streaming-Gesprächs-APIs ein, mit denen Sie in Ihrem Bot einfach konfigurieren können, wie er Pausen und Unterbrechungen während eines Gesprächs behandelt. Mit Streaming-Funktionen können Bot-Entwickler die Fähigkeiten von Agents in virtuellen Kontaktzentren und von Smart Assistants verbessern. 

Früher mussten Sie Client-Attribute konfigurieren und Lambda-Code implementieren, um die Pausen und Unterbrechungen in einem Gespräch zu verarbeiten. Mit einer Streaming-Gesprächs-API werden alle Benutzereingaben in mehreren Runden als ein API-Anruf verarbeitet. Der Bot hört ständig zu und kann so entwickelt werden, dass er proaktiv antwortet. Beispiel: Ein Anrufer bittet, das Gespräch zu unterbrechen oder zu pausieren, um Informationen wie Kreditkartendetails zu suchen. Sie können jetzt die Antworten „warten“ und „fortfahren“ hinzufügen, um diesen Dialog zu verarbeiten. Der Bot wartet auf eine Eingabe, während der Anrufer Informationen abruft, und setzt dann das Gespräch auf Grundlage der vorkonfigurierten Hinweise fort. Unterbrechungen können dementsprechend als Attribute für eine Eingabeaufforderung konfiguriert werden. Insgesamt wurden das Design und die Implementierung des Gesprächs vereinfacht. Diese sind jetzt leichter zu verwalten.

Ab heute können Sie die Streaming-Gesprächs-APIs in allen AWS-Regionen verwenden, in denen Amazon Lex tätig ist. Weitere Informationen finden Sie in der folgenden Ressourcenliste: