Veröffentlicht am: Jan 22, 2021
Wir unterbrechen ein Gespräch häufig, um Informationen nachzuschlagen, oder unterbrechen den Sprecher mit einer Antwort, bevor er die Frage vollständig stellen kann. Heute führen wir die Streaming-Gesprächs-APIs ein, mit denen Sie in Ihrem Bot einfach konfigurieren können, wie er Pausen und Unterbrechungen während eines Gesprächs behandelt. Mit Streaming-Funktionen können Bot-Entwickler die Fähigkeiten von Agents in virtuellen Kontaktzentren und von Smart Assistants verbessern.
Früher mussten Sie Client-Attribute konfigurieren und Lambda-Code implementieren, um die Pausen und Unterbrechungen in einem Gespräch zu verarbeiten. Mit einer Streaming-Gesprächs-API werden alle Benutzereingaben in mehreren Runden als ein API-Anruf verarbeitet. Der Bot hört ständig zu und kann so entwickelt werden, dass er proaktiv antwortet. Beispiel: Ein Anrufer bittet, das Gespräch zu unterbrechen oder zu pausieren, um Informationen wie Kreditkartendetails zu suchen. Sie können jetzt die Antworten „warten“ und „fortfahren“ hinzufügen, um diesen Dialog zu verarbeiten. Der Bot wartet auf eine Eingabe, während der Anrufer Informationen abruft, und setzt dann das Gespräch auf Grundlage der vorkonfigurierten Hinweise fort. Unterbrechungen können dementsprechend als Attribute für eine Eingabeaufforderung konfiguriert werden. Insgesamt wurden das Design und die Implementierung des Gesprächs vereinfacht. Diese sind jetzt leichter zu verwalten.
Ab heute können Sie die Streaming-Gesprächs-APIs in allen AWS-Regionen verwenden, in denen Amazon Lex tätig ist. Weitere Informationen finden Sie in der folgenden Ressourcenliste:
- Erste Schritte mit der Dokumentation der Amazon Lex-Streaming-Gesprächs-API.
- Preise – Sie zahlen nur für das, was Sie auch tatsächlich nutzen. Weitere Details finden Sie auf der Seite mit den Preisen von Lex.
- Weitere Informationen finden Sie im Beitrag „Amazon Lex introduces an enhanced console experience and V2 APIs“.