投稿日: Mar 1, 2024

Amazon Lex の QnAIntent が一般提供されることを発表いたします。これにより、デベロッパーは基盤モデル (FM) を企業データに安全に接続して、検索用拡張生成 (RAG) が行えるようになります。2023 年 11 月の re:Invent でプレビュー版として導入された QnAIntent は、Amazon Bedrock 上で企業データと基盤モデルを活用して、関連性が高く、正確で、文脈に合ったレスポンスを生成できます。QnAIntent を新規または既存の Lex ボットで使用して、Amazon Connect などのテキストチャネルや音声チャネルを通じて、よくある質問 (FAQ) を自動化できます。

QnAIntent は、ボット開発者が顧客からの質問への応答を自動化したり、担当者への不必要な転送を回避したりするのに役立ちます。デベロッパーは、さまざまな FAQ を予測して処理するために、インテント、サンプル発話、スロット、プロンプトのバリエーションを作成する必要がなくなります。新しい QnAIntent を企業のナレッジソースに接続するだけで、ボットは「事故処理の請求にはどのような書類を提出する必要がありますか」などの質問を、許可されたコンテンツを使用してすぐに処理できます。QnAIntent は現在、Amazon Bedrock のナレッジベース、Amazon OpenSearch、Amazon Kendra をサポートしています。デベロッパーは、生成されたレスポンスのサマリーと完全一致のレスポンスのどちらかを選択することもできます。これにより、ボットが提供するレスポンスの内容を制御できます。QnAIntent は、米国東部 (バージニア北部) および米国西部 (オレゴン) リージョンにおいて英語で一般提供されるようになりました。詳細については、Amazon Lex のドキュメントページにアクセスしてください。