概览
概览
在金融客服领域中,精确识别客户意图,理解客户需求,整理合适的信息响应对于企业客服是一个极大的挑战。为了解决问题,亚马逊云科技使用大语言模型构建智能金融客服助手解决方案指南,准确识别客户意图,深入理解客户的描述并做出人性化回复,提高客户意图识别的准确率,同时增强对自然语言的理解能力,使金融机构能够为客户提供高质量的交互式服务,显著提升客户体验和运营效率。该指南基于 Amazon Bedrock 和 Amazon Lex 等服务构建。
在金融客服领域中,精确识别客户意图,理解客户需求,整理合适的信息响应对于企业客服是一个极大的挑战。为了解决问题,亚马逊云科技使用大语言模型构建智能金融客服助手解决方案指南,准确识别客户意图,深入理解客户的描述并做出人性化回复,提高客户意图识别的准确率,同时增强对自然语言的理解能力,使金融机构能够为客户提供高质量的交互式服务,显著提升客户体验和运营效率。该指南基于 Amazon Bedrock 和 Amazon Lex 等服务构建。
优势
优势
支持私有化部署,保障金融企业数据安全。
数据支持批量导入以及优化检索方式,提高关联答案的获取效率。
通过针对业务人员提问与企业数据进行自然语言的匹配,获得相关信息并加以总结,提升用户查询效率。
架构图及说明

API Gateway 将查询请求传递给搜索和问答组件。该组件由集成了 Langchain (开源框架) 的 Amazon Lambda,具有搜索功能的 Amazon OpenSearch Service 或 Amazon Kendra ,以及 Amazon SageMaker 构成。
Lambda 首先从搜索引擎 (OpenSearch 或 Amazon Kendra) 获取搜索结果。随后 Lambda 输入提前预置好的提示词。
这个过程使用到大语言模型 (LLM)赋能的检索增强生成 (RAG) 技术。大语言模型托管在Amazon Bedrock 或者 SageMaker 端点上,API Gateway 用于向用户返回 LLM 建议的答案。
API Gateway 将反馈传递给搜索优化组件,该组件包含 Lambda、Amazon DynamoDB 和 Amazon EventBridge。Lambda 函数将结果反馈写入 DynamoDB,以帮助调整下一步中的模型。
Amazon Connect 将用户语音转换为文本,并将其发送给 Amazon Lex。Amazon Lex 将查询请求传递给搜索和问答组件,以与第 3 步相同的方式获取建议的答案。
API Gateway 将反馈传递给搜索优化组件,该组件包含 Lambda、Amazon DynamoDB 和 Amazon EventBridge。Lambda 函数将结果反馈写入 DynamoDB,以帮助调整下一步中的模型。
EventBridge 调用存储在 DynamoDB 中的反馈数据训练 Extreme Gradient Boosting (XGBoost) 模型。训练后的模型将被部署到搜索引擎中。
Lambda 函数从 Amazon Simple Storage Service (Amazon S3) 读取原始文件。它将数据分块、embedding 并注入到搜索引擎中。embedding 模型托管在 SageMaker 端点上。这一步用来为搜索引擎构建知识库。
架构图及说明

终端用户通过托管在 AWS Amplify 的网站输入查询请求或提交结果反馈
网站将查询请求或结果反馈传递给 Amazon API Gateway,并从 API Gateway 接收响应。
API Gateway 将查询请求传递给搜索和问答组件。该组件由集成了 Langchain (开源框架) 的 Amazon Lambda,具有搜索功能的 Amazon OpenSearch Service 或 Amazon Kendra ,以及 Amazon SageMaker 构成。
Lambda 首先从搜索引擎 (OpenSearch 或 Amazon Kendra) 获取搜索结果。随后 Lambda 输入提前预置好的提示词。
这个过程使用到大语言模型 (LLM)赋能的检索增强生成 (RAG) 技术。大语言模型托管在Amazon Bedrock 或者 SageMaker 端点上,API Gateway 用于向用户返回 LLM 建议的答案。
API Gateway 将反馈传递给搜索优化组件,该组件包含 Lambda、Amazon DynamoDB 和 Amazon EventBridge。Lambda 函数将结果反馈写入 DynamoDB,以帮助调整下一步中的模型。
Amazon Connect 将用户语音转换为文本,并将其发送给 Amazon Lex。Amazon Lex 将查询请求传递给搜索和问答组件,以与第 3 步相同的方式获取建议的答案。
API Gateway 将反馈传递给搜索优化组件,该组件包含 Lambda、Amazon DynamoDB 和 Amazon EventBridge。Lambda 函数将结果反馈写入 DynamoDB,以帮助调整下一步中的模型。
EventBridge 调用存储在 DynamoDB 中的反馈数据训练 Extreme Gradient Boosting (XGBoost) 模型。训练后的模型将被部署到搜索引擎中。
Lambda 函数从 Amazon Simple Storage Service (Amazon S3) 读取原始文件。它将数据分块、embedding 并注入到搜索引擎中。embedding 模型托管在 SageMaker 端点上。这一步用来为搜索引擎构建知识库。