亚马逊AWS官方博客

使用 Amazon SageMaker、Amazon OpenSearch Service、Streamlit 和 LangChain 构建功能强大的问答机器人

生成式人工智能和大型语言模型(LLM)在企业环境中最常见的应用之一,就是根据企业的知识语料库回答问题。 Amazon Lex 为构建 基于人工智能的聊天机器人提供了框架。预训练的基础模型(FM)在自然语言理解(NLU)任务中表现出色,例如对各种主题进行总结、生成文本和解答问题,但在提供准确(无幻觉)答案方面却举步维艰,或者完全无法回答与训练数据中未出现内容相关的问题。此外,基础模型是根据数据的时间点快照进行训练的,本身不具备在推理时访问新数据的能力;如果没有这种能力,基础模型可能会提供可能不正确或不充分的响应。解决这一问题的常用方法是使用一种名为“检索增强生成”(RAG)的技术。在基于 RAG 的方法中,我们使用 LLM 将用户问题转换为矢量嵌入内容,然后在包含企业知识语料库嵌入内容的预填充矢量数据库中对这些嵌入内容进行相似性搜索。少量类似的文档(通常是三个)与用户问题一起作为上下文添加到提供给另一个 LLM 的“提示”中,然后 LLM 使用提示中作为上下文提供的信息生成用户问题的答案。RAG 模型是 Lewis 等人于 2020 年提出的一种模型,其中参数存储器是预训练的 seq2seq 模型,非参数存储器是 Wikipedia 的密集矢量索引,可通过预训练的神经检索器进行访问。要了解基于 RAG 的方法的整体结构,请参阅 在 Amazon SageMaker JumpStart 中使用检索增强生成和根基模型进行问答。在这篇博文中,我们提供了一个分步指南,其中包含创建企业级 RAG 应用程序(如问答机器人)的所有构建块。我们结合使用不同的 AWS 服务、开源基础模型(用于文本生成的 FLAN-T5 XXL 和用于嵌入的 GPT-j-6B)以及用于连接所有组件的 LangChain 和用于构建机器人前端的 Streamlit 等软件包。

我们提供了一个 AWS Cloud Formation 模板,来支持构建此解决方案所需的所有资源。然后,演示如何使用 LangChain 将所有内容串联起来:

  • 与 Amazon SageMaker 托管的 LLM 进行交互。
  • 对知识库文档进行分块。
  • 将文档嵌入内容摄取到 Amazon OpenSearch Service 中。
  • 执行问答任务。

我们可以使用相同的架构将开源模型与 Amazon Titan 模型互换。Amazon Bedrock 推出后,我们会发布一篇后续博文,展示如何使用 Amazon Bedrock 实现类似的生成式人工智能应用程序,敬请关注。

解决方案概览

我们使用 SageMaker 文档作为这篇博文的知识语料库。我们将该网站上的 HTML 页面转换成较小的重叠信息块(以保留信息块之间的上下文连续性),然后使用 gpt-j-6b 模型将这些信息块转换成嵌入式信息,并将嵌入式信息存储在 OpenSearch Service 中。我们使用 Amazon API Gateway 在 AWS Lambda 函数中实现 RAG 功能,将所有请求路由到 Lambda。我们在 Streamlit 中实现了一个聊天机器人应用程序,该应用程序通过 API Gateway 调用该函数,而该函数在 OpenSearch Service 索引中对用户问题的嵌入信息进行相似性搜索。Lambda 函数会将匹配的文档(信息块)作为上下文添加到提示中,然后使用部署为 SageMaker 端点的 flan-t5-xxl 模型来生成用户问题的答案。这篇博文的所有代码都可以在 GitHub 存储库中找到。

下图显示了所建议解决方案的高级架构。

架构

图 1:架构

分步说明:

  1. 用户通过 Streamlit Web 应用程序提出问题。
  2. Streamlit 应用程序调用 API Gateway 端点 REST API。
  3. API Gateway 调用 Lambda 函数。
  4. 该函数调用 SageMaker 端点将用户问题转换为嵌入内容。
  5. 该函数调用 OpenSearch Service API 来查找与用户问题相似的文档。
  6. 该函数以用户查询和“类似文档”为上下文创建“提示”,并要求 SageMaker 端点生成响应。
  7. 响应由该函数提供给 API Gateway。
  8. API Gateway 为 Streamlit 应用程序提供响应。
  9. 用户可以在 Streamlit 应用程序上查看响应。

如架构图所示,我们使用以下 AWS 服务:

就该解决方案中使用的开源软件包而言,我们使用 LangChain 与 OpenSearch Service 和 SageMaker 进行连接,并使用 FastAPI 在 Lambda 中实现 REST API 接口。

要在您自己的 AWS 账户中实例化这篇博文中介绍的解决方案,工作流程如下:

  1. 在您的账户中运行这篇博文附带的 CloudFormation 模板。这样可以创建该解决方案所需的所有必要的基础设施资源:
    • LLM 的 SageMaker 端点
    • OpenSearch Service 集群
    • API Gateway
    • Lambda 函数
    • SageMaker notebook
    • IAM 角色
  2. 在 SageMaker notebook 中运行 data_ingestion_to_vectordb.ipynb notebook,将 SageMaker 文档中的数据摄取到 OpenSearch Service 索引中。
  3. 在 Studio 的终端上运行 Streamlit 应用程序,并在新的浏览器标签页中打开该应用程序的 URL。
  4. 通过 Streamlit 应用程序提供的聊天界面,提出有关 SageMaker 的问题,并查看 LLM 生成的回复。

以下各节将详细讨论这些步骤。

先决条件

要实施这篇博文中提供的解决方案,您应该有一个 AWS 账户,并且熟悉 LLM、OpenSearch Service 和 SageMaker。

我们需要使用加速实例(GPU)来托管 LLM。此解决方案使用 ml.g5.12xlarge 和 ml.g5.24xlarge 的各一个实例;您可以在 AWS 账户中查看这些实例是否可用,并根据需要通过服务限额增加请求来请求这些实例,如以下屏幕截图所示。

服务限额增加

图 2:服务限额增加请求

使用 AWS Cloud Formation 创建解决方案堆栈

我们使用 AWS CloudFormation 创建一个名为 aws-llm-apps-blog 的 SageMaker notebook 和一个名为 LLMAppsBlogIAMRole 的 IAM 角色。为要部署资源的区域选择启动堆栈。CloudFormation 模板所需的所有参数都已填入默认值,只有 OpenSearch Service 密码需要您提供。请记下 OpenSearch Service 的用户名和密码,我们将在后续步骤中加以使用。此模板大约需要 15 分钟才能完成

AWS 区域 链接
us-east-1
us-west-2
eu-west-1
ap-northeast-1

成功创建堆栈后,在 AWS CloudFormation 控制台上导航到堆栈的 Outputs(输出)选项卡,记下 OpenSearchDomainEndpointLLMAppAPIEndpoint 的值。我们将在后续步骤中使用这些值。

CloudFormation 堆栈输出

图 3:CloudFormation 堆栈输出

将数据摄取到 OpenSearch Service 中

要摄取数据,请完成以下步骤:

  1. 在 SageMaker 控制台的导航窗格中,选择 notebook
  2. 选择 notebook aws-llm-apps-blog,然后选择打开 JupyterLab

    打开 JupyterLab

    图 4:打开 JupyterLab

  3. 选择 data_ingestion_to_vectordb.ipynb 以在 JupyterLab 中打开。该 notebook 会将 SageMaker 文档摄取到名为 llm_apps_workshop_embeddings 的 OpenSearch Service 索引中。

    notebook 路径

    图 5:打开数据摄取 notebook

  4. 打开 notebook 后,在“运行”菜单上选择运行所有单元,即可运行此 notebook 中的代码。这会将数据集下载到本地 notebook 中,然后将数据集摄取到 OpenSearch Service 索引中。此 notebook 的运行时间约为 20 分钟。它还会将数据摄取到另一个名为 FAISS 的矢量数据库中。FAISS 索引文件保存在本地,然后上传到 Amazon Simple Storage Service(S3),这样 Lambda 函数就能够选用这些文件,作为使用替代矢量数据库的示例。

    运行所有单元

    图 6:notebook 运行所有单元

现在,我们准备将文档拆分成多个信息块,然后将这些信息块转换成嵌入式内容以摄取到 OpenSearch 中。我们使用 LangChain RecursiveCharacterTextSplitter 类对文档进行分块,然后使用 LangChain SagemakerEndpointEmbeddingsJumpStart 类通过 gpt-j-6b LLM 将这些信息块转换为嵌入式内容。我们通过 LangChain OpenSearchVectorSearch 类将嵌入式内容存储在 OpenSearch Service 中。我们将这些代码打包到 Python 脚本中,这些脚本通过自定义容器提供给 SageMaker Processing 作业。有关完整代码,请参阅 data_ingestion_to_vectordb.ipynb notebook。

  1. 创建一个自定义容器,然后在其中安装 LangChain 和 opensearch-py Python 软件包。
  2. 将此容器映像上传到 Amazon Elastic Container Registry(ECR)。
  3. 我们使用 SageMaker ScriptProcessor 类创建一个将在多个节点上运行的 SageMaker Processing 作业。
    • 通过设置 s3_data_distribution_type='ShardedByS3Key'(作为提供给处理作业的 ProcessingInput 的一部分),Amazon S3 中的数据文件会自动分布到各个 SageMaker Processing 作业实例中。
    • 每个节点处理一个文件子集,这样就缩短了将数据摄取到 OpenSearch Service 所需的总时间。
    • 每个节点还使用 Python 多处理技术在内部并行处理文件。因此,并行化有两个层面,一个是在集群层面,在各个节点之间分配工作(文件);另一个是在节点层面,节点中的文件也在节点上运行的多个进程之间分割
       # setup the ScriptProcessor with the above parameters
      processor = ScriptProcessor(base_job_name=base_job_name,
                                  image_uri=image_uri,
                                  role=aws_role,
                                  instance_type=instance_type,
                                  instance_count=instance_count,
                                  command=["python3"],
                                  tags=tags)
      
      # setup input from S3, note the ShardedByS3Key, this ensures that 
      # each instance gets a random and equal subset of the files in S3.
      inputs = [ProcessingInput(source=f"s3://{bucket}/{app_name}/{DOMAIN}",
                                destination='/opt/ml/processing/input_data',
                                s3_data_distribution_type='ShardedByS3Key',
                                s3_data_type='S3Prefix')]
      
      
      logger.info(f"creating an opensearch index with name={opensearch_index}")
      # ready to run the processing job
      st = time.time()
      processor.run(code="container/load_data_into_opensearch.py",
                    inputs=inputs,
                    outputs=[],
                    arguments=["--opensearch-cluster-domain", opensearch_domain_endpoint,
                              "--opensearch-secretid", os_creds_secretid_in_secrets_manager,
                              "--opensearch-index-name", opensearch_index,
                              "--aws-region", aws_region,
                              "--embeddings-model-endpoint-name", embeddings_model_endpoint_name,
                              "--chunk-size-for-doc-split", str(CHUNK_SIZE_FOR_DOC_SPLIT),
                              "--chunk-overlap-for-doc-split", str(CHUNK_OVERLAP_FOR_DOC_SPLIT),
                              "--input-data-dir", "/opt/ml/processing/input_data",
                              "--create-index-hint-file", CREATE_OS_INDEX_HINT_FILE,
                              "--process-count", "2"])
  4. 在所有单元运行无误后,关闭 notebook。您的数据现已在 OpenSearch Service 中可用。在浏览器地址栏中输入以下 URL,即可获得 llm_apps_workshop_embeddings 索引中的文档数量。使用以下 URL 中的 CloudFormation 堆栈输出中的 OpenSearch Service 域端点。系统会提示您输入 OpenSearch Service 用户名和密码,可从 CloudFormations 堆栈中获得它们。
    https://your-opensearch-domain-endpoint/llm_apps_workshop_embeddings/_count

浏览器窗口应显示类似于以下内容的输出。输出结果显示,有 5667 个文档被摄取到 llm_apps_workshop_embeddings 索引。{"count":5667,"_shards":{"total":5,"successful":5,"skipped":0,"failed":0}}

在 Studio 中运行 Streamlit 应用程序

现在,我们准备为问答机器人运行 Streamlit Web 应用程序。此应用程序允许用户提问,然后通过 Lambda 函数提供的 /llm/rag REST API 端点获取答案。

Studio 提供了一个便捷的平台来托管 Streamlit Web 应用程序。以下步骤介绍如何在 Studio 上运行 Streamlit 应用程序。或者,您也可以按照相同的步骤在 notebook 上运行此应用程序。

  1. 打开 Studio,然后打开一个新终端。
  2. 在终端上运行以下命令来克隆这篇博文的代码存储库,并安装此应用程序所需的 Python 软件包:
    git clone https://github.com/aws-samples/llm-apps-workshop
    cd llm-apps-workshop/blogs/rag/app
    pip install -r requirements.txt
  3. 在 webapp.py 文件中,需要设置 CloudFormation 堆栈输出中可用的 API Gateway 端点 URL。这是通过运行以下 sed 命令来完成的。将 Shell 命令中的 replace-with-LLMAppAPIEndpoint-value-from-cloudformation-stack-outputs 替换为 CloudFormation 堆栈输出中 LLMAppAPIEndpoint 字段的值,然后运行以下命令在 Studio 上启动 Streamlit 应用程序。
    
    EP=replace-with-LLMAppAPIEndpoint-value-from-cloudformation-stack-outputs
    # replace __API_GW_ENDPOINT__ with  output from the cloud formation stack
    sed -i "s|__API_GW_ENDPOINT__|$EP|g" webapp.py
    streamlit run webapp.py
  4. 此应用程序成功运行后,您将看到类似于以下内容的输出(您将看到的 IP 地址与本例中显示的不同)。记下输出中的端口号(通常为 8501),在下一步中会用作应用程序 URL 的一部分。
    sagemaker-user@studio$ streamlit run webapp.py 
    
    Collecting usage statistics.To deactivate, set browser.gatherUsageStats to False.
    
    You can now view your Streamlit app in your browser.
    
    Network URL: http://169.255.255.2:8501
    External URL: http://52.4.240.77:8501
  5. 您可以使用与 Studio 域 URL 相似的 URL,在新的浏览器标签页中访问此应用程序。例如,如果 Studio URL 是 https://d-randomidentifier.studio.us-east-1.sagemaker.aws/jupyter/default/lab?,则 Streamlit 应用程序的 URL 将是 https://d-randomidentifier.studio.us-east-1.sagemaker.aws/jupyter/default/proxy/8501/webapp(注意,lab 替换为 proxy/8501/webapp)。如果在上一步记下的端口号不是 8501,则在 Streamlit 应用程序的 URL 中使用该端口号,而不是 8501。

以下屏幕截图显示了该应用程序,其中包含几个用户问题。

Streamlit 应用程序

进一步了解 Lambda 函数中的 RAG 实现

现在我们已经让应用程序端到端运行了,让我们进一步了解一下 Lambda 函数。Lambda 函数使用 FastAPI 实现 RAG 的 REST API,并使用 Mangum 软件包将 API 与我们打包并部署在函数中的处理程序封装在一起。我们使用 API Gateway 来路由所有传入的请求,以调用该函数并在应用程序内部处理路由。

下面的代码片段展示了我们如何在 OpenSearch 索引中查找与用户问题相似的文档,然后将问题和相似文档结合起来创建提示。接着向 LLM 提供此提示,以便生成用户问题的答案。

@router.post("/rag")
async def rag_handler(req: Request) -> Dict[str, Any]:
    # dump the received request for debugging purposes
    logger.info(f"req={req}")

    # initialize vector db and SageMaker Endpoint
    _init(req)

    # Use the vector db to find similar documents to the query
    # the vector db call would automatically convert the query text
    # into embeddings
    docs = _vector_db.similarity_search(req.q, k=req.max_matching_docs)
    logger.info(f"here are the {req.max_matching_docs} closest matching docs to the query=\"{req.q}\"")
    for d in docs:
        logger.info(f"---------")
        logger.info(d)
        logger.info(f"---------")

    # now that we have the matching docs, lets pack them as a context
    # into the prompt and ask the LLM to generate a response
    prompt_template = """Answer based on context:\n\n{context}\n\n{question}"""

    prompt = PromptTemplate(
        template=prompt_template, input_variables=["context", "question"]
    )
    logger.info(f"prompt sent to llm = \"{prompt}\"")
    chain = load_qa_chain(llm=_sm_llm, prompt=prompt)
    answer = chain({"input_documents": docs, "question": req.q}, return_only_outputs=True)['output_text']
    logger.info(f"answer received from llm,\nquestion: \"{req.q}\"\nanswer: \"{answer}\"")
    resp = {'question': req.q, 'answer': answer}
    if req.verbose is True:
        resp['docs'] = docs

    return resp

清理

为避免将来产生费用,请删除资源。您可以通过删除 CloudFormation 堆栈来实现此目的,如以下屏幕截图所示。

删除 CloudFormation 堆栈

图 7:清理

总结

在这篇博文中,我们展示了如何结合使用 AWS 服务、开源 LLM 和开源 Python 软件包,来创建企业级 RAG 解决方案。

我们鼓励您探索 JumpStartAmazon Titan 模型、Amazon BedrockOpenSearch Service,并使用本博文提供的实现示例和与您业务相关的数据集来构建解决方案,从而了解更多信息。


Original URL: https://aws.amazon.com/blogs/machine-learning/build-a-powerful-question-answering-bot-with-amazon-sagemaker-amazon-opensearch-service-streamlit-and-langchain/

关于作者

Amit Arora 是 Amazon Web Services 的人工智能和机器学习专家架构师,协助企业客户使用基于云的机器学习服务来快速扩展他们的创新。他还是华盛顿特区乔治敦大学数据科学与分析硕士课程的兼职讲师。

Xin Huang Xin Huang 博士是 Amazon SageMaker JumpStart 和 Amazon SageMaker 内置算法的高级应用科学家。他专注于开发可扩展的机器学习算法。他的研究兴趣是自然语言处理、表格数据的可解释深度学习以及非参数时空聚类的稳健分析。他曾在 ACL、ICDM、KDD Conference 和 Royal Statistical Society: Series A 上发表过多篇论文。

Navneet Tuteja 是 Amazon Web Services 的数据专家。在加入 AWS 之前,Navneet 曾为寻求数据架构现代化和实施全面人工智能/机器学习解决方案的组织担任推动者。她拥有塔帕尔大学的工程学学位和德克萨斯农工大学的统计学硕士学位。