亚马逊AWS官方博客
基于大语言模型知识问答应用落地实践 – 知识库构建(下)
上篇介绍了构建知识库的大体流程和一些优化经验细节,但并没有结合一个具体的场景给出更细节的实战经验以及相关的一些 benchmark 等,所以本文将会具体切入到一个场景进行具体讨论。
目标场景:对于 PubMed 医疗学术数据中的 1w 篇文章进行知识库构建,实现快速的注入和查询速度。
主要讨论的内容会覆盖 OpenSearch 集群规模设计,知识库 Index 设计以及实验步骤细节。
1. 资源推算
一般来说,我们需要按照以下 OpenSearch 的集群的设计指导原则,选择 OpenSearch 的资源配置:
- 如果偏向搜索的工作负载那么应该使用 10-30GB 的 shard 大小,如果偏向日志的工作负载,应该采用 30-50GB 的节点大小
- 请尝试将分片数量设为数据节点数量的偶数倍,有助于分片在数据节点上均匀分布
- 每个节点的分片数,与 JVM 堆内存成正比,每 GB 内存的分片不超过 25 个
- 每个 5 个 vCPU 能对应一个分片,比如 8 个 vCPU 则最多支持 6 个 shard
- 如果有启用 k-NN 字段,参考如下表格进行内存的推算
算法 引擎支持 内存占用计算 HNSW nmslib, Faiss, Lucene 1.1 * (4*d + 8*m) * num_vectors * (number_of_replicas + 1) 字节的内存
d:vector 的维度,比如 768
m:控制层每个节点的连接数
num_vectors:索引中的向量 doc 数IVF Faiss Nlist 要创建的桶数
Nprobe 要搜索的桶数
内存计算公式: 1.1*((4*维度)*num_vectors)+(4*nlist*维度))字节
依据目前的信息,仅仅知道所要索引的原始文档数,由于文档切分等中间处理过程,无法估算具体的内存用量和存储量。所以需要用小批量的实验数据进行测试推演。
在小批量实验中尝试索引了 300 篇文档,通过切分共产生出了约 203k 条记录,4.5GB 存储量。 那么按比例换算如果需要索引 1 万篇文档,那么会产生约 700w 记录,150GB 存储。如下图所示:
原始文档数 | 写入容量 | chunk 数 |
300 | 4.5GB | 203186 |
从知识问答 Chatbot 场景出发,属于搜索的工作负载,Shard 的大小应在 10-30GB 范围内以增加搜索性能。shard 数量一般遵循节点数的倍数的原则,假设是 2 节点集群那么可以是[2, 4, 8, 16 …]。以 150GB 存储总量进行计算,shard 可以为 8, 10, 12, 14, 16,当 shard 数为 8 时,每个 shard 存储量为 18.75GB,符合要求。
向量检索方面为了同时保证 recall 和 latency,采用了 HNSW 算法。另外参考 <Choose the k-NN algorithm for your billion-scale use case with OpenSearch> 中的 benchmark 结论,HNSW 算法中 m 值可以设定为 16。那么内存规划方面,依照上表公式进行内存占用的推算:
一般每个节点的堆外内存占比 50%,根据 knn.memory.circuit_breaker.limit=70% 的最佳实践设定,那么 35% 的节点内存被 KNN 占用,那么推算出整个节点的内存应为 22.9GB / 35% = 65GB。
vCPU 的规划方面,假设 shard 数为 8,乘以 1.5vCPU/Shard 的系数,vCPU 个数至少需要为 12 以上。结合如下 C 系和 R 系的实例配置信息和价格信息,综合考虑内存和 vCPU 的要求,选择 C 系的 2 节点 c6g.4xlarge 或者 R 系的 2 节点 r6g.2xlarge。
Instance Type | vCPU | ECU | Memory | Storage |
c6g.large | 2 | N/A | 4 | EBS only |
c6g.xlarge | 4 | N/A | 8 | EBS only |
c6g.2xlarge | 8 | N/A | 16 | EBS only |
c6g.4xlarge | 16 | N/A | 32 | EBS only |
c6g.8xlarge | 32 | N/A | 64 | EBS only |
Instance Type | vCPU | ECU | Memory | Storage |
r6g.large | 2 | N/A | 16 | EBS only |
r6g.xlarge | 4 | N/A | 32 | EBS only |
r6g.2xlarge | 8 | N/A | 64 | EBS only |
r6g.4xlarge | 16 | N/A | 128 | EBS only |
r6g.8xlarge | 32 | N/A | 256 | EBS only |
2. 索引构建实验
索引构建中需要关注的主要有三点:
- 数据完整性,保证所有的知识都能被查询到,不会因为摄入异常导致数据缺失。
- 构建速度,知识召回部分可能存在反复的效果调整,需要反复多次摄入,速度对全链路开发调优的效率很重要。
- 查询性能,保证场景中的实时会话体验。
整个摄入过程,从过程上基本可以划分为三个阶段,文本切分,文本向量化以及摄入 Amazon OpenSearch。其中文本切分和文本向量化的处理是临时性的工作负载,原则上可以提升 glue job 的并发数和 SageMaker Endpoint 背后的节点数来线性提高对这块工作负载的处理速度,但 OpenSearch 属于一个预分配的资源(注:今年即将发布的 OpenSearch Severless k-NN 向量数据库会改变这一点)。后两个部分,即向量化和 OpenSearch 摄入可能会是整个流程的瓶颈,完整流程测试不容易进行拆解分析性能瓶颈,所以本试验会分别对这两部分进行测试。
实验 1 – Embedding Model 吞吐测试
- 使用 paraphrase-multilingual-deploy.ipynb 进行部署,部署 10 台 g4dn.xlarge 机型
- 注释掉下游写入 OpenSearch 造成的影响,暂时注释掉相关代码
- 利用 batch_upload_docs.py 启动多 glue job 进行并发运行
这部分处理流程中,通过调整 glue job 的并行度与 client-side batch size 可以调整向量化这一步骤的吞吐能力。当 GPU 利用率不足时,提高 client-side batch size 能够提高 GPU 的利用率。经过简单测试发现,确实能证明这个假设,具体数据可以参考如下实验结果:
GPU 资源 | glue job 并行度 | Embedding model client-side batch size |
Embedding endpoint GPUUtilization 波峰 |
Embedding endpoint CPUUtilization 波峰 |
10 台 g4dn.xlarge | 10 | 5 | 30% | 45% |
10 台 g4dn.xlarge | 20 | 5 | 55% | 77% |
10 台 g4dn.xlarge | 200 | 5 | 60% | 98% |
10 台 g4dn.xlarge | 200 | 40 | 83% | 97% |
实验 2 – Amazon OpenSearch 摄入测试
- 随机生成向量,替换掉 Embedding 模型调用,参考如下代码
- 构建 OpenSearch 集群以及索引,并优化设置
- a.构建对应的索引
向量字段涉及到的两个参数 ef_construction 和 m。ef_construction 指定构建 k-NN 图的时候的动态列表大小,值越大其向量数据的图更精确,但索引的速度也响应更慢。m 指定 k-NN 中每个向量双向链表的数量,越大检索越准确,但相应内存占用会显著增大。参考博客<choose-the-k-nn-algorithm-for-your-billion-scale-use-case-with-opensearch>中的 benchmark 结论,对于当前的数据规模,参数 ef_construction:128 和 m:16 已经足以保证召回率,另外在构建索引时可以关注以下几点:- 添加一个 publish_date 字段方便后续根据时间来删除/更新知识
- 添加 idx 整型字段用于记录对应片段在全文中的顺序,在召回时可以基于 range_search 召回相邻上下文片段
- 只做过滤不做关键字召回的字段设置成 keyword 类型,有利于索引速度。具体可以参考如下代码
- b.设置 knn 相关参数,参考《基于大语言模型知识问答应用落地实践 – 知识库构建(上)》
- c.开启多 glue job 进行并发摄入,可以参考如下代码
- a.构建对应的索引
- 部分实验结果明细
每轮实验中,调整的参数已经用加粗字体标注出来,供参考用于指导后续的数据注入中的参数调整。OpenSearch 集群 参数配置 总运行时间 摄入文档数 现象 2*c6g.4xlarge DataNode
3*m6g.large MasterNodenumber_of_shards:8
number_of_replicas:0
ef_construction:512
m: 32
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 8
knn.memory.circuit_breaker.limit: 70%
glue_client_num: 15h17mins 7402752 有一个429报错,IndexingRate 约1w-1.5w之间 2*c6g.4xlarge DataNode
3*m6g.large MasterNodenumber_of_shards:8
number_of_replicas:0
ef_construction:128
m: 16
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 8
knn.memory.circuit_breaker.limit: 70%
glue_client_num: 61h29mins 7402752 2-3个503报错,Indexing Rate约4w-6w,中途CPU会有短暂100% 2*c6g.4xlarge DataNode
3*m6g.large MasterNodenumber_of_shards:8
number_of_replicas:0
ef_construction:128
m: 16
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 8
knn.memory.circuit_breaker.limit: 70%
index.merge.scheduler.max_thread_count:4
glue_client_num: 61h24mins 7402752 调高merge thread后,轻微变快 2*r6g.2xlarge DataNode
3*m6g.large MasterNodenumber_of_shards:8
number_of_replicas:0
ef_construction:128
m: 16
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 4
knn.memory.circuit_breaker.limit: 70%
glue_client_num: 62h 7402752 IndexingRate明显低于c系机型 2*c6g.4xlarge DataNode
3*m6g.large MasterNodenumber_of_shards:8
number_of_replicas:0ef_construction:64
m: 32
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 8
knn.memory.circuit_breaker.limit: 70%
glue_client_num: 81h5min 7402752 ef_construction调低后,索引速度有明显变快
实验 3 – 全流程摄入测试
- a. 部分实验记录明细
OpenSearch 集群 SageMaker endpoint 参数配置 OpenSearch CPU利用率 IndexingRate Sagemaker Endpoint 利用率 2 * c6g.4xlarge DataNode
3 * m6g.large MasterNode10 * ml.g4dn.xlarge number_of_shards:8
number_of_replicas:0
ef_construction:128
m: 16
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 8
knn.memory.circuit_breaker.limit: 70%
embedding batch size :20
glue_client_num: 615% 均值1.8w CPU 33% GPU 30% 2 * c6g.4xlarge DataNode
3 * m6g.large MasterNode10 * ml.g4dn.xlarge number_of_shards:8
number_of_replicas:0
ef_construction:128
m: 16
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 8
knn.memory.circuit_breaker.limit: 70%
embedding batch size :20
glue_client_num: 2020% 均值3w CPU 65% GPU 51% 2 * c6g.4xlarge DataNode
3 * m6g.large MasterNode10 * ml.g4dn.xlarge number_of_shards:8
number_of_replicas:0
ef_construction:128
m: 16
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 8
knn.memory.circuit_breaker.limit: 70%
embedding batch size :30
glue_client_num: 4025% 均值4w CPU 90% GPU 80% 2 * c6g.4xlarge DataNode
3 * m6g.large MasterNode20 * ml.g4dn.xlarge number_of_shards:8
number_of_replicas:0
ef_construction:128
m: 16
ef_search:32
refresh_interval: “60s”
knn.algo_param.index_thread_qty: 8
knn.memory.circuit_breaker.limit: 70%embedding batch size : 40glue_client_num: 5060% 均值6w+ CPU 80% GPU 70% - b. 初步实验结论
参考以上的实验记录可知,1 万篇文档拆分成 700 万条向量后,通过调整客户端并发,推理端点的节点数和推理 Batch Size 可以在 1 小时左右完成摄入,且完整性没有问题。能够满足大规模知识构建的要求,如果文档量继续增长,可以继续扩展 OpenSearch 节点和 SageMaker Endpoint 节点。
3. 索引构建经验总结
以往 OpenSearch 摄入时的一些最佳实践中并不包含 knn 的情况,所以在 knn 索引存在的情况,不能完全参照之前的结论,通过以上三种不同的实验方式,在多次实验的过程中,本文得到了以下的一些实践经验和结论,供参考:
- a. CPU 利用率和参数 ef_construction 与 m 明显正相关,在实验中使用较大的 ef_construction 和 m 时,CPU 很容易达到 100%。实验中,在其他参数相同的情况下,ef_construction 为 512 时,CPU 利用率会长期保持在 100%,改为 2 时,利用率基本在 20% 以下,峰值不超过 30%。
- b. 客户端并行数量与 OpenSearch 的摄入速度和负载成正相关,但并不是线性相关。多客户端能提高摄入速度,但是客户端数量过多,可能会导致大量的(429, ‘429 Too Many Requests /_bulk’)和(503, “No server available to handle the request..”)等错误。
- c. 指数退避重试机制能保证摄入的完整性以及因集群瞬时不可用导致的大面积写入失败,opensearch-py包中有如下摄入函数, 如果并发客户端过多,可能会导致CPU利用率一直位于100%,在max_retries的重试次数内,每次会等待 initial_backoff * (attampt_idx ** 2)的时间,通过设定一个较大的initial_backoff等待时间,能避免在客户端并发数偏大的情况下出现大面积429错误。另外客户端数也不能过大,否则也会更容易出现大量的503相关错误。对于偶发的503报错,可以利用glue的retry机制处理,保证写入的完整性。
注意:在大规模数据摄入的生产场景中,不建议使用Langchain提供的向量数据库接口,查看其源码可知,LangChain的默认实现是单客户端,且其内部实现没有使用指数退避Retry机制,无法保证摄入速度和完整性。
- d. 写入完成后,建议查询文档的去重数量,确保写入的完整性。可以在 OpenSearch Dashboard 的 Dev tools 中使用如下的 DSL 语句查询文档总数。注意 cardinality 方式的统计不是精准统计值,可以提高 precision_threshold 参数值来提高其准确性。
同时可以按照文档名统计对应的 chunk 数量,可以帮助发现潜在文档处理质量问题,参考下面代码:
- e. refresh_interval 设置为 -1,在其他相关参数的相同的情况下,503 报错明显增加。更改为 60s 后,情况有明显好转, 如果发生类似问题,可以做类似的调整。
4. 检索性能调优
数据注入完毕以后,直接查询性能是十分差的,查询时延可能在几秒甚至十几秒。需要进行一些必要的优化。核心的主要有两点:
- a. Segment 合并
Segment 是 OpenSearch 中的最小搜索单元。如果每个 shard 只有 1 个 segment,搜索效率将达到最高。为了实现这个目标,我们可以通过控制 refresh interval 来降低小 segment 的生成速度,或者手动进行 segment merge。这将有助于减少搜索过程中的开销,提高搜索速度。
可以在 OpenSearch Dashboard 的 Dev tools 中通过如下的 DSL 执行合并,整个合并过程比较长,执行之前可以调高用于合并的线程最大值,能够提高合并的速度。合并前后可以执行如下 DSL 来检查当前的 segments 情况:
- 以下表格是合并 segments 后的情况,合并完成后每个 shard 下仅有一个 segment,数据也均匀分布,标记删除的数据也被清理掉了。
- b. k-NN 索引 warmup
由于 k-NN 索引的性能与索引数据结构是否缓存到内存中密切相关,能够提供的缓存内容容量对性能影响很大。可以执行以下 DSL 命令,对 k-NN 索引进行预热 - 预热执行很快,预热完毕以后,性能会有明显改善。可以到 CloudWatch 中去查看 OpenSearch Domain 中的 KNNGraphMemoryUsagePercentage 指标进行确认是否执行完毕,如图所示:
5. 结语
本文在本系列上篇博客的基础上,通过一个真实数据场景的实践进行更详细的阐述,讨论的重点更多放在针对大规模的文档,更快更完整的构建基于向量数据的知识库上面,这对于一些行业如金融、法律、医疗等行业知识库的构建具备指导借鉴意义。本文的第一部分对于 Amazon OpenSearch 的集群配置选择给出了一些方法参考,第二三四部分对于数据摄入和检索性能等方面给出了一些初步的经验总结。
本系列后续还有几篇相关博客进一步深入阐述,其中包括:
《Amazon OpenSearch 向量数据库的性能评估与选型分析》,会针对 Amazon OpenSearch 作为向量数据库,讨论其优势及定位,在索引和查询等方面给出更加详细的 benchmark,给用户更加丰富的参考信息。
《基于大语言模型知识问答应用落地实践 – 知识召回调优》,会在知识库构建的前提和背景下,讨论如何更好的召回对应的知识,包括各种适用的召回手段和实践技巧。另外,本文提到的代码细节可以参考配套资料:
- 代码库 aws-samples/private-llm-qa-bot
- workshop <基于 Amazon OpenSearch+大语言模型的智能问答系统>(中英文版本)
参考文献: