RAG 案框架(Qanything、RAGFlow、FastGPT、智谱RAG)对比

各家的技术方案

有道的QAnything

亮点在:rerank

RAGFLow

亮点在:数据处理+index

智谱AI

亮点在文档解析、切片、query改写及recall模型的微调

FastGPT

优点:灵活性更高

下面分别按照模块比较各框架的却别

功能模块 QAnything RAGFLow FastGPT 智谱AI
知识处理模块 pdf文件解析是抑郁PyMUPDF实现的,目前效率最高的,解析文档的文字采用的是PyMuPDF的get_text.不区分文字文档,还是图像文档(图像文档的若没有文字会报错) OCR, Document Layout Analyze 等,这些在常规的 RAG 中可能会作为一个不起眼的 Unstructured Loader 包含进去,可以猜到 RagFlow 的一个核心能力在于文件的解析环节
召回模块 向量库采用milvus的混合检索(BM25+向量检索),不设置阈值,返回topk(100) 向量数据库使用的是 ElasticSearch。混合检索,实现的是文本检索 + 向量检索, 没有指定具体的向量模型,但是使用huqie作为文本检索的分词器 语义检索 语义检索模式通过先进的向量模型技术,将知识库中的数据集转换成高维向量空间中的点。在这个空间中,每个文档或数据项都被表示为一个向量,这些向量能够捕捉到数据的语义信息。当用户提出查询时,系统同样将问题转化为向量,并在向量空间中与知识库中的向量进行相似度计算,以找到最相关的结果。优势:能够理解并捕捉查询的深层含义,提供更加精准的搜索结果。 应用场景:适用于需要深度语义理解和复杂查询处理的情况,如学术研究、技术问题解答等。 技术实现:利用如text-embedding-ada-002等模型,对文本数据进行embedding,实现高效的语义匹配。全文检索 全文检索模式侧重于对文档的全文内容进行索引,允许用户通过输入关键词来检索文档。这种模式通过分析文档中的每个词项,并建立一个包含所有文档的索引数据库,使用户可以通过任何一个词或短语快速找到相关的文档。优势:检索速度快,能够对大量文档进行广泛的搜索,方便用户快速定位到包含特定词汇的文档。 应用场景:适用于需要对文档库进行全面搜索的场景,如新闻报道、在线图书馆等。 技术实现:采用倒排索引技术,通过关键词快速定位到文档,同时结合诸如TF-IDF等算法优化搜索结果的相关性。混合检索 混合检索模式结合了语义检索的深度理解和全文检索的快速响应,旨在提供既精准又全面的搜索体验。在这种模式下,系统不仅会进行关键词匹配,还会结合语义相似度计算,以确保搜索结果的相关性和准确性。优势:兼顾了全文检索的速度和语义检索的深度,提供了一个平衡的搜索解决方案,提高了用户满意度。 应用场景:适合于需要综合考虑检索速度和结果质量的场景,如在线客服、内容推荐系统等。 技术实现:通过结合倒排索引和向量空间模型,实现对用户查询的全面理解和快速响应。例如,可以先通过全文检索快速筛选出候选集,再通过语义检索从候选集中找出最相关的结果。 向量模型采用:BGE-M3 通过向量检索、文本检索召回数据,并采用RFF算法排序; 采用文章结构切片以及 small to big 的索引策略可以很好地解决。针对后者,则需要对 Embedding 模型进行微调。我们有四种不同的构造数据的方案,在实践中都有不错的表现: Query vs Original:简单高效,数据结构是直接使用用户 query 召回知识库片段;Query vs Query:便于维护,即使用用户的 query 召回 query,冷启动的时候可以利用模型自动化从对应的知识片段中抽取 query;Query vs Summary:使用 query 召回知识片段的摘要,构建摘要和知识片段之间的映射关系;F-Answer vs Original:根据用户 query 生成 fake answer 去召回知识片段。微调 Embedding 模型
重排模块 精准排序采用自己的rerank模型,但是阈值设置在0.35 重排是基于文本匹配得分 + 向量匹配得分混合进行排序,默认文本匹配的权重为 0.3, 向量匹配的权重为 0.7 支持重排,动态设置 合并 embedding 和 fulltext 的结果,并根据 id 去重; 对qa字符串拼接,并删除空格、标点符号,对字符串进行hash编码并去重; 如果配置了 rerank 模型,那调用模型进行重排序,并在 score 中新增 rerank 的得分;没有则不会增加 rerank的得分;
大模型的处理 所有数据组织在一起的prompt(做了最大token的优化处理) 大模型可用的 token 数量进行过滤 模型微调上,采用分阶段微调,即首先用开源通用问答数据进行微调,然后用垂域问答数据微调,最后用人工标注的高质量问答数据进行微调。
web服务 使用sanic实现web服务 Web 服务是基于 Flask
切词处理 自定义的ChineseTextSplitter完成 huqie
文件存储 文件存储使用的是 MinIO
亮点 与常规的RAG比较,在rerank环节做了精细化调整 解析过程写的也很复杂,无怪乎处理速度有点慢。不过预期处理效果相对其他 RAG 项目也会好一些。从实际前端的展示的 Demo 来看,RAGFlow 可以将解析后的文本块与原始文档中的原始位置关联起来,这个效果还是比较惊艳的,目前看起来只有 RagFlow 实现了类似的效果。 FastGPT 提供了三种检索模式,覆盖了 RAG 中的主流实现。 对重复的数据去重并使用最高得分;计算 rrfScore 并以其为依据排序;

总结:

1、Qanything rerank模块设计的最好

2、RAGFlow 文档处理最好

3、FastGPT 模块动态配置多

4、智谱RAG,在领域数据上微调训练最好

全维度。没有最好,在自己业务的数据上,能落地就是最好的~。

相关推荐
剑圣土豆7 小时前
大模型LLM面试常见算法题-包括Attention和Transformer常见面试题
人工智能·深度学习·算法·自然语言处理·面试·nlp·transformer
寂然如故12 小时前
Transformer 入门案例教程(大语言模型)
深度学习·语言模型·transformer
机器学习之心14 小时前
SCI一区级 | Matlab实现BO-Transformer-LSTM时间序列预测
matlab·lstm·transformer·贝叶斯优化
xiandong2016 小时前
240705_昇思学习打卡-Day17-基于 MindSpore 实现 BERT 对话情绪识别
人工智能·深度学习·学习·自然语言处理·bert·transformer
幼儿园大哥~16 小时前
Pathformer: multi-scale transformer
人工智能·深度学习·transformer
dundunmm1 天前
论文阅读:Simple and Efficient Heterogeneous Graph Neural Network
论文阅读·人工智能·深度学习·神经网络·机器学习·transformer
seetimee1 天前
TF-IDF和BM25原理和区别
transformer·tf-idf
xiandong201 天前
240701_昇思学习打卡-Day13-Vision Transformer图像分类
网络·图像处理·人工智能·深度学习·学习·分类·transformer
程序员不想YY啊1 天前
【大语言模型系列之Transformer】
transformer
仙魁XAN2 天前
AGI 之 【Hugging Face】 的【Transformer】的 [ Transformer 架构 ] / [ 编码器 ]的简单整理
ai·transformer·agi·编码器·hugging face