文章目录
- 一、RAG流程
- [二、提示工程 VS 微调 VS RAG](#二、提示工程 VS 微调 VS RAG)
- [三、全量微调 VS LoRA微调](#三、全量微调 VS LoRA微调)
- [四、微调 VS RAG 使用场景](#四、微调 VS RAG 使用场景)
- 四、GraphRAG
- [五、TopK VS TopP](#五、TopK VS TopP)
- 七、RLHF
- 八、自注意力机制(Self-Attention)
一、RAG流程
RAG实战中难以解决的问题点:
- 如何读取文档
- 如何分块
- 如何进行词嵌入编码成向量的形式
- 用户的问题的理解与词嵌入编码
- 如何在向量数据库中根据问题向量检索知识向量
- 检索到的结果排序
- 根据【结合问题和检索结果context】构建提示工程
- 将7给大模型,给多大的大模型?给哪个大模型?等等等。。。
- 产出的回答response给用户
二、提示工程 VS 微调 VS RAG

三、全量微调 VS LoRA微调
- LoRA论文:LoRA: Low-Rank Adaptation of Large Language Models
Rank对应到视频里的k, k越小需要训练的参数就越少。 - Transformer的参数主要由很多矩阵来构成,比如multi-head attention里的矩阵,还有FFN里的矩阵等; 当我们使用LoRA的时候,可以选择性地对某一些矩阵进行改变,这部分可以在config里面进行设置。
- 矩阵的乘法:要保证维度的一致性,比如一个矩阵W是M乘N的,那这时候A必须是M乘K, B是K成N,这样才能保证乘出来的大小为M乘N。
- 视频里的K我们也称之为rank(秩),像这种M=AB,low rank factorization方法经常也在推荐领域使用。
四、微调 VS RAG 使用场景
四、GraphRAG
微软提出的GraphRAG项目
备受关注。该项目的主要目的是通过改进信息检索和整理的方式,提升企业知识库的实用性和响应速度。GraphRAG的核心理念在于提前整理和构建知识图谱,并将信息关联起来,以便于快速回答具体或宏观的问题。
传统上,RAG(Retrieval-Augmented Answer Generation)方法在处理具体问题时表现良好,能够直接在知识库中检索出包含答案的段落,并进行融合生成回答。然而,对于宏观问题,如团队成就调查,RAG的效率和准确性则较差。这些问题要求获取散落在不同文档中的信息,并整合为连贯的答案。
GraphRAG通过构建知识图谱
,将企业知识库中的相关信息进行分类和关联
,形成层次结构
。这种结构使得回答问题时,可以依据信息的相关性和层次性快速定位答案。同时,GraphRAG还引入了社区挖掘算法,进一步优化信息关联和聚合的过程。
尽管GraphRAG具有显著的潜力,但其实际应用仍面临挑战。首先是知识图谱的构建
,这一过程需要大量的人工干预以去除噪声和进行校正。其次是计算
资源的消耗,特别是在处理大型知识图谱时,计算复杂度较高。最后,新数据的加入
需要频繁更新知识图谱,这可能要求从零开始构建整个图谱,带来额外的计算负担。
综上所述,GraphRAG提供了一种将传统RAG与现代知识图谱相结合的新路径,有望大幅提升企业知识库的实用性和响应效率。尽管面临一些技术挑战,但该项目的潜力不容忽视。
五、TopK VS TopP
- 🔢 TopK选取最高概率的前K项,减少不确定性。
- ⭕️ TopP依据累计概率筛选出符合条件的所有选项,提供更大的灵活性。
- 🔄 TopK固定预设值,而TopP则可根据需求动态调整范围。
七、RLHF
技术原文:Training language models to follow instructions with human feedback
- RLHF中对齐过程使用的是PPO,是强化学习方法,而且PPO过程依赖于奖励模型。这种训练方式其实很有挑战,一方面奖励模型很关键但又很难训练,另外在强化学习阶段很多参数需要调整,而且过程容易跑偏。
- 所以也有一些替代技术,比如DPO,相比PPO 更容易训练,而且不需要奖励模型。
八、自注意力机制(Self-Attention)

reference: https://space.bilibili.com/472543316