RAG拉满-上下文embedding与大模型cache

无论怎么选择RAG的切分方案,切分都不准确。

最近,anthropics给出了补充上下文的embedding的方案,RAG有了新的进展和突破[1]。

一、RAG存在的问题

比如有西游记这本书中(第一回 惊天地美猴王出世),一个文档的chunk拆分如下:

复制代码
"师兄们见了,鼓着掌称赞他。"

很难知道更多关于这个chunk的基本信息,它的上下文不够清晰,那很难让LLM总结得到更准确的总结和回答。

二、上下文embedding

假设根据所属的文档,补充完善这个chunk的上下文信息,就变成这样的chunk:

复制代码
"孙悟空在菩提祖师门下学成七十二般变化和筋斗云后,展示给师兄们看,变出一棵大树,师兄们对此表示赞赏。"

这样,一个chunk的上下文信息就变得更加完整了。

使用这样的chunk信息,可以让LLM得到更准确的回答。

提示语:

xml 复制代码
<document>
	{原始文档}
</document>
	  
你的任务是改写一下这个chunk:提供一个简短的上下文补充完整chunk在整个文档中的含义,以便改进chunk的搜索检索。 只回答简洁的上下文,不要回答其他内容。
 以下是文档中我们想要的部分chunk。
<chunk>
	{当前chunk}
</chunk>

使用deepseek的测试结果如下[3][4]:

三、大模型Cache

通过字数统计来看,如果每一个chunk都需要传入整个文档,则费用是巨大的。 整个文档(西游记 第一回)的字数统计如下:

那为什么要使用DeepSeek? 从能力的各个方面看,deepseek表现的都很好[6]。 除此之外有一个更大的优点--价格便宜。

除了普通的输入输出价格之外,deepseek提出了一个缓存价格的概念: 如果你传入给模型的前缀内容是相同的,则会命中缓存。命中缓存的费用降低了10倍。

只要前缀相同,就会命中缓存[8](以下是官方文档中的事例代码):

上图中我划线的部分都是缓存命中的。

再回到我们补充chunk上下文的案例,提示语如下:

xml 复制代码
<document>
	{原始文档}
</document>
	  
你的任务是改写一下这个chunk:提供一个简短的上下文补充完整chunk在整个文档中的含义,以便改进chunk的搜索检索。 只回答简洁的上下文,不要回答其他内容。
 以下是文档中我们想要的部分chunk。
<chunk>
	{当前chunk}
</chunk>

原始文档部分以及提示语部分都是一致的,只有如下片段是缓存不命中的:

bash 复制代码
	{当前chunk}
</chunk>

这样,我们的费用就大大降低了,通过大模型补充chunk的上下文就成为了可能。

感谢deepseek的创新和实现[9],让模型的使用变得便宜,让我们可以从更多的场景去探索和尝试。

四、写在最后

补充完善chunk上下文这个方案在之前来做是不可能的,因为一个文档要重复让模型进行读取,这个费用太高了。

从豆包的首次降价,到百度的免费模型,到智谱的免费模型,再到各种本地构建的ollama免费模型

随着模型的普及,价格变的便宜,大胆的尝试它与场景的结合就成为了可能。

所以,未来的模型使用,要更多的考虑场景,而不是价格。


附上测评报告:

从最基础的向量查询,到上下文embedding,再到rerank的测试准确度都有了明显的改善,测试结果数据如下[2]:

( 备注:Pass@k 检查每个查询检索到的前 k 个文档中是否存在"最佳文档")

(智谱清言[7]绘制的图)

参考文献:

  • 1\] The best RAG's technique yet? Anthropic's Contextual Retrieval and Hybrid Search:[levelup.gitconnected.com/the-best-ra...](https://link.juejin.cn?target=https%3A%2F%2Flevelup.gitconnected.com%2Fthe-best-rag-technique-yet-anthropics-contextual-retrieval-and-hybrid-search-62320d99004e "https://levelup.gitconnected.com/the-best-rag-technique-yet-anthropics-contextual-retrieval-and-hybrid-search-62320d99004e")

  • 3\] deepseek访问页面: [chat.deepseek.com/](https://link.juejin.cn?target=https%3A%2F%2Fchat.deepseek.com%2F "https://chat.deepseek.com/")

  • 5\]在线字数统计: [www.eteste.com/](https://link.juejin.cn?target=https%3A%2F%2Fwww.eteste.com%2F "https://www.eteste.com/")

  • 7\]智谱清言: [chatglm.cn/main/alltoo...](https://link.juejin.cn?target=https%3A%2F%2Fchatglm.cn%2Fmain%2Falltoolsdetail%3Flang%3Dzh "https://chatglm.cn/main/alltoolsdetail?lang=zh")

  • 9\]deepseek的MLA缓存实现:[blog.csdn.net/yutianzuiji...](https://link.juejin.cn?target=https%3A%2F%2Fblog.csdn.net%2Fyutianzuijin%2Farticle%2Fdetails%2F142372022 "https://blog.csdn.net/yutianzuijin/article/details/142372022")

相关推荐
feasibility.10 小时前
混元3D-dit-v2-mv-turbo生成3D模型初体验(ComfyUI)
人工智能·3d·aigc·三维建模·comfyui
PaperRed ai写作降重助手12 小时前
AI 论文写作工具排名(实测不踩坑)
人工智能·aigc·ai写作·论文写作·智能降重·辅助写作·降重复率
阿杰学AI15 小时前
AI核心知识80——大语言模型之Slow Thinking和Deep Reasoning(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·慢思考·深度推理
SmartBrain15 小时前
OCR 模型在医疗场景的选型研究
人工智能·算法·语言模型·架构·aigc·ocr
阿杰学AI17 小时前
AI核心知识79——大语言模型之Knowledge Conflict(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·rag·知识冲突
PaperRed ai写作降重助手19 小时前
主流 AI 论文写作工具排名(2026 最新)
人工智能·aigc·ai写作·论文写作·论文降重·论文查重·辅助写作
小程故事多_8020 小时前
RAG分块天花板?LGMGC多粒度语义分块策略深度解析与实践思考
人工智能·aigc
SmartBrain20 小时前
AI算法工程师面试:大模型和智能体知识(含答案)
人工智能·算法·语言模型·架构·aigc
renhongxia120 小时前
知识图谱如何在制造业实际落地应用
人工智能·语言模型·自然语言处理·aigc·知识图谱
学习吧~技术储备1 天前
ComfyUI基础学习笔记
ai作画·aigc