RAG拉满-上下文embedding与大模型cache

无论怎么选择RAG的切分方案,切分都不准确。

最近,anthropics给出了补充上下文的embedding的方案,RAG有了新的进展和突破[1]。

一、RAG存在的问题

比如有西游记这本书中(第一回 惊天地美猴王出世),一个文档的chunk拆分如下:

复制代码
"师兄们见了,鼓着掌称赞他。"

很难知道更多关于这个chunk的基本信息,它的上下文不够清晰,那很难让LLM总结得到更准确的总结和回答。

二、上下文embedding

假设根据所属的文档,补充完善这个chunk的上下文信息,就变成这样的chunk:

复制代码
"孙悟空在菩提祖师门下学成七十二般变化和筋斗云后,展示给师兄们看,变出一棵大树,师兄们对此表示赞赏。"

这样,一个chunk的上下文信息就变得更加完整了。

使用这样的chunk信息,可以让LLM得到更准确的回答。

提示语:

xml 复制代码
<document>
	{原始文档}
</document>
	  
你的任务是改写一下这个chunk:提供一个简短的上下文补充完整chunk在整个文档中的含义,以便改进chunk的搜索检索。 只回答简洁的上下文,不要回答其他内容。
 以下是文档中我们想要的部分chunk。
<chunk>
	{当前chunk}
</chunk>

使用deepseek的测试结果如下[3][4]:

三、大模型Cache

通过字数统计来看,如果每一个chunk都需要传入整个文档,则费用是巨大的。 整个文档(西游记 第一回)的字数统计如下:

那为什么要使用DeepSeek? 从能力的各个方面看,deepseek表现的都很好[6]。 除此之外有一个更大的优点--价格便宜。

除了普通的输入输出价格之外,deepseek提出了一个缓存价格的概念: 如果你传入给模型的前缀内容是相同的,则会命中缓存。命中缓存的费用降低了10倍。

只要前缀相同,就会命中缓存[8](以下是官方文档中的事例代码):

上图中我划线的部分都是缓存命中的。

再回到我们补充chunk上下文的案例,提示语如下:

xml 复制代码
<document>
	{原始文档}
</document>
	  
你的任务是改写一下这个chunk:提供一个简短的上下文补充完整chunk在整个文档中的含义,以便改进chunk的搜索检索。 只回答简洁的上下文,不要回答其他内容。
 以下是文档中我们想要的部分chunk。
<chunk>
	{当前chunk}
</chunk>

原始文档部分以及提示语部分都是一致的,只有如下片段是缓存不命中的:

bash 复制代码
	{当前chunk}
</chunk>

这样,我们的费用就大大降低了,通过大模型补充chunk的上下文就成为了可能。

感谢deepseek的创新和实现[9],让模型的使用变得便宜,让我们可以从更多的场景去探索和尝试。

四、写在最后

补充完善chunk上下文这个方案在之前来做是不可能的,因为一个文档要重复让模型进行读取,这个费用太高了。

从豆包的首次降价,到百度的免费模型,到智谱的免费模型,再到各种本地构建的ollama免费模型

随着模型的普及,价格变的便宜,大胆的尝试它与场景的结合就成为了可能。

所以,未来的模型使用,要更多的考虑场景,而不是价格。


附上测评报告:

从最基础的向量查询,到上下文embedding,再到rerank的测试准确度都有了明显的改善,测试结果数据如下[2]:

( 备注:Pass@k 检查每个查询检索到的前 k 个文档中是否存在"最佳文档")

(智谱清言[7]绘制的图)

参考文献:

  • 1\] The best RAG's technique yet? Anthropic's Contextual Retrieval and Hybrid Search:[levelup.gitconnected.com/the-best-ra...](https://link.juejin.cn?target=https%3A%2F%2Flevelup.gitconnected.com%2Fthe-best-rag-technique-yet-anthropics-contextual-retrieval-and-hybrid-search-62320d99004e "https://levelup.gitconnected.com/the-best-rag-technique-yet-anthropics-contextual-retrieval-and-hybrid-search-62320d99004e")

  • 3\] deepseek访问页面: [chat.deepseek.com/](https://link.juejin.cn?target=https%3A%2F%2Fchat.deepseek.com%2F "https://chat.deepseek.com/")

  • 5\]在线字数统计: [www.eteste.com/](https://link.juejin.cn?target=https%3A%2F%2Fwww.eteste.com%2F "https://www.eteste.com/")

  • 7\]智谱清言: [chatglm.cn/main/alltoo...](https://link.juejin.cn?target=https%3A%2F%2Fchatglm.cn%2Fmain%2Falltoolsdetail%3Flang%3Dzh "https://chatglm.cn/main/alltoolsdetail?lang=zh")

  • 9\]deepseek的MLA缓存实现:[blog.csdn.net/yutianzuiji...](https://link.juejin.cn?target=https%3A%2F%2Fblog.csdn.net%2Fyutianzuijin%2Farticle%2Fdetails%2F142372022 "https://blog.csdn.net/yutianzuijin/article/details/142372022")

相关推荐
SmartBrain13 小时前
AI深度解析:智能体产品核心理念与技术架构
人工智能·架构·aigc
与虾牵手13 小时前
Embedding API 怎么调用?2026 三种方案实测,附 RAG 完整代码
aigc·ai编程
trashwbin14 小时前
Harness Engineering:Agent 的问题,开始变成软件工程问题了
aigc·agent
树獭叔叔18 小时前
FFN 激活函数深度解析:从 ReLU 到 SwiGLU 的演进之路
算法·aigc·openai
树獭叔叔20 小时前
OpenClaw 多 Agent 通信机制解析:sessions_spawn 与 sessions_send
后端·aigc·openai
宝桥南山1 天前
GitHub Copilot - 可以使用Local, Copilot CLI, Cloud等不同方式来运行agent tasks
microsoft·微软·github·aigc·copilot·ai编程
枫叶丹41 天前
【HarmonyOS 6.0】Agent Framework Kit深度解析:构建应用与智能体的无缝连接
华为·aigc·harmonyos
sin°θ_陈1 天前
前馈式3D Gaussian Splatting 研究地图(路线三):大重建模型如何进入 3DGS——GRM、GS-LRM 与 Long-LRM 的方法转向
3d·aigc·gpu算力·三维重建·空间计算·3dgs·空间智能
橙序员小站1 天前
Harness Engineering:从 OpenClaw 看 AI 助理的基础设施建设
后端·aigc·openai
GISer_Jing2 天前
AI Agent操作系统架构师:Harness Engineer解析
前端·人工智能·ai·aigc