长上下文模型(1M token)会杀死RAG吗?—— 理性分析2024年以来,Gemini 1.5 Pro 率先将上下文窗口扩展到1M token,随后Claude 3支持200K、GPT-4 Turbo支持128K,国内厂商也纷纷推出百万token级别的模型。一时间,“长上下文模型将杀死RAG”的声音甚嚣尘上。有人认为:既然能把整本书甚至整个知识库塞进Prompt,何必还要复杂的检索增强?作为RAG开发者,我一开始也有点慌——难道辛辛苦苦搭的向量库、切分策略、重排序全都白费了?但冷静下来分析几个实际数据之后,我发现:长上下文模型不但不会杀死RAG,反而可能让RAG