LangChain入门(十四)- Agentic RAG 的正确打开方式:用 LangChain 实现“有思考、可解释、不遗漏”的检索增强问答在构建检索增强生成(RAG)系统时,许多开发者会陷入一个两难:是追求极致效率,把所有检索结果一次性丢给大模型生成答案;还是牺牲一点性能,让 AI 分步骤“思考”并逐步输出中间结论,以提升透明度和用户信任?前者看似简洁高效,却容易变成黑盒;后者虽然体验友好,但若设计不当,极易导致重复检索、LLM 调用冗余、答案冲突等问题。最近,一种结合 LangChain 与 Qdrant 的 Agentic Flow 被广泛尝试:用户提问后,系统先用 LLM 动态拆解出多个子问题,再逐个检索、逐个生成中间回答,最后汇总成