前言
大家心心念念的专栏《深入浅出LangChain&LangGraph AI Agent 智能体开发》的基础部分已全部更新完毕啦~, 要想更熟练地运用 LangChain 与 LangGraph 开发智能体,离不开大量项目实战的积累。因此从本期开始,笔者将基于所学知识,带大家逐步完成多个实战项目,帮助大家在动手编码中真正掌握基于 LangChain 与 LangGraph 的智能体开发技能。
从本期分享开始大家来完成第一个实战项目------使用 LangGraph 搭建多智能体系统,实现被誉为 "大模型幻觉克星"的 DeepResearch 应用。本期内容详细介绍DeepResearch的应用体系,为大家之后的实战编写奠定理论基础。
《深入浅出LangChain&LangGraph AI Agent 智能体开发》专栏内容源自笔者在实际学习和工作中对 LangChain 与 LangGraph 的深度使用经验,旨在帮助大家系统性地、高效地掌握 AI Agent 的开发方法,在各大技术平台获得了不少关注与支持。目前基础部分已更新 20 讲,接下来将重点推出实战项目篇,并随时补充笔者在实际工作中总结的拓展知识点。如果大家感兴趣,欢迎关注笔者的掘金账号与专栏,也可关注笔者的同名微信公众号 大模型真好玩 ,每期分享涉及的代码均可在公众号私信: LangChain智能体开发免费获取。
一、新一代信息检索增强工具DeepResearch
1.1 DeepResearch简介
经常使用大语言模型的用户总会遇到大模型知识库更新不及时、生成长文本效果不佳的问题。为解决这些问题,2025年2月,OpenAI 在 ChatGPT 中开发了名为 DeepResearch 的在线服务功能。该功能一经发布便迅速走红。用户普遍认为,DeepResearch 能在多个网站上执行知识检索与交叉验证,显著增强了信息的确定性,并具备生成长篇幅、高质量、高置信度文本内容的能力。在 OpenAI 的官方演示中,ChatGPT 借助 DeepResearch 一次性输出了超过一万字的技术报告,震惊世界。随着功能迭代,DeepResearch 也不断发展,逐步加入了图片生成与多类型文档编写等能力。

DeepResearch功能的核心能力如下:
- 更大规模检索:通过广泛联网搜索获取更准确、更全面的知识,有效扩展模型的知识边界,抑制幻觉产生;
- 超长文本编写:能够一次性输出结构完整、内容连贯的长篇文档,极大提升了实用效率。
DeepResearch实现以上两项核心能力的思想也非常明确:使用大规模的知识检索工具对网页和本地数据核验后进行检索,同时依托完整流程编排将检索后的数据进行多轮修正和拼接后,引导大语言模型完成长文档的编写。基于此DeepResearch也被赋予了一个响亮的名字:信息检索增强。(大家可以类比为知识库RAG知识检索增强)。
1.2 DeepResearch明星项目
随着 DeepResearch 的迅速走红,其设计理念与强大功能吸引了众多企业与开源组织的关注与跟进,涌现出一批优秀的开源实现。下面为大家介绍几个具有代表性的 DeepResearch 明星项目:
1.2.1 LangChainAI open_deep_researcher
open_deep_researcher
是由 LangChain AI 团队推出的开源深度研究智能体项目,旨在复现并扩展 DeepResearch 的核心能力,使开发者无需付费即可借助 AI 自动化完成深度信息调研与报告撰写。
用户只需输入一个研究主题或问题,该智能体便会自动生成搜索查询,抓取并总结网页内容,识别知识盲区并持续补充检索,最终输出结构清晰的 Markdown 研究报告。其开源地址为:github.com/langchain-a...

1.2.2 谷歌Gemini Fullstack LangGraph Quickstart
Gemini Fullstack LangGraph Quickstart
(也被称为深度研究增强型对话式 AI 系统)是 Google 于 2025 年 6 月开源的全栈 AI Agent 模板项目。该项目深度融合了 Google 的大语言模型 Gemini 2.5 系列与开源的 LangGraph 框架,展示如何构建一个具备深度研究能力的对话式 AI 系统。
在该系统中,后端基于 LangGraph 编排的智能 Agent 能够对用户查询执行深度资料检索:自动生成搜索关键词、调用 Google 搜索获取信息、分析结果并识别知识空白,通过多轮迭代检索,最终生成带有引用来源的可靠答案。前端则提供了友好的 React 网页界面,方便用户与 Agent 进行自然对话交互。其开源地址为: github.com/google-gemi...

1.2.3 字节跳动DeerFlow
DeerFlow
(全称 Deep Exploration and Efficient Research Flow)是字节跳动于 2025 年 5 月开源的多智能体深度研究框架,基于 LangStack 构建。该项目致力于自动化复杂的研究流程,通过协调器、规划器、研究员、编码员和报告员等多个智能体的分工协作,自动完成网络搜索、信息抓取、数据分析乃至代码执行等任务,并最终输出图文报告、PPT 或播客音频等多模态内容。
其特色在于支持"人在回路"机制,允许用户通过自然语言实时干预研究计划。DeerFlow 适用于学术研究、市场调研、内容创作及企业数据分析等多种需要深度信息处理的场景,显著提升了研究与内容生产的自动化水平与效率。其开源地址为:github.com/bytedance/d...
。
二、主流DeepResearch系统介绍
论文《A Comprehensive Survey of Deep Research: Systems, Methodologies, and Applications》梳理了OpenAI、Google、Microsoft、Meta、Anthropic 等主流科技公司对 DeepResearch 系统的技术构想与实践路径。本章节将基于该论文,介绍DeepResearch的核心维度和流行架构:
2.1 DeepResearch的三个核心维度
该论文将DeepResearch能力抽象为以下三个核心维度:
维度 | 含义 | 论文要点 |
---|---|---|
认知-推理 (Cognitive Reasoning) | 以 LLM 作为思考引擎,具备自主规划、链式推理与反思。 | 系统需能把复杂研究任务拆分为子目标,自主调用工具再综合结论。 |
工具集成 (Tool Integration) | 无缝调用搜索 / 数据库 / 代码执行等外部工具。 | 强调"可插拔工具层",并提出超过 80 个商用,开源实现对比。 |
流程自动化 (Workflow Automation) | 端到端覆盖检索、阅读、实验、写作、迭代。 | 区分于只包一层 prompt 的"单点 LLM 应用"。 |
论文明确指出,只有同时具备大于等于2个维度且以大模型为核心推理单元的系统才称得上DeepResearch系统。
2.2 主流DeepResearch类架构模式
2.2.1 Pipeline-Agent (顺序管线)
一种直观的架构模式: 大模型按顺序执行各个步骤,先将任务拆解并扩展为多个子问题,接着对每个问题进行检索,提取检索结果中的关键信息并合并,最后统一输入到大语言模型中进行长文档的编写。我们后续从0到1代码实现 DeepResearch 应用也将采用这种模式。
该架构的特点是大模型分段调用,依次完成搜索->读取->汇总,代表产品有Perolexity
,PubMed GPT
。

2.2.2 Planner/Executor-Agent (层级管线)
一种Multi多智能体架构。顶层由一个作为 Planner 的大模型智能体构成任务树,下层由多个执行不同任务的子智能体作为 Executor。
此架构中,Planner是整个系统里的监督者角色,所有Executor子智能体的进展都会向Planner汇报沟通,Planner负责监控各智能体的运行状态,并最终汇总所有智能体的执行结果。代表产品有:OpenAI DeepResearch
, Microsoft AutoGen
。

2.2.3 Cooperative Multi-Agent (合作管线)
一种交互式架构,所有智能体之间都可以直接交互,不同智能体的输出由评价模型进行验证和比较,通过多智能体间的协作提升研究深度。代表性产品包括:Anthropic Team-Agent 原型
和 Google Gemini "Science Agents" 实验项目
。

2.2.4 Memory-Centric (知识图谱架构)
一种知识图谱架构,该架构将网络检索与内部混合检索的结果及过程记忆统一写入向量库与图存储系统中,支持 "全局关联"和"持续研究"模式,从而提升知识的全面性与准确性(其原理可参考笔者的文章:准确率飙升!Graph RAG如何利用知识图谱提升RAG答案质量(一)------GraphRAG是什么?)。

2.3 巨头公司DeepResearch类的应用及侧重点
不同的公司对DeepResearch应用理解也有侧重点,下表总结了主要科技公司的技术路线与关注重点:
公司 | 对应产品 / 原型 | 技术要点 | Deep Research 侧重点 |
---|---|---|---|
OpenAI | GPT + "DeepResearch" 功能位(文中列为商业样例) | 128 k 上下文 + Retrieval-Augmented Generation;函数调用触发链式工具。 | 认知-推理 + 工具集成:LLM 作为"研究总管",外呼 Papers with Code、ArXiv API、代码解释器。 |
Gemini DeepResearch | 1 M token 长上下文、循环检索-写作;Notebook-Agent 协同。 | 极长上下文 + 自动摘要/对比实验。 | |
Microsoft | Copilot + AutoGen Stack | Planner-Executor 多 Agent;Neo4j Graph-RAG;Office 文档写作链。 | 流程自动化:把文献检索→Excel 统计→Word 报告串成 Workflow。 |
Meta (FAIR) | LlamaCode Research Companion | Llama + Code Interpreter + PaperQA。 | 开源路线:私有知识库 + 本地 RAG。 |
Anthropic | Claude "Research Assistant" 模式 | 200 k context;Constitutional self-critique;搜索-批注-写长文。 | 安全对齐 + 长文写作。 |
2.4 DeepResearch 的价值与挑战
总体而言,DeepResearch 类应用在以下方向为我们提供了重要价值,同时也面临相应挑战:
方向 | 巨头共识 | 挑战 |
---|---|---|
超长上下文 + 批判性检索 | 利用 128 k--1 M 窗口直接"整卷"阅读论文集;多轮自提问、自验证。 | 成本 & 速度;Token-泄漏风险;引用准确率。 |
Hybrid-RAG-2.0 | Web + 私库 + 结构化数据库多通路检索,向量 + 关键字 + 图融合。 | 检索质量评估标准;新旧版本冲突;跨语种融合。 |
自反馈-自改进 (RLAIF) | 让 Agent 生成多版推理链,自动打分择优。 | 反馈信号设计;防止模式坍缩。 |
安全对齐 & 审计 | 引入责任链日志(Tool 调用、引用来源、判例比对)。 | 大规模日志存储成本;隐私合规;解释性欠缺。 |
多模态科研 (代码、图表、实验仪数据) | Gemini、GPT-4o 开始支持数学推导、图片解析、代码执行。 | 上下文融合策略;推理稳定性。 |
以上就是我们今天分享的全部内容~
三、总结
本篇分享系统介绍了DeepResearch技术,阐述了其通过大规模检索与流程编排解决大模型幻觉和长文本生成难题的核心机制,并解析了认知推理、工具集成与流程自动化三大能力维度。文章详细梳理了四种主流架构模式及多家科技巨头的技术路线,同时总结了当前面临的挑战与机遇。具备一定的理论基础之后,从下篇文章开始我们将从零构建DeepResearch系统,下一期重点讲解如何接入和配置检索工具,实现高效的大规模信息检索功能,大家敬请期待~
《深入浅出LangChain&LangGraph AI Agent 智能体开发》专栏内容源自笔者在实际学习和工作中对 LangChain 与 LangGraph 的深度使用经验,旨在帮助大家系统性地、高效地掌握 AI Agent 的开发方法,在各大技术平台获得了不少关注与支持。目前基础部分已更新 20 讲,接下来将重点推出实战项目篇,并随时补充笔者在实际工作中总结的拓展知识点。如果大家感兴趣,欢迎关注笔者的掘金账号与专栏,也可关注笔者的同名微信公众号 大模型真好玩 ,每期分享涉及的代码均可在公众号私信: LangChain智能体开发免费获取。