从ReAct到IterResearch

ReAct的痛点

ReAct 的核心局限:每一轮工具调用和返回结果都被完整地追加到消息历史中。完成一个需要 20 步工具调用的研究任务,上下文会积累几万甚至十几万 token,极容易超出模型窗口限制,且越到后期模型越难「记住」最初的任务目标。

IterResearch 的解法

把 Deep Research 建模为马尔可夫决策过程(MDP),核心创新是引入「常量工作空间」。在 MDP 框架下,Agent 每一时刻的决策只依赖于当前的状态(State),而不需要完整的历史。

不再把完整的对话历史传给模型,而是维护一个结构化的状态文档,每步更新这个文档:

json 复制代码
{
  "research_question": "比较 2024 年中美两国电动车政策对特斯拉和比亚迪的影响",
  "confirmed_facts": [
    {
      "fact": "中国 2024 年新能源补贴延续至 2025 年",
      "source": "工信部政策文件"
    },
    {
      "fact": "美国 IRA 法案对在华生产电动车征收 100% 关税",
      "source": "白宫官网"
    }
  ],
  "pending_questions": [
    "比亚迪 2024 年海外销量数据",
    "特斯拉上海工厂受关税影响的具体测算"
  ],
  "search_history": [
    "中国电动车补贴政策 2024",
    "US IRA EV tariff China"
  ],
  "current_focus": "查询比亚迪 2024 年出口数据"
}

每步模型只看这个状态文档 + 最近一次工具返回,而不是完整的历史对话。工具的原始响应处理完即丢弃,只把提取的关键事实写入 confirmed_facts。这样无论任务做了多少步,传给模型的上下文长度始终接近常量,从根本上解决了上下文爆炸问题。

推理过程

IterResearch 采取的是 「读取-修改-覆盖」 策略:

  1. Read(读取) :模型读取当前的「状态文档」。

  2. Think & Act(思考与行动) :模型输出 <think><tool_call>

  3. Execute & Observe(执行与观察) :系统运行工具,获得原始结果(比如 5000 字的网页内容)。

  4. Refine(更新状态 - 关键一步)

    • 重点 :系统不再把 5000 字原文塞进对话历史。
    • 而是启动一个 小模型(或再次调用主模型) ,要求它:"根据刚才的搜索结果,更新上面的「状态文档」,把新知识填入「事实集」,把已解决的「盲区」划掉"。
  5. Clean Slate(清空重置) :下一轮开始时,清空 之前的中间推理过程,只给模型发送更新后的「状态文档」

相关推荐
洛阳泰山4 小时前
Maxkb4j集成sqlbot MCP实现企业智能问数智能体
java·ai·springboot·agent·智能问数
yezannnnnn5 小时前
AI Agent又删我数据库?我直接写了个安全拦截器(附项目源码)
安全·agent·claude
GitCode官方5 小时前
头号 Builder 集结|出海 Agent 开造!大疆 Pocket4 等你赢!
人工智能·agent·atomgit
DreamWear5 小时前
Claude Context:让 AI 编程助手真正"看见"整个代码库
人工智能·agent
DreamWear5 小时前
Agent Skills:给 AI 编码代理装上高级工程师的工作纪律
人工智能·agent
欧雷殿5 小时前
AI 原生团队搭建:一人也能做人生 CEO
后端·agent·aiops
深海鱼在掘金6 小时前
深入浅出 LangChain —— 第十四章:可观测性与生产运维
人工智能·langchain·agent
阿荻在肝了7 小时前
Agent学习八:LangGraph学习-小结
python·学习·agent
qcx237 小时前
【AI Engineering · Harness 系列】02 确定性外壳 × 非确定性内核——git push 红线的故事
人工智能·git·prompt·agent·engineering·harness