李飞飞 / DeepSeek 前员工领衔,复现 R1 强化学习框架,训练 Agent 在行动中深度思考

什么开源算法自称为 DeepSeek-R1(-Zero) 框架的第一个复现?

新强化学习框架 RAGEN,作者包括 DeepSeek 前员工 Zihan Wang、斯坦福李飞飞团队等,可训练 Agent 在行动中深度思考。

论文一作 Zihan Wang 在 DeepSeek 期间参与了 Deepseek-v2 和 Expert Specialized Fine-Tuning 等工作,目前在美国西北大学读博。

他在介绍这项工作时上来就是一个灵魂提问:为什么你的强化学习训练总是崩溃?

而 RAGEN 正是探讨了使用多轮强化学习训练 Agent 时会出现哪些问题 ,以及如何解决这些问题。

通过大量实验,研究团队发现了训练深度推理型 Agent 的三大难点:

  • Echo Trap(回声陷阱):多轮强化学习中,模型过度依赖局部收益的推理,导致行为单一化、探索能力衰退,从而影响长期收益。

  • 数据质量:Agent 生成的交互数据直接影响强化学习的效果。合理的数据应该具有多样性、适度的交互粒度和实时性。比如在单个任务上多试几次,每轮限制 5-6 个动作,并保持 rollout 的频繁更新。

  • 缺乏推理动机:如果没有精心设计的奖励函数,Agent 很难学会多轮任务中持续的推理能力。甚至会出现表面看起来能完成任务, 实际上只是匹配了固定模式的假象。下一步的关键在于建立更细粒度、面向解释的奖励机制。

在交互式随机环境中训练推理 Agent

RAGEN 是一个模块化的 Agent 训练和评估系统,基于 StarPO(State-Thinking-Actions-Reward Policy Optimization)框架, 通过多轮强化学习来优化轨迹级别的交互过程,由两个关键部分组成:

MDP Formulation

将 Agent 与环境的交互表述为马尔可夫决策过程 (MDP),其中状态和动作是 token 序列,从而允许在环境动态上推理。

StarPO:通过轨迹级优化强化推理

StarPO 是一个通用的强化学习框架,用于优化 Agent 的整个多轮交互轨迹,在两个阶段之间交替进行,支持在线和离线学习。

Rollout 阶段:

给定初始状态,该模型会生成多条轨迹。在每一步中,模型都会接收轨迹历史记录并生成推理引导的动作。

xml 复制代码
<think>...reasoning process...</think><ans> action </ans>

环境接收动作并返回反馈(奖励和下一个状态)。

Update 阶段:多回合轨迹优化

生成轨迹后,训练优化预期奖励。StarPO 并非采用逐步优化的方式,而是使用重要性采样来优化整个轨迹。这种方法能够在保持计算效率的同时实现长远推理。

StarPO 支持 PPO、GRPO 等多种优化策略。


除提出算法外,RAGEN 论文中还重点介绍了通过研究推理稳定性和强化学习动态得出的 6 点主要发现。

6 点主要发现

发现 1:多轮训练引入了新的不稳定模式

像 PPO 和 GRPO 这样的单轮强化学习方法的 adaptations 在 Agent 任务中有效,但经常会崩溃。PPO 中的 "批评者" 或许可以 ** 延缓不稳定性,但无法阻止推理能力的下降,这凸显了在 Agent 任务中对专门的稳定性进行改进的必要性。

发现 2:Agent 强化学习中的模型崩溃体现为训练过程中的 "回声陷阱"

早期智能体会以多样化的符号推理做出反应,但训练后会陷入确定性、重复性的模板。模型会收敛到固定的措辞,这表明强化学习可能会强化表面模式而非一般推理,并形成阻碍长期泛化的 "回声陷阱"。

发现 3:崩溃遵循类似的动态,可以通过指标预测

奖励的标准差和熵通常会在性能下降之前发生波动,而梯度范数的峰值通常标志着不可逆崩溃的临界点。这些指标提供了早期指标,并激发了对稳定策略的需求。

发现 4:基于不确定性的过滤提高了训练的稳定性和效率

基于奖励方差过滤训练数据可以有效对抗 "回声陷阱"。仅保留高度不确定的训练实例可以延迟或防止跨任务崩溃,并提高数据效率。

发现 5:任务多样性、行动预算和推出频率影响数据质量

多样化的任务实例能够实现更好的策略对比和跨环境泛化。合适的行动预算能够提供充足的规划空间,并避免过长序列引入的噪声。Up-to-date rollouts 能够确保优化目标与当前策略行为保持一致。

发现 6:如果没有精心的奖励设计,推理行为就无法产生

虽然符号推理在弱监督下的单轮任务中自然出现,但在多轮环境中,如果没有明确鼓励可解释的中间推理步骤的奖励设计,它就无法持续存在。

团队观察到,即使有结构化的提示,如果奖励信号仅关注最终结果,推理能力也会在训练过程中逐渐衰退。这表明如果没有细致的奖励塑造,智能体可能会倾向于走捷径,完全绕过推理。

One More Thing

同团队还有另一个项目 VAGEN,使用多轮强化学习训练多模态 Agent。

VAGEN 引入了回合感知推理交互链优化 (TRICO) 算法,通过两项关键创新扩展了传统的 RICO 方法:选择性 token 屏蔽,跨轮 credit 分配。

与传统的 Agent 强化学习相比,VAGEN 不会平等对待轨迹中的所有 token,而是重点优化最关键的决策 token 并在交互过程中创建更细致的奖励结构,更适合多模态 Agent

RAGEN、VAGEN 代码均已开源,感兴趣的团队可以跑起来了。

论文:
github.com/RAGEN-AI/RA...

代码
github.com/RAGEN-AI/RA...
github.com/RAGEN-AI/VA...

参考链接:

1\][ragen-ai.github.io](https://link.juejin.cn?target=https%3A%2F%2Fragen-ai.github.io "https://ragen-ai.github.io") \[2\][x.com/wzihanw/sta...](https://link.juejin.cn?target=https%3A%2F%2Fx.com%2Fwzihanw%2Fstatus%2F1915052871474712858 "https://x.com/wzihanw/status/1915052871474712858") **欢迎在评论区留下你的想法!** --- **完** ---

相关推荐
说私域1 小时前
互联网生态下赢家群体的崛起与“开源AI智能名片链动2+1模式S2B2C商城小程序“的赋能效应
人工智能·小程序·开源
董厂长4 小时前
langchain :记忆组件混淆概念澄清 & 创建Conversational ReAct后显示指定 记忆组件
人工智能·深度学习·langchain·llm
G皮T8 小时前
【人工智能】ChatGPT、DeepSeek-R1、DeepSeek-V3 辨析
人工智能·chatgpt·llm·大语言模型·deepseek·deepseek-v3·deepseek-r1
九年义务漏网鲨鱼8 小时前
【大模型学习 | MINIGPT-4原理】
人工智能·深度学习·学习·语言模型·多模态
元宇宙时间8 小时前
Playfun即将开启大型Web3线上活动,打造沉浸式GameFi体验生态
人工智能·去中心化·区块链
开发者工具分享8 小时前
文本音频违规识别工具排行榜(12选)
人工智能·音视频
产品经理独孤虾8 小时前
人工智能大模型如何助力电商产品经理打造高效的商品工业属性画像
人工智能·机器学习·ai·大模型·产品经理·商品画像·商品工业属性
老任与码9 小时前
Spring AI Alibaba(1)——基本使用
java·人工智能·后端·springaialibaba
蹦蹦跳跳真可爱5899 小时前
Python----OpenCV(图像増强——高通滤波(索贝尔算子、沙尔算子、拉普拉斯算子),图像浮雕与特效处理)
人工智能·python·opencv·计算机视觉
雷羿 LexChien9 小时前
从 Prompt 管理到人格稳定:探索 Cursor AI 编辑器如何赋能 Prompt 工程与人格风格设计(上)
人工智能·python·llm·编辑器·prompt