腾讯AI Lab与上交大探索模型“过度”思考

自OpenAI推出o1模型后,其多路&长链推理与复杂规划能力对于系统②·慢思考范式的建立提供了一种从train-time到test-time scaling law的延展。o1模型通过模拟人类深度思考过程,在思维链中运用自我反思、纠错以及探索多种解法等推理策略,延展了强大的推理性能,从而能够持续优化答案质量。然而,随着o1模型的广泛应用,一个潜在问题亦逐渐凸显出来,即"过度思考"。

近期,国内外许多类似o1的模型也陆续出现,比如Qwen团队近期开源的QwQ-32B-Preview,Deepseek推出的R1-Preview等模型。这些模型在推理时同样具备 "深度思考" 的特性,但也暴露出了类似的问题:在不必要的情况下生成过长的思维链反而浪费了计算资源。如论文标题的例子:"2+3=?"...

本篇论文的目的之一即是对这种"过度思考"对不同问题与任务在不同场景应用中展开系统性分析并尝试建立针对Outcome Efficiency与Process Efficiency的"过度"定义。

同时,论文亦提出了缓解"过度"思考的一系列数据样本构造及模型优化方法,包括:

Shortest Response:使用模型采样结果中最短的生成结果作为正样本。

First-Correct Solutions, FCS:使用模型采样结果中最短的首次得到正确答案的解答作为正样本,抛弃所有后续的思考。

FCS+Reflection:由于绝大多数的采样结果都是在第一个解答中就出现了正确答案,仅保留首个正确回答可能会使得模型退化,因此研究者们在第一次得到正确答案后,额外保留了一轮反思的内容。Greedily Diverse Solutions,GDS:除了单纯地对长度进行控制,另一个优化思路是尽可能保留更多样化的思考轨迹,因此研究者们在 FCS 方法的基础上,尽可能多地保留了包含不同推理策略的解答。

基于以上几种偏好数据,研究者们尝试了最基础的 SFT 以及多种偏好优化算法,如 DPO,RPO以及 SimPO,实验结果大家可参考原论文。

不过我想这也仅是刚刚开始,在现实世界复杂而多样的应用场景中,甚至于未来不同定义下的AGI,这种差异化的思考模式所带来的不同推理生成结果,也许会成为llm迈向并建立另一条模型通用能力上的助推器,而潜在的隐式CoT也许会在其中起着某种微妙的调和或平衡作用。

相关推荐
3DVisionary几秒前
3D-DIC与机器学习协同模拟材料应力-应变本构行为研究
人工智能·机器学习·3d·3d-dic技术 机器学习·应力-应变本构行为·卷积神经网络(ecnn)·数字图像相关法(dic)
神经星星2 分钟前
无需预对齐即可消除批次效应,东京大学团队开发深度学习框架STAIG,揭示肿瘤微环境中的详细基因信息
人工智能·深度学习·机器学习
神经星星2 分钟前
【vLLM 学习】调试技巧
人工智能·机器学习·编程语言
SweetCode8 分钟前
裴蜀定理:整数解的奥秘
数据结构·python·线性代数·算法·机器学习
Xiaok101820 分钟前
解决 Hugging Face SentenceTransformer 下载失败的完整指南:ProxyError、SSLError与手动下载方案
开发语言·神经网络·php
程序员Linc21 分钟前
写给新人的深度学习扫盲贴:向量与矩阵
人工智能·深度学习·矩阵·向量
ゞ 正在缓冲99%…21 分钟前
leetcode76.最小覆盖子串
java·算法·leetcode·字符串·双指针·滑动窗口
xuanjiong22 分钟前
纯个人整理,蓝桥杯使用的算法模板day2(0-1背包问题),手打个人理解注释,超全面,且均已验证成功(附带详细手写“模拟流程图”,全网首个
算法·蓝桥杯·动态规划
xcLeigh29 分钟前
OpenCV从零开始:30天掌握图像处理基础
图像处理·人工智能·python·opencv
果冻人工智能32 分钟前
如何有效应对 RAG 中的复杂查询?
人工智能