揭秘o1类模型的过度思考:明明只需5个token,它偏要用900个?

今天给大家分享一篇论文,揭秘o1类超大型语言模型的过度思考:2+3=?答案仅需5个token,o1类模型凭啥要900个?

题目是:Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs 作者单位:腾讯AI Lab、上海交通大学

论文链接:arxiv.org/abs/2412.21...

论文概述

这篇论文探讨了一类被称为"o1-like"的大型语言模型(LLMs)在推理过程中存在的问题,即"overthinking"(过度思考)。这些模型在处理问题时,尤其是简单问题,会分配过多的计算资源,而这种过度的资源分配对于提高答案的准确性几乎没有帮助。具体来说,论文试图解决以下问题:

  • 过度思考现象o1-like模型在处理简单问题时,会生成过多的解决方案和思考步骤,这导致了计算资源的浪费。

  • 资源利用效率:如何智能且高效地在测试期间扩展计算资源,尤其是在面对不同复杂度的问题时。

  • 评估和优化模型效率 :提出了从结果和过程两个角度出发的新效率指标,以评估o1-like模型在计算资源利用上的合理性,并探索了减轻过度思考问题的策略。

  • 保持准确性的同时减少计算开销通过自我训练范式,提出了减少过度思考的方法,这些方法在不牺牲准确性的前提下,简化了推理过程,减少了生成的解决方案数量。

论文的目标是通过深入分析过度思考问题,并提出相应的效率指标和优化策略,来提高o1-like模型在AI推理任务中的计算资源利用效率,减少不必要的计算开销。

研究背景

在人工智能的领域中,大型语言模型(LLMs)如OpenAI的o1模型及其复制品,以其卓越的推理能力引领着技术前沿。这些模型通过模仿人类在回答问题前的深思熟虑,展现了解决复杂问题的强大潜力。它们通过延长思考链(chain-of-thought,CoT),探索多种策略,分解复杂步骤,并进行双重检查,从而增强了处理复杂推理任务的能力。这种方法,被称为"测试时计算扩展",通过在模型的推理阶段分配更多的计算资源,以期获得更准确的响应。

然而,随着这些模型在推理过程中展现出的卓越性能,一个关键问题逐渐浮现:模型是否在测试时智能且高效地扩展了计算资源?在这篇文章中,论文将深入探讨o1-like模型中的一个普遍问题------过度思考

过度思考是指模型在面对简单或答案显而易见的问题时,仍然分配过多的计算资源,这不仅导致了效率低下,还暴露了模型在推理和决策过程中的基本局限性。

具体来说,它们倾向于在非常简单或答案已经显而易见的问题上花费过多的计算资源(以token或思考轮次计)。例如,图1(a)比较了o1-like模型与常规模型在回答"2加3等于多少?"这个问题时的token使用情况。平均而言,o1-like模型消耗的token比常规模型多出1953%。

本篇就是对这一类问题进行了初步探索并提出一些策略缓解思考,通过简化推理过程来减少计算开销,同时保持模型性能。

相关工作

  1. 扩展测试时计算(Scaling Test-Time Compute)

    • 扩展搜索空间:通过增加搜索空间来提供模型发现和选择正确解决方案的机会,例如:自我一致性方法(self-consistency)、最佳-n解码(best-of-n decoding)、 加权多数投票(weighted majority voting)、 最小贝叶斯风险解码(minimum bayes risk decoding)
    • 扩展类人思考模式:通过模拟人类的思考方式来增强模型的推理能力,例如: 链式思考(Chain-of-Thought)、辩论(debating)、 自我纠错(self-correction)/自我批评(self-critique)、 计划-解决(plan-and-solve)
  2. 高效思考(Efficient Thinking)

    • 终止推理:鼓励模型在难以解决问题时通过说"我不知道"来终止推理。
    • 令牌预算感知推理(Token-budget-aware reasoning):提示模型在指定的令牌预算内进行推理。
    • 计算预算分配:根据提示的难度预测计算预算的分布,并据此分配计算能力。
    • 早期停止策略:在推理过程中采用早期停止策略以节省计算预算。
    • 多代理框架:使用大型LLMs处理复杂任务,小型LLMs处理简单任务。

尽管上述工作考虑了如何提高模型的推理效率,但它们主要关注的是传统模型,而不是具有更长思考链(chain-of-thought)的o1-like模型。 本工作首次提出了o1-like模型中的过度思考问题,并通过自我训练方法来训练模型学习如何高效地思考,而不是简单地限制推理空间或由用户指定Token耗费个数

核心内容

论文选择了三个测试集来评估o1-like模型的性能:

  • ASDIV:这是一个包含2,305个实例的英文数学问题语料库,每个问题都标注了问题类型和难度等级(1到6级)。测试集涵盖了三种主要问题类型:基本算术运算、聚合运算和需要额外领域知识的问题,这些通常在小学中遇到。

  • GSM8K:这是一个由人类问题编写者创建的高质量、语言多样的小学数学问题数据集。测试集包含1,319个问题,解决方案通常涉及使用基本算术的一系列简单计算。一个中学生应该能够解决每个问题。

  • MATH500:这是一个挑战性的数据集,包含来自高中数学竞赛的问题,涵盖七个科目(例如,代数前、代数、数论)和基于AoPS的难度等级(从1到5)。这些问题从AMC 8考试中最常见的1级问题到AIME中的5级问题不等。

测试集的整体难度等级为:ASDIV < GSM8K < MATH500。

研究主要关注两个广泛认可的o1-like模型,它们具有明显的长CoT(思考链):QwenQwQ-32B-Preview和DeepSeek-R1-Preview。QwQ-32B-Preview是一个开源模型,而DeepSeek-R1-Preview只能通过Web界面访问。由于DeepSeek-R1-Preview的每日消息限制为50条,论文仅在MATH500测试集上评估了这个模型。

论文通过以下几个步骤解决o1-like模型中的过度思考问题:

探索过度思考问题

在这一部分,论文对o1-like模型生成的输出进行全面分析。首先展示这些模型在响应中的解决方案分布情况。接着提出识别长CoT(思考链)响应中的两个效率问题:准确性和多样性。为了实证评估这些效率问题,基于探索提出了两个效率指标。结论是:

o1-like模型往往会过度思考,特别是在处理更简单的数学问题时。

答案分布

在本文中,答案被定义为包含明确答案的完整模型生成的一部分。例如,在图2中,QwQ生成的每个答案都包含答案5。论文使用Llama-3.3-70B模型来从生成的响应中分离出答案。

图3显示了不同测试集和模型(QwQ-32B-Preview和DeepSeek-R1-Preview)生成响应中的答案数量分布。通常,o1-like模型为大多数实例产生2到4轮答案,QwQ-32B-Preview在测试集上的覆盖率为76%到85%,DeepSeek-R1-Preview在MATH500测试集上的覆盖率为74%。

对于不同的测试集,QwQ-32B-Preview倾向于为更简单的测试集生成更多的答案。例如,在最简单的ASDIV测试集上,QwQ模型的平均答案数量为3.6,而在最困难的MATH500测试集上,平均答案数量为2.8。

为了验证这一发现,研究者们在MATH500测试集的不同难度级别上进行了分析,如图4所示。QwQ-32B-Preview和DeepSeek-R1-Preview在较容易的1-2级问题上生成的答案轮次更多(分别为平均3.75轮和3.35轮),与4-5级问题(分别为平均3.0轮和2.7轮)相比,尽管随着难度级别的增加,token的数量一致增加。这些结果支持了o1-like模型倾向于为更简单的数学问题生成更多答案轮次的主张。

总的来说,这部分内容揭示了o1-like模型在解决不同难度级别的数学问题时,倾向于为简单问题生成更多的答案,这可能表明这些模型在处理简单问题时存在过度思考的现象。

准确性提升的效率

在这部分,论文将探讨o1-like模型在生成解决方案时,如何影响其准确性的效率。这里的直觉是,在图2中的例子里观察到,第一轮答案回复就已经给出了正确答案。而后续的答案回复,虽然占据了生成的token的大多数,但实际上并没有提高准确性。

基于这个观察,论文研究了后续答案回复是否对准确性提升有贡献。具体来说,对于所有o1-like模型在响应中产生正确答案的情况,论文计算了第一个正确答案的出现分布,称之为"首次正确分布"。如果更多的正确答案出现在早期回复中,那么后续回复对准确性提升的贡献就很小,表明效率降低。

图5展示了测试集和模型中首次正确分布的情况。在超过92%的情况下,第一轮答案回复就产生了正确答案。值得注意的是,第一轮通常只包含生成的总token的不到60%,这表明延长的CoT可能并不会显著提高准确性。例如,在ASDIV测试集上,QwQ-32B-Preview模型第一轮解决方案的平均长度是287个token,只占整个回复的38.7%。

这些结果表明,后续解决方案对准确性的提升贡献很小。

结果效率指标: 基于上述观察,论文提出了一个结果效率指标来实证评估后续解决方案对准确性提升的有效性。准确性的效率指标如下:

多样性思考的效率

这一部分考察了o1-like模型在思考过程中多样性的效率。背后的直觉是,虽然解决一个简单的数学问题看起来可能很直接,但从不同的角度来解决它可以增强理解和培养数学思维的灵活性,这本身就是有价值的。

考虑图2中QwQ-32B-Preview的输出示例:

  • 解决方案1陈述了基本事实,即2加3等于5。
  • 解决方案2将加法分解成更小的步骤。
  • 解决方案3使用计数对象的类比。

这三个答案回复提供了关于问题的不同视角。然而,答案4重复了答案3,答案5重复了答案2,使用了类似的视角。

图6展示了每个答案索引的独特性比率。直观上,答案#1的独特性比率总是100%,因为它没有前序答案,因此对于所有实例来说τ都等于1。通常,随着索引的增加,比率会下降,表明后续答案往往重复了之前的答案。例如,在各个测试集中,答案#4的独特性比率大多低于30%,低于答案#3,后者高于45%。

在除了ASDIV之外的测试集中,答案#2的比率显著下降,表现不如答案#3。通过检查输出,我们发现答案#2经常使用与答案#1相同的视角来双重检查答案。随后,答案#3尝试从一个新的视角解决问题。

效率结果

表1展示了模型效率的结果。为了比较,我们包括了两个代表性的传统大型语言模型(LLMs):Llama-3.3-70B-Instruct和Qwen2.5-Math-72B-Instruct。这些传统的LLMs只产生单一答案,这意味着。因此,在这些情况下,结果效率指标ξO等同于准确性,过程效率指标ξP等于1.0。相比之下,o1-like模型生成的响应明显更长,这在提高准确性和答案多样性方面效率较低。我们将这种生成token的低效使用称为"过度思考问题"。

图7展示了MATH500测试集不同难度级别上的详细效率结果。DeepSeek-R1-Preview在2-5级的问题上,无论是结果效率还是过程效率,都一致优于QwQ-32B-Preview。值得注意的是,两个模型在最简单的1级问题上表现都不佳,结果效率低于50%,这与在简单的ASDIV测试集上观察到的结果相符。这些发现强调了o1-like模型在处理更简单的数学问题时尤其明显的过度思考问题。

缓解过度思考问题

本节探讨了通过自训练策略提升o1-like模型效率、减轻过度思考问题的方法。 以下是对文档中提到的四个主要部分的总结:

长度偏好优化

  • 目标:评估模型是否能够产生更高效的回答。
  • 方法:生成10个样本响应,并丢弃未能生成正确答案的样本。
  • 发现:最短的响应在结果和过程效率方面表现更好,使用的轮次和令牌更少。
  • 方法
    • 监督式微调(SFT):使用正合成数据对预训练模型进行微调。
    • 直接偏好优化(DPO):直接在人类偏好的回答上训练模型。
    • 推理偏好优化(RPO):在DPO损失上增加一个负对数似然(NLL)项。
    • 简单偏好优化(SimPO):解决其他偏好优化方法中奖励函数与生成度量之间的差异。

简化答案

  • 目标:进一步简化答案以提高效率。
  • 策略
    • 首次正确解决方案(FCS):保留最早得出正确答案的解决方案。
    • FCS+反思:在正例中包括第二个达到正确答案的解决方案,以保持模型的长反射能力。
    • 贪婪多样化解决方案(GDS):贪婪地扩展提供新视角的解决方案。

Experimental Results(实验结果)

  • 长度偏好优化方法的表现:SimPO在减少生成Token数量方面表现最佳。
  • 响应简化方法的表现:FCS策略在长度上减少最多,但在困难的MATH500测试集上性能下降。FCS+反思方法通过增加一轮反思,提高了性能。

在挑战性测试集上的结果

  • 目标:验证方法是否削弱了o1-like模型处理复杂问题的能力。
  • 测试集
    • GPQA:研究生级别的多选题数据集。
    • AIME90:美国邀请数学考试的数据集。
  • 结果:表格5展示了论文的优化方法在保持模型性能的同时减少了令牌的使用,展示了方法的鲁棒性和泛化能力。

结论

本研究揭示了o1-like模型(类似于OpenAI的o1模型)的一个关键挑战:

在测试时有效地和智能地扩展计算资源。

通过突出过度思考现象并提出效率指标,论文增强了对o1-like模型资源利用的理解,基于自训练的方法有效地减少了过度思考,降低了不必要的计算,同时保持了模型性能。

这项工作不仅提高了模型效率,还为未来在AI推理任务中优化计算资源分配的研究奠定了基础。未来的研究方向包括探索能够根据问题复杂性动态调整的自适应计算策略,以及完善效率指标以实现更广泛的模型泛化。

可以进一步探索的点

论文在结论部分提出了一些可以进一步探索的方向,这些方向有助于优化计算资源在AI推理任务中的分配,并提高o1-like模型的效率和性能。以下是一些具体的探索点:

  • 动态调整计算策略:探索自适应计算策略,能够根据问题的复杂度动态调整计算资源的分配,例如开发模型能够根据输入问题的难度自动决定需要多少计算资源。
  • 扩展模型覆盖范围:将过度思考问题的分析和效率提升方法验证扩展到更多的o1-like模型上,以增强研究结果的普适性和适用性。
  • 改进多样性测量方法:开发成本更低、更易于复制的多样性测量方法,可能涉及使用开源的大型语言模型来评估解决方案的多样性。
  • 扩大训练数据集:使用更大的数据集来训练和验证模型,以确保方法的鲁棒性,例如探索包含百万实例的数据集。
  • 跨领域泛化能力:测试和改进模型在不同领域和不同类型的问题上的泛化能力,确保效率提升策略在广泛的应用场景中有效。
  • 实时推理过程中的计算资源管理:研究如何在推理过程的实时环境中管理计算资源,例如在推理过程中动态调整资源分配。
  • 更精细的效率指标:开发更精细的效率指标来评估模型在不同方面的表现,这可能包括对推理步骤、时间复杂度和能源消耗的评估。
  • 多模态和多任务学习:探索o1-like模型在多模态和多任务学习环境中的表现,以及如何优化这些环境中的资源分配。
  • 模型解释性和透明度:提高模型决策过程的解释性和透明度,帮助研究人员和用户更好地理解模型的行为,从而更有效地管理计算资源。
  • 长期推理的优化:研究如何优化模型在进行长期推理时的性能,包括减少推理时间和提高推理过程中的资源利用效率。

添加微信,回复"大模型"进入技术交流群,获取更多资讯

相关推荐
勾股导航3 小时前
大模型Skill
人工智能·python·机器学习
Shawn_Shawn4 小时前
mcp学习笔记(三)-Mcp传输协议代码示例
llm·agent·mcp
卷福同学5 小时前
【养虾日记】Openclaw操作浏览器自动化发文
人工智能·后端·算法
春日见5 小时前
如何入门端到端自动驾驶?
linux·人工智能·算法·机器学习·自动驾驶
光锥智能5 小时前
从自动驾驶到 AI 能力体系,元戎启行 GTC 发布基座模型新进展
人工智能
luoganttcc5 小时前
自动驾驶 世界模型 有哪些
人工智能·机器学习·自动驾驶
潘高5 小时前
10分钟教你手撸一个小龙虾(OpenClaw)
人工智能
禁默5 小时前
光学与机器视觉:解锁“机器之眼”的核心密码-《第五届光学与机器视觉国际学术会议(ICOMV 2026)》
人工智能·计算机视觉·光学
深小乐6 小时前
不是DeepSeek V4!这两个神秘的 Hunter 模型竟然来自小米
人工智能
laozhao4326 小时前
科大讯飞中标教育管理应用升级开发项目
大数据·人工智能