论文阅读:arxiv 2025 Chain of Draft: Thinking Faster by Writing Less

总目录 大模型安全相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328

https://www.doubao.com/chat/8749714891935490

https://arxiv.org/pdf/2502.18600

Chain of Draft: Thinking Faster by Writing Less

速览

这篇论文提出了一种名为"Chain of Draft(CoD)"的新方法,核心是让大语言模型在推理时用更简洁的中间步骤,就像人类解决问题时记要点而非详细步骤一样。以下是对文档内容的通俗解读:

1. 研究背景

  • 大语言模型的推理方式:像GPT-4这样的大语言模型,在解决复杂问题时常用"Chain of Thought(CoT)"方法,即一步步详细推理,比如算数学题时把每一步都写得清清楚楚。这种方法确实有效,但会产生大量冗余内容,增加计算成本和响应延迟。
  • 人类的推理习惯:人类解决问题时更倾向于记"要点",比如算题时只写关键公式和中间结果,不会啰嗦地解释每一步。CoD就是受此启发,让模型用更简洁的方式推理。

2. CoD的核心思路

  • 减少冗余,聚焦关键:CoD要求模型在推理时每个步骤最多用5个词,只保留对解题最关键的信息。比如算"20个棒棒糖给了Denny一些后剩12个,给了多少个",CoT会详细解释"初始有20个,给了之后剩12个,所以用减法......",而CoD直接写"20 - x = 12;x = 8"。
  • 效果:在多个推理任务中,CoD的准确率和CoT相当甚至更高,但用的token(可以理解为"字数")只有CoT的7.6%左右,大大降低了计算成本和延迟。

3. 实验验证

  • 测试任务:涵盖算术推理(如GSM8K数学题)、常识推理(如日期和体育知识理解)、符号推理(如硬币翻转预测)。
  • 主要结果
    • 算术推理:GPT-4o和Claude 3.5用CoD时准确率约91%,接近CoT的95%,但token用量减少80%,延迟降低约70%。
    • 常识推理:在体育理解任务中,Claude 3.5用CoD的token用量从189.4骤降至14.3,准确率反而从87%提升到89.7%。
    • 符号推理:CoD和CoT都能达到100%准确率,但CoD的token用量少68%-86%。

4. 局限性

  • 零样本场景表现差:如果不给模型示例,直接让它用CoD推理,准确率会明显下降。比如Claude 3.5在零样本GSM8K测试中,CoD仅比直接回答高3.6%。
  • 小模型效果有限:在参数小于30亿的小模型(如Qwen2.5、Llama 3.2)上,CoD虽然能减少token用量,但准确率比CoT低不少,可能因为小模型训练数据中缺乏CoD式的推理模式。

5. 实际意义

  • 成本与效率优势:CoD能大幅降低大模型的使用成本,比如企业部署时可减少算力消耗,同时让模型响应更快,适合实时应用(如对话机器人、实时问答系统)。
  • 未来方向:可以和其他优化方法(如并行推理)结合,进一步提升效率;也可以通过专门训练让小模型更好地适应CoD。

总结

CoD证明了大模型推理不必"啰嗦",用简洁的"要点式"思考既能保证准确性,又能显著提升效率、降低成本,为大模型的实际应用(尤其是对延迟和成本敏感的场景)提供了新方向。

相关推荐
DuHz1 天前
无线通信与雷达感知融合的波形设计与信号处理——论文阅读(上)
论文阅读·信号处理
DuHz1 天前
无线通信与雷达感知融合的波形设计与信号处理——论文阅读(下)
论文阅读·汽车·信息与通信·信号处理
张较瘦_2 天前
[论文阅读] AI + 软件工程 | LLM救场Serverless开发!SlsReuse框架让函数复用率飙升至91%,还快了44%
论文阅读·人工智能·软件工程
m0_650108243 天前
InstructBLIP:面向通用视觉语言模型的指令微调技术解析
论文阅读·人工智能·q-former·指令微调的视觉语言大模型·零样本跨任务泛化·通用视觉语言模型
做cv的小昊3 天前
VLM经典论文阅读:【综述】An Introduction to Vision-Language Modeling
论文阅读·人工智能·计算机视觉·语言模型·自然语言处理·bert·transformer
m0_650108244 天前
PaLM-E:具身智能的多模态语言模型新范式
论文阅读·人工智能·机器人·具身智能·多模态大语言模型·palm-e·大模型驱动
m0_650108244 天前
PaLM:Pathways 驱动的大规模语言模型 scaling 实践
论文阅读·人工智能·palm·谷歌大模型·大规模语言模型·全面评估与行为分析·scaling效应
小殊小殊4 天前
【论文笔记】视频RAG-Vgent:基于图结构的视频检索推理框架
论文阅读·人工智能·深度学习
有点不太正常4 天前
《ShadowCoT: Cognitive Hijacking for Stealthy Reasoning Backdoors in LLMs》——论文阅读
论文阅读·大模型·agent安全
小殊小殊4 天前
【论文笔记】大型语言模型的知识蒸馏与数据集蒸馏
论文阅读·人工智能·深度学习