Deep Think with Confidence:让大模型更准确

DeepConf如何通过token生成机制与投票优化减少推理时间并提升性能

论文:https://arxiv.org/abs/2508.15260

github:https://github.com/paipeline/deep-think-with-confidence

1. 降低token生成量:减少自回归计算次数
  • 自回归生成的线性开销 :大语言模型的token生成是自回归的,每个token的生成依赖前序所有token的上下文,计算复杂度与token数量成线性关系。DeepConf通过以下方式减少生成token数量:

    • 在线模式动态终止低质量轨迹:实时监控组置信度(Group Confidence),若低于预设阈值则提前终止生成。例如,在AIME 2025任务中,DeepConf@512模式下减少84.7%的生成token,直接降低自回归次数。
    • 离线模式置信度过滤:仅保留Top 10%或Top 90%的高质量轨迹,减少冗余生成。例如,DeepConf-low保留10%的轨迹,减少90%的自回归计算。
  • 效果

    减少token生成量直接降低模型推理的计算开销,同时减少显存带宽压力,提升硬件利用率。

2. 优化投票机制:提升准确性与计算效率
  • 传统自一致性方法的局限

    • 多数投票平权处理所有轨迹:低质量轨迹可能干扰投票结果,导致准确性下降。
    • 全局平均置信度的不足:无法捕捉中间步骤的置信波动,可能掩盖关键错误。
  • DeepConf的改进

    • 置信度加权投票:对轨迹按其置信度(如组置信度、尾部置信度)加权投票,高质量轨迹的权重更高,提升最终答案的可靠性。
    • 置信度过滤:仅保留高置信度轨迹(如Top 10%或Top 90%),减少低质量轨迹对投票的干扰。例如,DeepConf@512在GPT-OSS-120B上达到99.9%准确率,显著高于传统多数投票(97.0%)。
  • 效果

    通过加权投票和过滤,DeepConf在减少计算量的同时,提升了答案的准确性,并避免了低质量轨迹的冗余处理。

3. 动态置信度指标:更细粒度的质量评估
  • 局部置信度信号 DeepConf引入组置信度 (Group Confidence)和尾部置信度(Tail Confidence)等细粒度指标,捕捉中间步骤的置信波动:

    • 组置信度:通过滑动窗口平均token置信度,识别局部推理步骤的置信崩溃(如生成"wait""think again"等低置信token)。
    • 尾部置信度:关注结论步骤的可靠性,确保最终答案的稳定性。
  • 效果

    局部置信度信号比全局平均置信度更敏感,能有效分离正确与错误轨迹(如AUC提升12%~15%),从而在过滤和投票阶段更精准地保留高质量轨迹。

4. 在线与离线模式的协同优化
  • 在线模式:实时控制生成过程

    • 离线暖启动(Offline Warmup):生成少量初始轨迹(如16条),计算置信度阈值 ss。
    • 动态终止:实时监控生成中的组置信度,若低于 ss 则终止当前轨迹,减少冗余计算。例如,在AIME 2025任务中,减少84.7%的token生成。
  • 离线模式:生成后优化投票

    • 置信度过滤:仅保留Top 10%或Top 90%的轨迹,平衡多样性与质量。
    • 加权投票:对保留的轨迹按置信度加权投票,提升高质量轨迹的决策权重。
  • 效果

    在线模式减少计算开销,离线模式提升准确性,两者结合实现性能与效率的平衡。

5. 实验验证:性能与效率的双重提升
  • 准确性
    • 在AIME 2025任务中,DeepConf@512在GPT-OSS-120B上达到99.9%准确率,较传统方法提升2.9个百分点。
    • 在HMMT 2025/BRUMO25等任务中,DeepConf的局部置信度指标(如Bottom 10% Group Confidence)显著优于全局平均置信度。
  • 计算效率
    • 在AIME 2025任务中,DeepConf@512减少84.7%的token生成,显著降低推理时间。
    • 在Qwen3-8B上,通过减少生成token数量,推理时间从100秒降至15.3秒(假设值)。

总结

DeepConf通过以下核心机制实现推理时间减少性能提升

  1. 动态置信度过滤:减少低质量轨迹的生成与处理,降低计算开销。
  2. 局部置信度指标:更细粒度地评估轨迹质量,提升过滤与投票的准确性。
  3. 加权投票与在线终止:优化投票权重,实时控制生成过程,平衡效率与质量。
  4. 离线与在线模式协同:在资源受限场景下(如移动端部署)实现高效推理。
相关推荐
Kiyra18 分钟前
作为后端开发你不得不知的 AI 知识——RAG
人工智能·语言模型
lili-felicity1 小时前
CANN优化LLaMA大语言模型推理:KV-Cache与FlashAttention深度实践
人工智能·语言模型·llama
kjkdd4 小时前
5. LangChain设计理念和发展历程
python·语言模型·langchain·ai编程
算法狗24 小时前
大模型面试题:大模型的训练和推理中显存和计算量的情况
人工智能·深度学习·机器学习·语言模型
盼小辉丶5 小时前
Transformer实战——Transformer跨语言文本分类
深度学习·语言模型·自然语言处理·transformer
fanstuck14 小时前
从0到提交,如何用 ChatGPT 全流程参与建模比赛的
大数据·数学建模·语言模型·chatgpt·数据挖掘
zhangfeng113316 小时前
氨基酸序列表示法,蛋白质序列表达 计算机中机器学习 大语言模型中的表达,为什么没有糖蛋白或者其他基团磷酸化甲基化乙酰化泛素化
人工智能·机器学习·语言模型
陈天伟教授17 小时前
人工智能应用- 语言理解:06.大语言模型
人工智能·语言模型·自然语言处理
zhengfei61119 小时前
【AI平台】- 基于大模型的知识库与知识图谱智能体开发平台
vue.js·语言模型·langchain·知识图谱·多分类
陈天伟教授20 小时前
人工智能应用- 语言理解:09.大语言模型
人工智能·语言模型·自然语言处理