Deep Think with Confidence:让大模型更准确

DeepConf如何通过token生成机制与投票优化减少推理时间并提升性能

论文:https://arxiv.org/abs/2508.15260

github:https://github.com/paipeline/deep-think-with-confidence

1. 降低token生成量:减少自回归计算次数
  • 自回归生成的线性开销 :大语言模型的token生成是自回归的,每个token的生成依赖前序所有token的上下文,计算复杂度与token数量成线性关系。DeepConf通过以下方式减少生成token数量:

    • 在线模式动态终止低质量轨迹:实时监控组置信度(Group Confidence),若低于预设阈值则提前终止生成。例如,在AIME 2025任务中,DeepConf@512模式下减少84.7%的生成token,直接降低自回归次数。
    • 离线模式置信度过滤:仅保留Top 10%或Top 90%的高质量轨迹,减少冗余生成。例如,DeepConf-low保留10%的轨迹,减少90%的自回归计算。
  • 效果

    减少token生成量直接降低模型推理的计算开销,同时减少显存带宽压力,提升硬件利用率。

2. 优化投票机制:提升准确性与计算效率
  • 传统自一致性方法的局限

    • 多数投票平权处理所有轨迹:低质量轨迹可能干扰投票结果,导致准确性下降。
    • 全局平均置信度的不足:无法捕捉中间步骤的置信波动,可能掩盖关键错误。
  • DeepConf的改进

    • 置信度加权投票:对轨迹按其置信度(如组置信度、尾部置信度)加权投票,高质量轨迹的权重更高,提升最终答案的可靠性。
    • 置信度过滤:仅保留高置信度轨迹(如Top 10%或Top 90%),减少低质量轨迹对投票的干扰。例如,DeepConf@512在GPT-OSS-120B上达到99.9%准确率,显著高于传统多数投票(97.0%)。
  • 效果

    通过加权投票和过滤,DeepConf在减少计算量的同时,提升了答案的准确性,并避免了低质量轨迹的冗余处理。

3. 动态置信度指标:更细粒度的质量评估
  • 局部置信度信号 DeepConf引入组置信度 (Group Confidence)和尾部置信度(Tail Confidence)等细粒度指标,捕捉中间步骤的置信波动:

    • 组置信度:通过滑动窗口平均token置信度,识别局部推理步骤的置信崩溃(如生成"wait""think again"等低置信token)。
    • 尾部置信度:关注结论步骤的可靠性,确保最终答案的稳定性。
  • 效果

    局部置信度信号比全局平均置信度更敏感,能有效分离正确与错误轨迹(如AUC提升12%~15%),从而在过滤和投票阶段更精准地保留高质量轨迹。

4. 在线与离线模式的协同优化
  • 在线模式:实时控制生成过程

    • 离线暖启动(Offline Warmup):生成少量初始轨迹(如16条),计算置信度阈值 ss。
    • 动态终止:实时监控生成中的组置信度,若低于 ss 则终止当前轨迹,减少冗余计算。例如,在AIME 2025任务中,减少84.7%的token生成。
  • 离线模式:生成后优化投票

    • 置信度过滤:仅保留Top 10%或Top 90%的轨迹,平衡多样性与质量。
    • 加权投票:对保留的轨迹按置信度加权投票,提升高质量轨迹的决策权重。
  • 效果

    在线模式减少计算开销,离线模式提升准确性,两者结合实现性能与效率的平衡。

5. 实验验证:性能与效率的双重提升
  • 准确性
    • 在AIME 2025任务中,DeepConf@512在GPT-OSS-120B上达到99.9%准确率,较传统方法提升2.9个百分点。
    • 在HMMT 2025/BRUMO25等任务中,DeepConf的局部置信度指标(如Bottom 10% Group Confidence)显著优于全局平均置信度。
  • 计算效率
    • 在AIME 2025任务中,DeepConf@512减少84.7%的token生成,显著降低推理时间。
    • 在Qwen3-8B上,通过减少生成token数量,推理时间从100秒降至15.3秒(假设值)。

总结

DeepConf通过以下核心机制实现推理时间减少性能提升

  1. 动态置信度过滤:减少低质量轨迹的生成与处理,降低计算开销。
  2. 局部置信度指标:更细粒度地评估轨迹质量,提升过滤与投票的准确性。
  3. 加权投票与在线终止:优化投票权重,实时控制生成过程,平衡效率与质量。
  4. 离线与在线模式协同:在资源受限场景下(如移动端部署)实现高效推理。
相关推荐
官能3 天前
从 ReAct 到 LangGraph:房产 Agent 的工作流升级复盘
人工智能·语言模型
小马过河R3 天前
OpenClaw 记忆系统工作原理
人工智能·机器学习·语言模型·agent·openclaw·智能体记忆机制
硅谷秋水4 天前
从机制角度看视频生成作为世界模型:状态与动态
深度学习·机器学习·计算机视觉·语言模型·机器人
摘星编程4 天前
大语言模型(Large Language Models,LLM)如何颠覆未来:深入解析应用、挑战与趋势
人工智能·语言模型·自然语言处理
zhangfeng11334 天前
快速验证哪个文件坏了 模型文件损坏或不完整大语言模型开发 .llm
人工智能·chrome·语言模型
nudt_qxx4 天前
讲透Transformer(六):FlashAttention 1→4 进化史:从在线Softmax到硬件极致利用
语言模型·transformer
Olivia_0_0_4 天前
【大语言模型系列】MCP——大模型工具调用的“统一接口”
人工智能·语言模型
~kiss~4 天前
高性能大语言模型推理与服务框架(推理引擎)vLLM
人工智能·语言模型·vllm
renhongxia14 天前
THINKSAFE:推理模型的自生成安全对齐
人工智能·深度学习·安全·语言模型·机器人·知识图谱
shangjian0074 天前
AI-大语言模型LLM-LangChainV1.0学习笔记-OpenAI类和ChatOpenAI类
人工智能·学习·语言模型