Meta AI&UCSD放大招:DeepConf 让大语言模型推理既快又准,84.7%的token节省+近乎完美的准确率!大语言模型(LLMs) 在推理任务中通过自一致性等测试时缩放方法展现出巨大潜力,但存在精度收益递减和计算开销高的问题。为此,Meta与UCSD的研究人员提出DeepConf方法,它利用模型内部的置信度信号,在生成过程中或生成后动态过滤低质量推理轨迹,无需额外模型训练或超参数调优,可无缝集成到现有服务框架中。在多种推理任务和最新开源模型(如Qwen 3和GPT-OSS系列)上的评估显示,DeepConf在挑战性基准测试(如AIME 2025)中表现优异,DeepConf@512的准确率高达99.9%,与完全