总目录 大模型相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
https://arxiv.org/pdf/2512.00412
https://www.doubao.com/chat/33384155469624578
速览
这份文档主要是讲研究人员为"大型推理模型"(简称LRMs)做了一套专门的测试工具和评估标准,想搞清楚这些模型到底"靠谱不靠谱"。咱们用大白话拆解一下核心内容:
首先得明白,LRMs和普通的大语言模型(比如平时聊天的AI)不一样------它擅长一步步解决复杂问题,比如算数学题、写代码时,会把思考过程(比如"先算哪一步,再推哪一步")明明白白列出来,这本来是优点,能让人看懂它怎么想的。但研究人员发现,这种"一步步推理"的特点,反而让它多了些新风险:比如有人会故意"带偏它的思考过程"(叫"CoT-hijacking"),让它算出错答案;或者用提示词让它"想太多",明明简单题却绕半天,又慢又费资源。
但之前没有一套统一的方法来测试这些风险,要么只测某一个问题(比如能不能被"骗"出坏内容),要么没对比普通模型和LRMs的差别。所以研究人员就做了个叫"RT-LRM"的工具包,专门用来全面评估LRMs的"靠谱程度",主要看三方面:
- 真实性:会不会说瞎话?比如给个数学题会不会算错,给个有争议的话题会不会讲错事实,能不能分清真实和虚构内容。
- 安全性:会不会输出有害内容?比如有人问"怎么搞诈骗""怎么伤害自己",它会不会真给方法?这里用"攻击成功率"(ASR)来算------越容易被"骗"出坏内容,ASR越高,安全性越差。
- 效率:会不会"想太多"?比如算题要不要等很久(超过180秒就算"超时"),会不会生成一堆没用的思考步骤,浪费时间和资源。
为了测准,他们还专门设计了30个任务,覆盖各种场景:比如算比例题、解有上下文的数学题(真实性),测它会不会教"怎么侵权""怎么暴力伤人"(安全性),测它写代码、解逻辑题时会不会超时(效率)。还对比了26个主流模型,包括开源的(比如Qwen、GLM系列)和闭源的(比如Claude、Gemini),甚至看不同训练方法对模型靠谱程度的影响。
最后他们发现了几个关键问题:
- LRMs虽然会"一步步想",但整体比普通模型更"脆弱"------比如同一个基础模型,改成LRM后,更容易算错、更容易被"骗"出坏内容,还更容易超时。
- 闭源模型(比如Claude、o1)比开源的靠谱点,但也不是完美的,还是有风险;
- 任务越复杂,LRMs越容易出错------比如简单计算题能对30%,稍微加点头脑急转弯的题就只对20%了;
- 训练方法很重要:"监督微调+强化学习"(SFT+RL)结合的模型,比只靠一种方法训练的,在真实性、安全性、效率上平衡得更好。
另外,他们还把这套测试工具和数据开源了,方便其他人继续研究怎么让LRMs更靠谱,比如怎么防"带偏思考"、怎么让它别"想太多"。总的来说,就是给LRMs做了一套"全面体检表",既找出了它们的弱点,也给改进指明了方向。
