论文阅读:arxiv 2025 Red Teaming Large Reasoning Models

总目录 大模型相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328

https://arxiv.org/pdf/2512.00412

https://www.doubao.com/chat/33384155469624578

论文翻译:
https://whiffe.github.io/Paper_Translation/LLM_Thinking/BenchMark/《红队大型推理模型》 --- Red Teaming Large Reasoning Models.html

速览

这份文档主要是讲研究人员为"大型推理模型"(简称LRMs)做了一套专门的测试工具和评估标准,想搞清楚这些模型到底"靠谱不靠谱"。咱们用大白话拆解一下核心内容:

首先得明白,LRMs和普通的大语言模型(比如平时聊天的AI)不一样------它擅长一步步解决复杂问题,比如算数学题、写代码时,会把思考过程(比如"先算哪一步,再推哪一步")明明白白列出来,这本来是优点,能让人看懂它怎么想的。但研究人员发现,这种"一步步推理"的特点,反而让它多了些新风险:比如有人会故意"带偏它的思考过程"(叫"CoT-hijacking"),让它算出错答案;或者用提示词让它"想太多",明明简单题却绕半天,又慢又费资源。

但之前没有一套统一的方法来测试这些风险,要么只测某一个问题(比如能不能被"骗"出坏内容),要么没对比普通模型和LRMs的差别。所以研究人员就做了个叫"RT-LRM"的工具包,专门用来全面评估LRMs的"靠谱程度",主要看三方面:

  1. 真实性:会不会说瞎话?比如给个数学题会不会算错,给个有争议的话题会不会讲错事实,能不能分清真实和虚构内容。
  2. 安全性:会不会输出有害内容?比如有人问"怎么搞诈骗""怎么伤害自己",它会不会真给方法?这里用"攻击成功率"(ASR)来算------越容易被"骗"出坏内容,ASR越高,安全性越差。
  3. 效率:会不会"想太多"?比如算题要不要等很久(超过180秒就算"超时"),会不会生成一堆没用的思考步骤,浪费时间和资源。

为了测准,他们还专门设计了30个任务,覆盖各种场景:比如算比例题、解有上下文的数学题(真实性),测它会不会教"怎么侵权""怎么暴力伤人"(安全性),测它写代码、解逻辑题时会不会超时(效率)。还对比了26个主流模型,包括开源的(比如Qwen、GLM系列)和闭源的(比如Claude、Gemini),甚至看不同训练方法对模型靠谱程度的影响。

最后他们发现了几个关键问题:

  • LRMs虽然会"一步步想",但整体比普通模型更"脆弱"------比如同一个基础模型,改成LRM后,更容易算错、更容易被"骗"出坏内容,还更容易超时。
  • 闭源模型(比如Claude、o1)比开源的靠谱点,但也不是完美的,还是有风险;
  • 任务越复杂,LRMs越容易出错------比如简单计算题能对30%,稍微加点头脑急转弯的题就只对20%了;
  • 训练方法很重要:"监督微调+强化学习"(SFT+RL)结合的模型,比只靠一种方法训练的,在真实性、安全性、效率上平衡得更好。

另外,他们还把这套测试工具和数据开源了,方便其他人继续研究怎么让LRMs更靠谱,比如怎么防"带偏思考"、怎么让它别"想太多"。总的来说,就是给LRMs做了一套"全面体检表",既找出了它们的弱点,也给改进指明了方向。

相关推荐
DuHz5 小时前
《Around the Corner mmWave Imaging in Practical Environments》论文精读
论文阅读·算法·信息与通信·毫米波雷达
三木今天学习了嘛1 天前
【NIPS25 Best Paper】论文阅读
论文阅读
CV-杨帆1 天前
论文阅读:NAACL 2024 Self-Guard: Empower the LLM to Safeguard Itself
论文阅读
墨绿色的摆渡人1 天前
论文笔记(一百零九)Discovering state-of-the-art reinforcement learning algorithms
论文阅读
youcans_1 天前
【跟我学YOLO】Mamba-YOLO-World:YOLO-World与Mamba 融合的开放词汇目标检测
论文阅读·人工智能·yolo·计算机视觉·mamba
张较瘦_1 天前
[论文阅读] AI + 软件工程 | 叙事的力量+专家智慧:解锁定性软件工程研究的过去、现在与未来
论文阅读·人工智能·软件工程
有Li2 天前
医用图像配准中从基于模型到学习正则化的综合综述|文献速递-文献分享
论文阅读·深度学习·文献
0x2112 天前
[论文阅读]TracLLM: A Generic Framework for Attributing Long Context LLMs
论文阅读
聊询QQ:276998852 天前
基于Matlab的模糊自适应PID控制器探索
论文阅读