论文阅读:arxiv 2025 Red Teaming Large Reasoning Models

总目录 大模型相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328

https://arxiv.org/pdf/2512.00412

https://www.doubao.com/chat/33384155469624578

论文翻译:
https://whiffe.github.io/Paper_Translation/LLM_Thinking/BenchMark/《红队大型推理模型》 --- Red Teaming Large Reasoning Models.html

速览

这份文档主要是讲研究人员为"大型推理模型"(简称LRMs)做了一套专门的测试工具和评估标准,想搞清楚这些模型到底"靠谱不靠谱"。咱们用大白话拆解一下核心内容:

首先得明白,LRMs和普通的大语言模型(比如平时聊天的AI)不一样------它擅长一步步解决复杂问题,比如算数学题、写代码时,会把思考过程(比如"先算哪一步,再推哪一步")明明白白列出来,这本来是优点,能让人看懂它怎么想的。但研究人员发现,这种"一步步推理"的特点,反而让它多了些新风险:比如有人会故意"带偏它的思考过程"(叫"CoT-hijacking"),让它算出错答案;或者用提示词让它"想太多",明明简单题却绕半天,又慢又费资源。

但之前没有一套统一的方法来测试这些风险,要么只测某一个问题(比如能不能被"骗"出坏内容),要么没对比普通模型和LRMs的差别。所以研究人员就做了个叫"RT-LRM"的工具包,专门用来全面评估LRMs的"靠谱程度",主要看三方面:

  1. 真实性:会不会说瞎话?比如给个数学题会不会算错,给个有争议的话题会不会讲错事实,能不能分清真实和虚构内容。
  2. 安全性:会不会输出有害内容?比如有人问"怎么搞诈骗""怎么伤害自己",它会不会真给方法?这里用"攻击成功率"(ASR)来算------越容易被"骗"出坏内容,ASR越高,安全性越差。
  3. 效率:会不会"想太多"?比如算题要不要等很久(超过180秒就算"超时"),会不会生成一堆没用的思考步骤,浪费时间和资源。

为了测准,他们还专门设计了30个任务,覆盖各种场景:比如算比例题、解有上下文的数学题(真实性),测它会不会教"怎么侵权""怎么暴力伤人"(安全性),测它写代码、解逻辑题时会不会超时(效率)。还对比了26个主流模型,包括开源的(比如Qwen、GLM系列)和闭源的(比如Claude、Gemini),甚至看不同训练方法对模型靠谱程度的影响。

最后他们发现了几个关键问题:

  • LRMs虽然会"一步步想",但整体比普通模型更"脆弱"------比如同一个基础模型,改成LRM后,更容易算错、更容易被"骗"出坏内容,还更容易超时。
  • 闭源模型(比如Claude、o1)比开源的靠谱点,但也不是完美的,还是有风险;
  • 任务越复杂,LRMs越容易出错------比如简单计算题能对30%,稍微加点头脑急转弯的题就只对20%了;
  • 训练方法很重要:"监督微调+强化学习"(SFT+RL)结合的模型,比只靠一种方法训练的,在真实性、安全性、效率上平衡得更好。

另外,他们还把这套测试工具和数据开源了,方便其他人继续研究怎么让LRMs更靠谱,比如怎么防"带偏思考"、怎么让它别"想太多"。总的来说,就是给LRMs做了一套"全面体检表",既找出了它们的弱点,也给改进指明了方向。

相关推荐
网安INF9 小时前
【论文阅读】-《TtBA: Two-third Bridge Approach for Decision-Based Adversarial Attack》
论文阅读·人工智能·神经网络·对抗攻击
智算菩萨19 小时前
AGI的定义:基于CHC认知理论的量化评估框架深度解析
论文阅读·人工智能·深度学习·ai·agi
智算菩萨19 小时前
基于多模态基础模型迈向通用人工智能:BriVL模型深度解析
论文阅读·人工智能·ai·语言模型·agi
Mr.Cheng.1 天前
【论文阅读】Hidden in plain sight:VLMs overlook their visual representations
论文阅读
智算菩萨2 天前
通往AGI之路:基于性能与通用性的等级划分框架深度解析
论文阅读·人工智能·深度学习·ai·agi
xx_xxxxx_2 天前
多模态动态融合模型Predictive Dynamic Fusion论文阅读与代码分析4-代码架构
论文阅读·机器学习·transformer·多模态
AustinCyy2 天前
【论文笔记】LLM Evaluators Recognize and Favor Their Own Generations
论文阅读
传说故事2 天前
【论文阅读】OpenClaw-RL: Train Any Agent Simply by Talking
论文阅读·人工智能
AustinCyy2 天前
【论文笔记】Lost in Stories: Consistency Bugs in Long Story Generation by LLMs
论文阅读
智算菩萨2 天前
ChatGPT 5.4文献检索实战指南:从入门到精通的学术搜索方法论
论文阅读·人工智能·ai·chatgpt·全文检索