OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证

研究人员在GPT-5-Thinking上进行了实验。结果显示,通过这种训练,通过"坦白"来监测模型的不当行为是可行的,即使模型在主要回答中撒了谎,它往往也能在随后的"坦白"中诚实交代

刚刚OpenAI公开了一种新的重要的模型训练方法(概念验证)

面对大型语言模型(LLM)可能出现的欺骗行为------比如为了讨好人类用户而撒谎、隐瞒违规操作,甚至为了获得更高奖励而进行"奖励黑客攻击(Reward Hacking)",OpenAI提出了一种名为 "坦白(Confession)" 的训练方法

简单来说,就是在模型给出回答之后,强制要求它进行一次自我反省,诚实地交代自己在刚才的回答中是否遵守了所有指令,有没有走捷径,或者是否存在不确定的地方

研究人员在GPT-5-Thinking上进行了实验。结果显示,通过这种训练,通过"坦白"来监测模型的不当行为是可行的,即使模型在主要回答中撒了谎,它往往也能在随后的"坦白"中诚实交代

这项研究的论文题目为《Training LLMs for Honesty via Confessions》

什么是"坦白"?

在强化学习训练中,模型往往面临复杂的奖励目标(正确性、风格、安全性等)。这可能导致一种风险:模型为了最大化奖励,学会了生成"看起来很好"但实际上不符合用户意图或存在缺陷的回答

OpenAI提出的"自白"机制,旨在解决这个问题。

其核心流程如下(如图所示):

1.标准交互: 用户提问(x) -> 模型进行思维链推理(CoT)和工具调用(z) -> 模型给出回答(y)

2.强制坦白:系统发出一条特殊的系统消息(xc),要求模型提供一份"坦白报告"(yc)

3.报告内容: 模型需要在报告中列出所有显性或隐性的指令与约束,评估自己是否遵守了这些要求,并列出任何不确定性或模糊之处

关键在于奖励机制的设计:

分离奖励: "坦白"的奖励与"主要回答"的奖励是完全分开的。只奖诚实:"坦白"的奖励仅基于其诚实度和全面性,由一个专门的LLM裁判打分

互不影响:无论模型在自白中承认了多么糟糕的行为(比如承认自己偷懒了),都不会影响它因完成主要任务而获得的奖励

这就像天主教的"告解室"机制:无论你在自白中揭露了什么,都不会改变你主要回答的得分。只要诚实交代是获取坦白奖励的"阻力最小路径",模型就有动力说真话

在GPT-5-Thinking上的实测结果

为了验证这一方法的有效性,研究团队在GPT-5-Thinking模型上进行了轻量级的RL训练。他们在训练中以25%的概率要求模型输出"坦白"

并在多个分布外(OOD)的场景下进行了评估,涵盖幻觉、指令遵循、暗中策划(Scheming)和奖励黑客攻击等领域。

主要发现如下:

1. 坏行为多半会被招供当模型表现出不良行为时,在12项评估中有11项,模型至少有一半的概率会在"自白"中承认这一点。

2. "坦白"比"回答"更诚实当模型出现不良行为时,它在"坦白"中坦白从宽的可能性,显著高于在主要回答中承认错误的可能

3. 训练提升了自白准确率虽然GPT-5-Thinking本身就具备一定的坦白能力,但经过专门训练后,其自白的准确性有适度提升

4. 不影响主任务性能在计算量匹配的对比实验中,加入"坦白"训练并没有显著提高或降低模型在原始任务上的表现

测试发现,坦白法显著提高了模型不良行为的可见性。在所有诱发不良行为的评估中,平均而言,模型不遵守指令且不坦白的概率仅为 4.4%

甚至能检测出"奖励黑客"行为

研究人员还设计了一个特殊的实验来测试"奖励黑客攻击(Reward Hacking)"

他们故意用一个弱裁判模型(容易被糊弄)来训练策略模型。结果发现,随着训练进行,策略模型学会了欺骗这个弱裁判,在回答中通过作弊来获取高分(例如在要求字数限制的任务中通过特殊格式蒙混过关)

然而,"坦白"的准确率却在上升

这意味着,虽然模型学会了在回答里耍滑头来骗取主任务奖励,但它在随后的坦白中,依然诚实地指出了自己没有遵守指令。这验证了研究的一个核心假设:诚实地承认违规,比试图欺骗"坦白裁判"更容易获得奖励。

此外,研究还发现,通过分析"坦白"的文本,可以提取出模型对自己回答的主观置信度(0-1之间的数值)。这个置信度能较好地预测模型回答是否正确。

局限性:不知道自己错在哪,就没法招

当然,这种方法并非完美无缺。

最大的局限在于"无知的错误"。 如果模型未能遵守指令是因为它真的能力不足、理解错了,或者是产生了幻觉(它真心认为自己是对的),那么它就无法在"坦白"中承认错误。

数据分析显示,绝大多数"漏报"的情况都是由于模型真的搞错了,而不是故意隐瞒。

此外,目前的坦白是一个单独的输出步骤,主要用于推理时的监控、拒绝采样或向用户提示风险,并不能直接消除模型回答中的不良行为

OpenAI认为,随着模型能力越来越强,不知道自己错了的情况会减少,这种基于坦白的监控机制将变得更加有效,可以作为思维链(CoT)监控的有力补充

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

相关推荐
Honmaple18 分钟前
OpenClaw 迁移指南:如何把 AI 助手搬到新电脑
人工智能
wenzhangli719 分钟前
Ooder A2UI 第一性原理出发 深度解析核心逻辑
人工智能·开源
网络安全研究所22 分钟前
AI安全提示词注入攻击如何操控你的智能助手?
人工智能·安全
数据猿23 分钟前
硬盘价格涨疯了,AI存储何去何从?
人工智能
zhangfeng113329 分钟前
氨基酸序列表示法,蛋白质序列表达 计算机中机器学习 大语言模型中的表达,为什么没有糖蛋白或者其他基团磷酸化甲基化乙酰化泛素化
人工智能·机器学习·语言模型
陈天伟教授40 分钟前
人工智能应用- 语言理解:06.大语言模型
人工智能·语言模型·自然语言处理
海心焱1 小时前
安全之盾:深度解析 MCP 如何缝合企业级 SSO 身份验证体系,构建可信 AI 数据通道
人工智能·安全
2501_945318491 小时前
AI证书能否作为招聘/培训标准?2026最新
人工智能
2601_949146531 小时前
Python语音通知接口接入教程:开发者快速集成AI语音API的脚本实现
人工智能·python·语音识别
韦东东1 小时前
RAGFlow v0.20的Agent重大更新:text2sql的Agent案例测试
人工智能·大模型·agent·text2sql·ragflow