<论文>用于大语言模型去偏的因果奖励机制

一、摘要

本文介绍由Meta和芝加哥大学合作发表的代码开源论文《Beyond Reward Hacking: Causal Rewards for Large Language Model Alignment》,论文引入了一种将因果正则化纳入训练过程的奖励建模因果框架,使模型能够从虚假关系中学习 "真实" 因果关系,从而让模型生成结果更可靠地与人类偏好对齐。

译文:

大型语言模型(LLMs)的最新进展在执行复杂任务方面取得了显著进步。虽然人类反馈强化学习(RLHF)在使 LLMs 与人类偏好对齐方面是有效的,但它容易受到奖励建模中的虚假相关性的影响。因此,它经常引入偏差,如长度偏差、谄媚、概念偏差和歧视,这些偏差阻碍了模型捕捉真实因果关系的能力。为了解决这个问题,我们提出了一种新颖的因果奖励建模方法,它整合了因果推理来减轻这些虚假相关性。我们的方法强制实施反事实不变性,确保在不相关变量改变时奖励预测保持一致。通过在合成数据集和真实数据集上的实验,我们表明我们的方法有效地减轻了各种类型的虚假相关性,从而使 LLMs 与人类偏好的对齐更加可靠和公平。作为对现有 RLHF 工作流程的即插即用增强,我们的因果奖励建模为提高 LLM 微调的可信度和公平性提供了一种实用的方法。

二、核心创新点

在探讨论文创新点之前,我们首先需要了解如下两个概念。这里,令Z表示对应于虚假变异因素(例如长度)的随机变量,T表示包含提示-响应对(prompt-response pair)的随机变量:

  • 反事实不变性(counterfactual invariance):论文指出,理想的无偏奖励模型应该直观地对虚假的变化因素保持不变性。例如,为了消除长度偏差,奖励模型应该对响应长度的变化表现出不变性,为了形式化这个概念,学界定义为"反事实不变性"。
  • 因果分解:提示-响应对 T 可以根据它们与虚假因素 Z 的关系分解为潜在成分。具体来说,令定义为 T 的一个成分,它不受 Z 的因果影响。即,使得 T 的任何函数当且仅当它依赖于时对 Z 具有反事实不变性。

1、针对独立性的最大均值差异(MMD)正则化

为了强制执行论文中所提到的独立性条件,作者采用了一种基于核的统计度量------MMD,用于量化两个概率分布之间的差异。形式上,给定两个分布,再生核希尔伯特空间(reproducing kernel Hilbert space,RKHS)中的平方MMD定义为:

其中,F表示中的一类函数,是两个随机变量。直观地说,MMD测量由核k(·,·)确定的函数之间的最大平均差异。作者在论文中使用MMD作为正则化项,以确保学习到的奖励模型 f(T) 对于虚假变量 Z 是不变的,如果 Z 是二元的,则MMD正则化项定义为:

当Z跨越一个大的或者连续的空间,例如响应长度时,直接应用MMD会在计算上变得复杂,因此作者将Z划分为M个离散的区间 ,并计算所有区间对之间的MMD。令表示区间索引,表示在区间b中的条件分布,正则化项被定义为:

这种分区方法确保了MMD在高维或者连续设置中的适用性,同时保留了捕获Z变化的能力。论文中,表示提示-响应对T的隐含表示,奖励模型由参数参数化,并取决于,则:

为了正则化,作者根据其虚假因子Z(例如响应长度)将所有响应映射到M个区间中。对于每个区间b,计算条件分布。结合奖励模型训练损失核基于MMD的正则化项的总体目标函数为:

其中,是sigmoid函数,是MMD正则化项权重的超参数。这个公式通过惩罚虚假变量Z的区间中奖励预测的差异来强制实现反事实不变性,从而有效地引导了模型学习不变表示。

相关推荐
前端炒粉1 天前
35.LRU 缓存
开发语言·javascript·数据结构·算法·缓存·js
拓端研究室1 天前
专题:2025AI产业全景洞察报告:企业应用、技术突破与市场机遇|附920+份报告PDF、数据、可视化模板汇总下载
大数据·人工智能·pdf
断剑zou天涯1 天前
【算法笔记】窗口内最大值或最小值的更新结构
java·笔记·算法
smj2302_796826521 天前
解决leetcode第3753题范围内总波动值II
python·算法·leetcode
lumi.1 天前
Vue + Element Plus 实现AI文档解析与问答功能(含详细注释+核心逻辑解析)
前端·javascript·vue.js·人工智能
m0_650108241 天前
InstructBLIP:面向通用视觉语言模型的指令微调技术解析
论文阅读·人工智能·q-former·指令微调的视觉语言大模型·零样本跨任务泛化·通用视觉语言模型
金融小师妹1 天前
基于NLP语义解析的联储政策信号:强化学习框架下的12月降息概率回升动态建模
大数据·人工智能·深度学习·1024程序员节
骑着猪去兜风.1 天前
线段树(二)
数据结构·算法
山顶夕景1 天前
【RL】Does RLVR enable LLMs to self-improve?
深度学习·llm·强化学习·rlvr
AKAMAI1 天前
提升 EdgeWorker 可观测性:使用 DataStream 设置日志功能
人工智能·云计算