强大模型通过自我和解进步——Unsupervised Elicitation of Language Models——论文阅读笔记

本周关注的工作是:Unsupervised Elicitation of Language Models

这篇文章通篇体现了这样一件事------香蕉皮大需要香蕉大!

一句话总结

首先注意:这个工作不是面向对齐的,而是写【如何准备】对齐任务的Reward Model需要的数据集的。

全篇总结↓

在没有ground truth的情况下,作者利用两个原则来衡量【数据集的内部一致性】,并通过检测内部一致性来给样本生成标签,最终生成标签数据集 ,以代替基于人工标注的对齐数据集。用这个数据集训练Reward Model,进而训练Claude模型,虽然训练出模型的Score比发布版Claude Haiku低30分,但比人标注的数据训的RM结果强10分。

内部一致性Internal Coherence Maximization→ICM就是本文方法的名字

这两个原则一个是优化目标,一个是正则项,分别是:👉🏻

  1. Mutual Predictability:这个是优化目标。用样本集中[所有其他样本]作为context来预测某个样本结果的[确定性],越大越好。
    这就好像一群考北京卷上海卷全国卷的学生在一个教室里商量答案,虽然彼此的题不同,也没人知道最终答案,但是照着北京卷上海卷的选择题和同学写的答案来研究全国卷选择题的答案,大家对答案的信心越强,就说明这个数据集越好。
    为了方便理解,后面管Mutual Predictability叫集思广益分
  2. Logical Consistency:这是正则项,就是数据集里的答案不要逻辑不一致。

作者从一个有8个标注样本的样本集起手,每加入一个样本,都按照原则1给他分个标签,再按照原则2来给样本集内部解冲突,这样不断扩大样本集。


关键细节

1. 数据集的x,y是面向Reward Model的x,y

所以始终是个二分类标签,另外就是作者并没有限制从一个样本集里,question不能采集第二次。也就是说,可以再sample这个question,LLM生成个答案,然后作为本文数据集的x,然后用本文的方法给他配个y

2. 生成数据集的具体过程

作者这个图画的不太好,上半部分展示的不是步骤而是公式的计算,下半部分是步骤,具体要看文中的algorithm表。

初始阶段:得准备几个人工标注的x,y(8个左右就行),先要解了里面可能存在的冲突。

※ 第一步,集思广益打标

从样本集里sample一个样本出来,用样本集里其他的样本作为prompt里的示例,让LLM打标。

※ 第二步,解冲突

把刚打标的样本和样本集放一起,检查有没有逻辑不一致性(文中的实验这里,逻辑不一致性没有那么复杂,主要就是同一个question,两个样本的答案不能互相矛盾;或,如果A样本的里说苹果比梨大,B样本里就不能说梨比苹果大)。

如果有逻辑不一致的样本,比如样本A(图上5+5=8)和样本B(5+5=10),先假设样本A是对的,算一个集思广益分A,再假设样本B是对的,算一个集思广益分B,谁的分数大就当谁是对的,样本A和样本B的新标签 y a y_a ya和 y b y_b yb就更新了。

※第三步,算解了冲突的数据集的集思广益分,如果比上一轮迭代的分高,新样本就留下了。

集思广益分怎么算?

P θ ( D ) = ∑ i = 0 N l o g P θ ( y i ∣ x i , D ∖ ( x i , y i ) ) P_θ(D) =\sum^{N}_{i=0}log P_θ(y_i|x_i, D \setminus (x_i, y_i)) Pθ(D)=i=0∑NlogPθ(yi∣xi,D∖(xi,yi))
x i x_i xi就是question+claim,也就是样本集里的问题和LLM写的答案
y i y_i yi在执行流程里,不是ground truth,而是通过内部一致性给赋的标签

3. 效果怎么样

在这里我要先提一个观点

当数据集中每个样本之间都没有知识或定理上的链接的时候,这个方法就退化成了【自举法】。

这不是作者说的,而是我看到数据集之后的第一个反应。作者在文中用了三个数据集:TruthfulQA,GSM8K,Alpaca。

TruethfulQA 关注的是不要让模型认可'假新闻'(比如911是没过zf自导自演的这种)

Alpaca是Alpaca的人类无害性数据集(就是在被要求制作💣的时候,让模型拒答的哪个)

作者的主实验里比较了用几种方案获得的【标注正确率 】,注意,主实验不是用来训Reward Model,附加实验才是。原文的figure3展示的accuracy是指标注正确率。

这几种方法分别是:zero-shot prompt (on Base Model和Instruct Model )/160-shot prompt with ground truth(Golden)/160-shot prompt with 人工标注(Human)/本文方法(ICM)

吐槽一下,实验结果表都没给,肯定够不上投稿标准啊,为啥这么珍惜篇幅呢?图多花两个柱子真的不行吗?

上图左边两个紫色柱子的意思就是体现Base模型和Instruct模型在没有任何帮助的情况下,不管提示工程写的多么优秀准确率都相对较低。蓝色柱子和他的GUCCI帽子展示的是用ICM制作的数据集做160-shot prompt的准确率,加上用这个数据集finetune过后,准确率就带上了GUCCI帽子,非常逼近用ground truth做160-shot prompt和finetune。alpha数据集上,比较的是ICM和人工标注样本(绿色柱子和帽子)带来的差异。

但第一个显著的问题就来了,为啥左边两个图不画人工数据带来的结果呢?这里不严谨的地方在于,人类一次性标注,或带有抽检复核的标注,往往距离benchmark给定的ground truth是有一定距离的,要体现无监督方法对人类标注的替代性效果,应该展示。(怀疑是不是小组没批这笔标注费😏)

后面作者也比较了:使用人工标注的数据集和用ICM产生的数据集做Claude的Reward Model,以观察ICM能否带来更好的Chat Model这点------得到的结论是,比人工标注的数据喂养的RM好,但比发布版的Claude Haiku还差很多。作者自己解释是说发布版的模型对应的RM在数据集上训练的更久,但我说一句:发布版的模型使用的数据集肯定错误更少

4. 随机打乱标签

作者在Ablation的部分做了这样一个实验,将ground truth中的一部分y随机替换成不对的标签,以达到跟ICM制作的数据集拥有相同的标注准确率,在这个情况下,看看finetune模型的准确率会受到有什么影响。也就是说,下面图褐色柱体现的是没有ICM的样本内部一致性,但有相同准确率的标注集能不能达到ICM的水平。

上图这个结果显示,在GSM8k和TruthfulQA两个数据集上,打乱标签一致性的数据集得到的结果虽然比ICM相对有点掉点(并不小,5%左右),但在Alpaca上掉点最为明显(掉了10%左右)。而这恰恰说明了我的观点------Alpaca数据集集中体现了安全伦理方面的标准,样本之间的关联性和角度一致性很高,这种情况下样本一致性才能带来更好的校验效果。而想数学数据集和假新闻数据集上,样本是以题目、事件的形式出现的,相互之间的独立性更强。算内部一致性的分数更可能退化到跟自举法差不多的水平。然而,作者没有拿纯样本自举来作比较。

评价

  1. 作者没有拿出实验反驳"当数据集中每个样本之间都没有知识或定理上的链接的时候,这个方法就退化成了【自举法】"这一投稿一定会被challenge的问题。
  2. Ablation里缺乏对实验细节的分析:
    随着步骤调整Temperature,作者说了是受到退火算法的启发,但没有给我们看不调差距有多大,超参数怎么配置
    为什么直接选 l o g P logP logP做分数,又选择 α \alpha α来平衡这个数而不是用其他方案?
    以上两个细节我没写在主干里,主要就是因为讲不清楚道理,也不知道影响多大。
  3. 脱离安全性对齐,很难用:第一,这个东西很难用在判别标准不明确的场景上,模型可能会fit到一套跟人不希望的规则上去;第二,解样本之间的逻辑冲突需要 模型对场景一致结果矛盾 这两点上,跟人的要求对齐,这在一般工业场景上,尤其是对话领域里,非常难(我就在这个坑里)。
相关推荐
Yawesh_best20 小时前
告别系统壁垒!WSL+cpolar 让跨平台开发效率翻倍
运维·服务器·数据库·笔记·web安全
Ccjf酷儿1 天前
操作系统 蒋炎岩 3.硬件视角的操作系统
笔记
习习.y1 天前
python笔记梳理以及一些题目整理
开发语言·笔记·python
在逃热干面1 天前
(笔记)自定义 systemd 服务
笔记
DKPT1 天前
ZGC和G1收集器相比哪个更好?
java·jvm·笔记·学习·spring
QT 小鲜肉1 天前
【孙子兵法之上篇】001. 孙子兵法·计篇
笔记·读书·孙子兵法
DuHz1 天前
无线通信与雷达感知融合的波形设计与信号处理——论文阅读(上)
论文阅读·信号处理
DuHz1 天前
无线通信与雷达感知融合的波形设计与信号处理——论文阅读(下)
论文阅读·汽车·信息与通信·信号处理
星轨初途1 天前
数据结构排序算法详解(5)——非比较函数:计数排序(鸽巢原理)及排序算法复杂度和稳定性分析
c语言·开发语言·数据结构·经验分享·笔记·算法·排序算法
QT 小鲜肉1 天前
【孙子兵法之上篇】001. 孙子兵法·计篇深度解析与现代应用
笔记·读书·孙子兵法