TRACEALIGN:追踪大规模语言模型对齐漂移的原因和保护措施

概述

LLM 经过微调,符合人类的价值观和政策。

然而,在实践中,敌意提示、句子解析或生成过程中的细微变化经常导致 "对齐漂移 "现象,即模型产生不安全的输出。

以往的研究主要依赖于外部衡量标准,如拒绝率和输出的有害性,但一直缺乏一个框架来探究模型漂移的原因。

本文提出了一个名为 TRACEALIGN 的综合框架来解决这一问题。

TRACEALIGN 明确跟踪训练数据中哪些记忆可以追溯到有害输出,并通过一种名为信念冲突指数(BCI)的测量方法量化其来源。

此外,它还结合了三种防御措施--TRACESHIELD(推理过程中的拒绝机制)、Contrastive Belief Deconfliction Loss(学习过程中的惩罚措施)和 Prov-Decode(生成过程中的搜索控制)--从而减少了高达 85% 的漂移。

换句话说,这项研究的意义在于,它揭示了模型所持 "信念 "的不一致性,而不仅仅是观察输出,并根据其原因提出了可解释和可重复的对策。

建议的方法

TRACEALIGN 的核心在于 "追踪模型输出背后的训练信念"。

首先,一个名为 "TRACEINDEX "的基于后缀数组的索引被用来匹配生成文本中的子串(跨度)和训练语料。

这样,模型就能明确识别哪些文档片段被存储和重用。

然后引入信念冲突指数 (BCI),以量化所发现的跨度的罕见程度以及它们与训练分布的偏差程度。

这样就可以测量 "危险记忆的重新激活",而不仅仅是生成。然后提出了三种干预措施。

首先,TRACESHIELD 是推理过程中的一个过滤器,可立即拒绝包含高 BCI 跨度的响应。

第二,CBD Loss 为 DPO 学习增加了一个惩罚项,抑制了危险记忆的生成。

第三,Prov-Decode 会在解码过程中拒绝高风险候选句,从而生成安全的句子。

这些方法结合起来,将对齐方式从 "后修正 "转变为 "信念衍生的预预防"。

实验

为了测试所提方法的有效性,本文构建了一个名为 "对齐漂移基准"(ADB)的新型评估基准。

ADB 由五个领域(爆炸、网络犯罪、自残、仇恨言论和金融诈骗)共 5,200 个敌对提示组成,表面上看以教育或历史背景为幌子,旨在诱发危险反应。

在这种环境下,使用 LLaMA-2、OLMo-2 和 NeoX 等多个模型进行了对比实验。

结果表明,在基线中超过 40% 的提示中出现了危险输出,但三种 TRACEALIGN 方法的组合将漂移率降低到了 6.2%。

同时,拒绝的自然度和一致性得分也得到了提高,这证实了在保持模型实用性的同时,还能显著提高安全性。

此外,在烧蚀实验中,每种防御措施都被单独或组合使用,结果表明三方组合最为有效。

这表明,TRACEALIGN 是一种兼具理论框架和实际效果的方法。

相关推荐
好奇龙猫9 小时前
【AI学习-comfyUI学习-第三十节-第三十一节-FLUX-SD放大工作流+FLUX图生图工作流-各个部分学习】
人工智能·学习
沈浩(种子思维作者)9 小时前
真的能精准医疗吗?癌症能提前发现吗?
人工智能·python·网络安全·健康医疗·量子计算
minhuan9 小时前
大模型应用:大模型越大越好?模型参数量与效果的边际效益分析.51
人工智能·大模型参数评估·边际效益分析·大模型参数选择
Cherry的跨界思维9 小时前
28、AI测试环境搭建与全栈工具实战:从本地到云平台的完整指南
java·人工智能·vue3·ai测试·ai全栈·测试全栈·ai测试全栈
MM_MS9 小时前
Halcon变量控制类型、数据类型转换、字符串格式化、元组操作
开发语言·人工智能·深度学习·算法·目标检测·计算机视觉·视觉检测
ASF1231415sd10 小时前
【基于YOLOv10n-CSP-PTB的大豆花朵检测与识别系统详解】
人工智能·yolo·目标跟踪
水如烟10 小时前
孤能子视角:“意识“的阶段性回顾,“感质“假说
人工智能
Carl_奕然10 小时前
【数据挖掘】数据挖掘必会技能之:A/B测试
人工智能·python·数据挖掘·数据分析
旅途中的宽~10 小时前
《European Radiology》:2024血管瘤分割—基于MRI T1序列的分割算法
人工智能·计算机视觉·mri·sci一区top·血管瘤·t1
岁月宁静10 小时前
当 AI 越来越“聪明”,人类真正的护城河是什么:智商、意识与认知主权
人工智能