【Arxiv 大模型最新进展】北大 Parenting 方法登场:参数魔法解锁检索增强语言模型新高度!

【Arxiv 大模型最新进展】北大 Parenting 方法登场:参数魔法解锁检索增强语言模型新高度!


🌟 嗨,你好,我是 青松 !

🌈 自小刺头深草里,而今渐觉出蓬蒿。


NLP Github 项目推荐:


文章目录

  • [Parenting: Optimizing Knowledge Selection of Retrieval-Augmented Language Models with Parameter Decoupling and Tailored Tuning](#Parenting: Optimizing Knowledge Selection of Retrieval-Augmented Language Models with Parameter Decoupling and Tailored Tuning)

Parenting: Optimizing Knowledge Selection of Retrieval-Augmented Language Models with Parameter Decoupling and Tailored Tuning

作者Yongxin Xu, Ruizhe Zhang, Xinke Jiang, Yujie Feng, Yuzhen Xiao, Xinyu Ma, Runchuan Zhu, Xu Chu, Junfeng Zhao, Yasha Wang

单位Peking University, The Hong Kong Polytechnic University

下图给出此文的整体逻辑框架。首先,对文章进行一句话总结,然后简要介绍研究内容、研究动机、技术动机、解决方案以及优势与潜力,以便读者快速了解文章脉络。

方法详解

本文研究的是如何优化检索增强语言模型(RALMs)的知识选择,平衡模型的遵从性和鲁棒性 。现有方法在平衡RALMs的遵从性和鲁棒性方面存在困难,难以有效整合外部知识与内部记忆,且容易受到检索噪声影响。受人类认知过程启发,本文提出了Parenting方法,通过参数解耦和定制调优策略,提升RALMs在不同检索上下文中的性能。

具体地,Parenting方法分为两个主要部分,参数解耦和定制调优,以下是详细介绍。

参数解耦

如下图所示,参数单元可分为两大类:

  1. 相交参数单元主要提升模型感知和分析上下文的能力,可同时增强模型的遵从性和鲁棒性。

  2. 独占参数单元:

  • 遵从性独占参数单元主要提升模型通过复制和总结上下文信息来解决问题的能力,对遵从性更重要;
  • 鲁棒性独占参数单元主要提升模型通过检索内部记忆解决问题的能力,对鲁棒性更重要。

具体参数解耦方法如下:

  1. 数据集构建

    • 遵从性数据集:包含与模型内部知识相冲突但与正确答案吻合的知识文档以及对应的问题,用于增强模型对外部知识的遵从性。
    • 鲁棒性数据集:包含与问题无关的噪声文档以及对应的问题,用于提升模型在面对无关信息时的鲁棒性。
  2. 关键参数挖掘

    • 正向激活概率计算:对于来自特定数据集的输入,计算不同输入下FFN层神经元的激活概率。

    • 基于梯度的敏感性和不确定性计算:计算参数的梯度和权重的乘积来量化对训练损失的敏感性,但由于训练过程的复杂动态,该指标方差较高,因此进行平滑处理和不确定性量化得到敏感性分数和不确定性分数。

    • 重要性分数计算和聚合:以前向传播得到的激活概率作为层特定线索,结合平滑后的敏感性和不确定性,计算每个参数在遵从性或鲁棒性方面的最终重要性分数。

  3. 参数单元识别

    对遵从性和鲁棒性的重要性分数进行标准化,根据分数识别相交和独占参数单元:

    • 相交参数单元:对于遵从性和鲁棒性标准化分数均大于0的参数单元。
    • 遵从性特定单元:遵从性标准化分数大于0且鲁棒性标准化分数小于0的参数单元。
    • 鲁棒性特定单元:鲁棒性标准化分数大于0且遵从性标准化分数小于0的参数单元。

定制调优

根据参数单元的类型,设计特定的微调策略:

  1. 交叉参数单元 :通过设计文档提取任务 ,同时优化交叉参数单元的遵从性和鲁棒性。

    基于 SQuAD 2.0 数据集,对于每个问题,收集三种类型的文档:包含问题答案的相关文档、同一主题的噪声文档以及来自不同主题的噪声文档,以此模拟各种检索上下文场景。

    训练时,冻结其余参数单元,结合遵从性数据集和鲁棒性数据集的损失,计算总损失如下:

L c x = δ 1 ( γ a × L a + γ r × L r ) + ( 1 − δ 1 ) L c \mathcal{L}{c x}=\delta{1}\left(\gamma_{a} × \mathcal{L}{a}+\gamma{r} × \mathcal{L}{r}\right)+\left(1-\delta{1}\right) \mathcal{L}_{c} Lcx=δ1(γa×La+γr×Lr)+(1−δ1)Lc

​ ,其中 L a \mathcal{L}{a} La是与遵从性数据集的交叉熵损失, L r \mathcal{L}{r} Lr是与鲁棒性数据集的交叉熵损失, L c \mathcal{L}{c} Lc是文档提取数据集上的 交叉熵损失, 0 < δ 1 < 1 0 < \delta{1} < 1 0<δ1<1是原始任务和新增任务之间的重新加权因子, γ a \gamma_{a} γa和 γ r \gamma_{r} γr 这两个参数分别用于衡量遵 从性和鲁棒性相关的权重。

  1. 独占参数单元 :为了避免独占参数单元受到冲突监督信号的污染,采用边界控制策略,在训练过程中隔离遵从性特定和鲁棒性特定的单元。

    • 对于遵从性特定单元 ,冻结其余参数单元,为了确保它们不受与鲁棒性相关的梯度影响,不进行鲁棒性数据集的训练,损失函数为: L a x = δ 1 L a + ( 1 − δ 1 ) L c \mathcal{L}{a x}=\delta{1} \mathcal{L}{a}+\left(1-\delta{1}\right) \mathcal{L}_{c} Lax=δ1La+(1−δ1)Lc

    • 对于鲁棒性特定单元 ,冻结其余参数单元,为了确保它们不受与遵从性相关的梯度影响,不进行遵从性数据集的训练,其损失函数为 L r x = δ 1 L r + ( 1 − δ 1 ) L c \mathcal{L}{r x}=\delta{1} \mathcal{L}{r}+\left(1-\delta{1}\right) \mathcal{L}_{c} Lrx=δ1Lr+(1−δ1)Lc。

    此外,保持其余参数单元的初始权重,以防止与预训练权重产生偏差,保留LLMs的其他能力。

实验结果

在不同RAG任务上的表现如表1所示,表明本方法在遵从性和鲁棒性方面均优于先前方法,实现了更平衡的改进。

可视化 LLaMA2 - 7B - Chat 中遵从性和鲁棒性的参数单元重要性分布如下图所示。

可以观察到对遵从性和鲁棒性都至关重要的相交参数单元(紫色框),以及遵从性特定单元(红色框)和鲁棒性特定单元(蓝色框)。遵从性特定单元主要位于中间和中上层,与先前的重要作用相关研究结果一致;鲁棒性特定单元主要位于上层,少数在中间层,这与内部事实知识通常在 LLMs 较高层编码的研究结果相符;相交参数单元主要位于中间到中下层。


相关推荐
Blossom.1189 分钟前
低代码开发:开启软件开发的新篇章
人工智能·深度学习·安全·低代码·机器学习·计算机视觉·数据挖掘
安特尼18 分钟前
招行数字金融挑战赛数据赛道赛题一
人工智能·python·机器学习·金融·数据分析
带娃的IT创业者19 分钟前
《AI大模型应知应会100篇》第59篇:Flowise:无代码搭建大模型应用
人工智能
数澜悠客1 小时前
AI与IoT携手,精准农业未来已来
人工智能·物联网
猎板PCB黄浩1 小时前
AI优化高频PCB信号完整性:猎板PCB的技术突破与应用实践
人工智能
Icoolkj1 小时前
可灵 AI:开启 AI 视频创作新时代
人工智能·音视频
RK_Dangerous1 小时前
【深度学习】计算机视觉(18)——从应用到设计
人工智能·深度学习·计算机视觉
AI大模型顾潇2 小时前
[特殊字符] 本地部署DeepSeek大模型:安全加固与企业级集成方案
数据库·人工智能·安全·大模型·llm·微调·llama
_Itachi__2 小时前
深入理解目标检测中的关键指标及其计算方法
人工智能·目标检测·目标跟踪
Stara05112 小时前
基于注意力机制与iRMB模块的YOLOv11改进模型—高效轻量目标检测新范式
人工智能·python·深度学习·神经网络·目标检测·计算机视觉·yolov11