论文阅读:Editing Large Language Models: Problems, Methods, and Opportunities

Editing Large Language Models: Problems, Methods, and Opportunities

论文链接
代码链接

摘要

由于大语言模型(LLM)中可能存在一些过时的、不适当的和错误的信息,所以有必要纠正模型中的相关信息。如何高效地修改模型中的相关信息而不影响无关的信息,是模型编辑方法试图解决的问题。本篇文章对大语言模型上的模型编辑方法(model editing)进行了分类介绍和评估,并提出了一个新的基准,包括评估数据集和评估标准。

分类

LLM上的模型编辑方法主要包括两类:(a) 模型参数不变(Preserving LLMs' Parameters);(b) 模型参数改变(Preserving LLMs' Parameters)。模型参数不变的方法又可以分为额外参数 (Additional Parameters) 和基于记忆的 (Memory-based Model)方法。而模型参数改变的方法又可以分为定位然后编辑类(Locate-Then-Edit)和元学习类(Meta-learning)。

Methods for Preserving LLMs' Parameters

Memory-based Model 该类方法又两类分支,一种是借助一个在新的事实上训练的模型辅助 预测,另一种是借助检索 到的知识作为提示词的一部分信息。
Additional Parameters 该类方法引入额外的可训练参数,这些参数根据新的事实数据集训练,而模型的原始参数不变。

Methods for Modifying LLMs' Parameters

Locate-Then-Edit 该类方法首先定位到特定知识相关的参数,然后直接进行修改(无需额外的训练和微调)。
Meta-learning 该类方法应用一个超网络学习更新模型参数的变量。

相关推荐
QQ_7781329749 分钟前
基于深度学习的图像超分辨率重建
人工智能·机器学习·超分辨率重建
清 晨22 分钟前
Web3 生态全景:创新与发展之路
人工智能·web3·去中心化·智能合约
公众号Codewar原创作者43 分钟前
R数据分析:工具变量回归的做法和解释,实例解析
开发语言·人工智能·python
IT古董1 小时前
【漫话机器学习系列】020.正则化强度的倒数C(Inverse of regularization strength)
人工智能·机器学习
进击的小小学生1 小时前
机器学习连载
人工智能·机器学习
Trouvaille ~1 小时前
【机器学习】从流动到恒常,无穷中归一:积分的数学诗意
人工智能·python·机器学习·ai·数据分析·matplotlib·微积分
dundunmm1 小时前
论文阅读:Deep Fusion Clustering Network With Reliable Structure Preservation
论文阅读·人工智能·数据挖掘·聚类·深度聚类·图聚类
白光白光1 小时前
论文阅读--Variational quantum algorithms
论文阅读·量子计算·变分量子算法 综述
qq_441996051 小时前
【论文阅读】Comprehensive Review of End-to-End Video Compression
论文阅读
LuH11241 小时前
【论文阅读笔记】IC-Light
论文阅读·笔记