论文阅读:Editing Large Language Models: Problems, Methods, and Opportunities

Editing Large Language Models: Problems, Methods, and Opportunities

论文链接
代码链接

摘要

由于大语言模型(LLM)中可能存在一些过时的、不适当的和错误的信息,所以有必要纠正模型中的相关信息。如何高效地修改模型中的相关信息而不影响无关的信息,是模型编辑方法试图解决的问题。本篇文章对大语言模型上的模型编辑方法(model editing)进行了分类介绍和评估,并提出了一个新的基准,包括评估数据集和评估标准。

分类

LLM上的模型编辑方法主要包括两类:(a) 模型参数不变(Preserving LLMs' Parameters);(b) 模型参数改变(Preserving LLMs' Parameters)。模型参数不变的方法又可以分为额外参数 (Additional Parameters) 和基于记忆的 (Memory-based Model)方法。而模型参数改变的方法又可以分为定位然后编辑类(Locate-Then-Edit)和元学习类(Meta-learning)。

Methods for Preserving LLMs' Parameters

Memory-based Model 该类方法又两类分支,一种是借助一个在新的事实上训练的模型辅助 预测,另一种是借助检索 到的知识作为提示词的一部分信息。
Additional Parameters 该类方法引入额外的可训练参数,这些参数根据新的事实数据集训练,而模型的原始参数不变。

Methods for Modifying LLMs' Parameters

Locate-Then-Edit 该类方法首先定位到特定知识相关的参数,然后直接进行修改(无需额外的训练和微调)。
Meta-learning 该类方法应用一个超网络学习更新模型参数的变量。

相关推荐
Danceful_YJ1 分钟前
34.来自Transformers的双向编码器表示(BERT)
人工智能·深度学习·bert
love530love4 分钟前
【笔记】xFormers版本与PyTorch、CUDA对应关系及正确安装方法详解
人工智能·pytorch·windows·笔记·python·深度学习·xformers
中科岩创12 分钟前
某地公园桥梁自动化监测服务项目
大数据·人工智能·物联网·自动化
kev_gogo13 分钟前
【链式法则】神经网络中求导时w既是常数也是自变量的辨析(能否对常数求导?)
人工智能·深度学习·神经网络
文真同学33 分钟前
《动手学深度学习》6.3~6.4
人工智能·深度学习
受之以蒙35 分钟前
赋能 AI 与具身智能:Rust ndarray 构建安全高效的数据底座
人工智能·笔记·rust
Fuly102444 分钟前
LangGraph基础教程(4)---LangGraph的核心能力
人工智能·langchain
葡萄城技术团队1 小时前
从混沌中见你所见——文生图的逆向浪漫
aigc
智泊AI1 小时前
大语言模型如何微调(Fine-tuning)?
llm
大模型教程1 小时前
2张4090本地微调万亿参数模型!KTransformers上线模型微调功能,使用指南来了
程序员·llm·agent