论文略读:MUSE: Machine Unlearning Six-Way Evaluation for Language Models

ICLR 2025 56668

语言模型(LMs)通常在海量文本数据上进行训练,其中可能包含隐私信息受版权保护的内容 。当数据所有者因隐私或版权问题要求删除其数据时,最理想的做法是精确地遗忘这些数据点 ,即重新训练模型但不包含相关数据。然而,这在现代大型模型中几乎是不可行的 ,因此催生了众多近似机器遗忘(approximate machine unlearning)算法

目前对于这些算法的评估通常范围狭窄 ,难以从模型部署者数据拥有者 的角度全面衡量其有效性与实用性。为解决这一问题,本文提出了 MUSE ------一个全面的机器遗忘评估基准(Machine Unlearning Evaluation Benchmark),系统定义了对被遗忘模型的六项关键要求:

  1. 无原文记忆(No Verbatim Memorization):模型不应再生成训练数据中的原始句子;

  2. 无知识记忆(No Knowledge Memorization):不应再体现对敏感知识内容的推理或泛化能力;

  3. 无隐私泄露(No Privacy Leakage):模型不应泄露训练数据中的私人信息;

  4. 保留模型效用(Utility Preservation):对未被删除的数据应保持原有性能;

  5. 可扩展性(Scalability):能够处理大规模的删除请求;

  6. 可持续性(Sustainability):支持多轮连续删除请求而不损害模型质量。

作者在一个 70 亿参数语言模型上,选取了 8 种主流遗忘算法,使用 哈利波特系列小说新闻文章作为需遗忘的数据源,进行系统评测。主要发现包括:

  • 大多数算法能在不同程度上防止原文与知识记忆;

  • 仅有一种方法能有效避免隐私泄露

  • 现有方法在部署端实际表现不佳:它们往往显著损害模型在保留数据上的效能 ,且无法稳定支持连续或大规模的删除请求

综上,本文通过 MUSE 框架揭示了当前语言模型机器遗忘技术在实用性与鲁棒性方面的重大缺陷,强调未来研究需从多维度同时考虑"删除效果"与"模型可用性"的权衡,推动真正可部署的机器遗忘方法发展。

相关推荐
IT_陈寒6 分钟前
SpringBoot实战:这5个高效开发技巧让我节省了50%编码时间!
前端·人工智能·后端
腾飞开源21 分钟前
《AI智能体实战开发教程(从0到企业级项目落地)》全网上线|CSDN & B站同步首发
人工智能·ai智能体开发·全网首发·新课上线·粉丝专属优惠·全完结·企业级项目落地
Python极客之家25 分钟前
基于数据挖掘的在线游戏行为分析预测系统
人工智能·python·机器学习·数据挖掘·毕业设计·课程设计
说私域27 分钟前
基于开源AI智能名片与链动2+1模式的S2B2C商城小程序研究:构建“信息找人”式精准零售新范式
人工智能·小程序·开源
嘀咕博客1 小时前
Kimi-Audio:Kimi开源的通用音频基础模型,支持语音识别、音频理解等多种任务
人工智能·音视频·语音识别·ai工具
Baihai_IDP1 小时前
GPU 网络基础,Part 2(MoE 训练中的网络挑战;什么是前、后端网络;什么是东西向、南北向流量)
人工智能·llm·gpu
AI人工智能+1 小时前
蒙古文识别技术:采用深度学习模型(CNN+RNN)处理蒙古文竖写特性,实现高精度识别
深度学习·ocr·蒙古文识别
Blacol1 小时前
【MCP】Caldav个人日程助手
人工智能·mcp
l12345sy1 小时前
Day31_【 NLP _1.文本预处理 _(4)文本特征处理、文本数据增强】
人工智能·深度学习·自然语言处理
说私域1 小时前
开源AI智能名片链动2+1模式S2B2C商城小程序在公益课裂变法中的应用与影响研究
人工智能·小程序