论文笔记:Detecting Pretraining Data from Large Language Models

iclr 2024 reviewer评分 5688

1 intro

  • 论文考虑的问题:给定一段文本和对一个黑盒语言模型的访问权限,在不知道其预训练数据的情况下,能否判断该模型是否在这段文本上进行了预训练
    • 这个问题是成员推断攻击(Membership Inference Attacks,MIA)的一个实例
  • 最近存在一些工作将微调数据检测作为一个MIA问题进行了研究
    • 但是,将这些方法应用到检测大模型相关数据中,存在两个独特的技术挑战
      • 与通常运行多个epoch的微调不同,预训练使用的数据集要大得多,但每个实例只暴露一次,
        • ------>这显著减弱了成功MIA所需的潜在记忆
      • 以前的方法通常依赖于一个或多个参考模型(影子模型)
        • 这些模型以与目标模型相同的方式进行训练(从相同的基础预训练数据分布中采样的影子数据上进行训练)
        • 这对于大型语言模型来说不可行,因为训练分布通常不可用,训练成本也太高
  • ------>论文提出了一个基准 WikiMIA 和一种预训练数据检测方法Min-K% Prob

2 WikiMIA

  • 使用在特定日期(2023年1月1日)之后添加到维基百科的事件来构建基准
    • 将这些事件视为非成员数据,因为可以保证这些数据不会出现在预训练数据中
  • ------>最终收集了394个最近事件作为我们的非成员数据,并随机选择了394个在2016年前的维基百科页面中的事件作为我们的成员数据

2.1 数据的三个理想属性

  • 准确:
    • 在语言模型预训练之后发生的事件保证不会出现在预训练数据中。
    • 事件的时间性质确保非成员数据确实未曾见过,并没有在预训练数据中提到。
  • 通用
    • 不限于任何特定的模型,可以应用于使用维基百科数据进行预训练的各种模型(OPT、LLaMA、GPT-Neo)
  • 动态:
    • 由于这里的数据构建流程是完全自动化的,论文将通过从维基百科收集更多最近的非成员数据(即更近期的事件)来持续更新论文的基准

3 Min-K% Prob

3.1 微调MIA 方法的不足

  • 微调的MIA方法通常是:
    • 用在相似数据分布上训练的参考模型(影子模型)来校准目标模型使用某一个样本的概率。
    • 但是,由于预训练数据的黑盒性质和其高计算成本,这些方法在预训练数据检测中是不实际的。
  • ------>论文提出了一个无参考的MIA方法Min-K% Prob

3.2 方法介绍

  • 论文的方法基于一个简单的假设------一个未见过的样本往往包含几个具有低概率的异常词,而一个见过的样本不太可能包含这样低概率的词。
  • Min-K% Prob计算离群词元的平均概率。
  • Min-K% Prob可以在不了解预训练语料库或,不需要任何额外训练的情况下使用

如果平均概率高,那么很有可能文本在预训练数据中

4 实验

4.1 检测结果

4.2 文本和模型大小的影响

4.3 GPT3 预训练数据中的Top20书籍

4.4 不同learning rate的影响

相关推荐
ACCELERATOR_LLC6 分钟前
【DataWhale组队学习】DIY-LLM Task2 PyTorch 与资源核算
人工智能·pytorch·深度学习·大模型
Elastic 中国社区官方博客29 分钟前
Elastic Security、Observability 和 Search 现在在你的 AI 工具中提供交互式 UI
大数据·运维·人工智能·elasticsearch·搜索引擎·安全威胁分析·可用性测试
一碗白开水一35 分钟前
【目标跟踪综述】目标跟踪近3年技术研究,全面了解目标跟踪发展
人工智能·计算机视觉·目标跟踪
Promise微笑1 小时前
AI搜索时代的流量重构:GEO优化深度执行细节与把控体系
人工智能·重构
言萧凡_CookieBoty1 小时前
比 Vibe Coding 更可怕的,是 Vibe Design 吧
人工智能·ai编程
Rick19931 小时前
Spring AI 如何进行权限控制
人工智能·python·spring
Theodore_10221 小时前
深度学习(15):倾斜数据集 & 精确率-召回率权衡
人工智能·笔记·深度学习·机器学习·知识图谱
IT_陈寒2 小时前
SpringBoot自动配置这破玩意儿又坑我一次
前端·人工智能·后端
TechubNews2 小时前
Base 发布首个独立 OP Stack 框架的网络升级 Azul,将是 L2 自主迭代的开端?
大数据·网络·人工智能·区块链·能源
啦啦啦_99992 小时前
1.机器学习概述
人工智能·机器学习