[论文阅读]LOGAN: Membership Inference Attacks Against Generative Models

LOGAN: Membership Inference Attacks Against Generative Models

https://arxiv.org/abs/1705.07663v4

Proceedings on Privacy Enhancing Technologies (PoPETs),第 2019 卷,第 1 期。

这篇文章是17年的一篇文章,在大模型还未兴起的时候,文中的方法是相当有效的,因为全文的推理攻击都建立在成员数据在模型中是过拟合的这一机器学习模型结论。然而大模型使得这种过拟合性质淡化,这些方法最终都接近于随机猜测。这点在[论文精读]Do Membership Inference Attacks Work on Large Language Models?-CSDN博客

中已经论述过了。

文章是针对生成模型的成员推理攻击。

预备知识

生成式模型(Generative Model)是机器学习中用于学习数据分布并能够生成新样本的一类模型。与判别式模型(Discriminative Model)不同,生成式模型不仅能够对输入数据进行分类或预测,还能够生成新的数据实例,这些实例在统计上与训练数据相似。生成式模型试图捕捉并建模数据的底层生成过程。

生成式模型的关键特性包括:

  1. 数据分布学习:生成式模型通过学习训练数据的分布来捕捉数据的潜在结构和模式。

  2. 样本生成:模型能够生成新的数据样本,这些样本在统计上与训练数据具有相似性,但不是简单的复制,而是新的、未曾见过的数据点。

  3. 潜在空间:生成式模型通常定义了一个潜在空间(latent space),这是一个低维的、通常是连续的表示,数据的生成过程就是从这个潜在空间中采样并映射到数据空间。

  4. 概率框架:生成式模型通常在概率框架下工作,它们对数据的生成过程进行建模,因此可以计算数据的概率分布。

常见的生成式模型包括:

  • 自回归模型(Autoregressive Models):如像素RNN和PixelCNN,通过学习数据的顺序依赖性来生成数据。

  • 变分自编码器(Variational Autoencoders, VAEs):通过编码器将数据映射到潜在空间的分布参数,然后从这个分布中采样并使用解码器生成数据。

  • 生成对抗网络(Generative Adversarial Networks, GANs):由生成器和判别器组成,生成器生成数据,判别器评估数据的真实性,两者相互竞争以提高生成数据的质量。

  • 流模型(Flow Models):如Normalizing Flows,通过一系列可逆的变换将简单的分布转换为复杂的分布,从而生成数据。

  • 玻尔兹曼机(Boltzmann Machines):一种能量基模型,能够学习数据的联合概率分布。

生成式模型在多个领域有着广泛的应用,包括图像和音频合成、自然语言处理、药物发现、游戏开发等。它们不仅能够用于数据增强和生成新的创意内容,还能够帮助理解数据的生成机制,以及在数据隐私保护方面发挥作用。然而,生成式模型的训练通常比判别式模型更具挑战性,需要仔细设计模型架构和训练策略以避免模式崩溃(mode collapse)等问题。

也就是说,生成式模型会生成和输入比较类似的东西,比如VAE变分自编码器,可以用于生成与训练数据集风格相似的新图像。例如,在手写数字识别领域,VAE可以从MNIST数据集中学习数字的潜在表示,并生成新的手写数字图像。这些生成的图像在统计上与原始训练数据相似,但具体内容是全新的。在实际应用中,VAE通过编码器网络将输入图像映射到一个潜在空间的分布参数(通常是均值和方差),然后从这个分布中采样并使用解码器网络生成新的图像数据。这个过程涉及到重构误差和KL散度的最小化,以确保生成的图像与原始数据的相似性以及潜在表示的连续性。通过这种方式,VAE不仅能够生成新的图像,还可以用于图像编辑、数据增强和异常检测等任务。

方法

1.威胁模型

黑盒攻击:攻击者只能对受到攻击的目标模型进行查询,无法访问模型的内部参数

白盒攻击:黑盒权限+经过训练的目标模型的参数。

攻击的准确性是用正确推断位训练集成员的记录的分数来衡量。

假设:两种情形下,攻击者都知道训练集的大小,而不知道其原始数据点。攻击的变体允许攻击者访问一些进一步的侧面信息。攻击者拥有一组怀疑是成员的数据点(攻击方式的构造并不依赖于数据集)、知道训练集的大小但是不知道如何把数据点拆分成训练集和测试集

白盒攻击中,攻击者只需要访问目标GAN模型的判别器。文中考虑了这样的设置:目标模型参数(GAN中的生成器和判别器模型)在数据泄露后被泄露(被开盒了)或者是模型最初在云上训练然后被压缩或者部署到移动设备上。

黑盒设置:假设攻击者没有任何关于训练记录或者目标模型的先验或者侧面信息。攻击者不知道目标模型的参数和超参数,不了解目标模型的架构、不知道用于训练目标模型的数据点,也不知道训练中使用数据点的类型(因为这是通过在推理的时候对目标模型进行采样推断得出的)、无法获取目标模型生成预测分数

2.白盒攻击

该场景下,攻击者可以访问生成器和判别器。现攻击者有一个数据集,其中n条数据是训练集(成员),m条数据是非成员数据。

攻击者直接创建判别器的本地副本,然后把持有的数据集全部输入到判别器中,得到输出结果的概率向量。如果目标模型在训练数据上过拟合,则判别器会对成员数据设置更高的置信度,此时攻击者只需要把结果按照预测概率进行排序,前n个最大置信度的数据即为成员。(攻击者不用训练任何模型,直接使用目标模型,因为有访问权限)

3.没有辅助知识的黑盒攻击

目标模型没有限制为GAN,因为黑盒未知模型的构造,目标模型可能就没有判别器(比如VAE)。同样假设攻击者持有一个数据集X,其中n个成员,m个非成员。但是攻击者未知训练集是如何从持有的数据集X构建的,因此无法访问数据集中样本的真实标签,也就无法使用判别方法来训练模型(如果已知真实标签,则直接拿来训练一个二分类器即可)

攻击者需要训练GAN以在本地重新构建目标模型,并且在这个过程中创建一个判别器,用于检测生成目标模型中Gtarget的过拟合。
无辅助只是的黑盒攻击

攻击者需要根据查询结果在本地训练GAN,训练之后就回到白盒攻击上面了,使用本地训练好的判别器生成数据样本对应的概率并排序取前n 个,分类为成员数据。

4.有限辅助知识的黑盒攻击

攻击者可以利用有关训练集的有限附加信息。此外,攻击者可能能够收集其他信息,例如,从在线社交网络上的图片或数据泄露的数据集中收集信息,这些图片已被用于训练受到攻击的目标模型。访问有关训练集的侧面信息意味着攻击者可以"增强"黑盒攻击。

考虑两种设置:生成性和判别性设置;在这两种情况下,攻击者对 test 数据集和/或 Training 数据集的成员了解不完整。

4.1判别性设置:

攻击者训练一个简单的判别模型来推断成员身份
有限知识下的判别式场景

可行是因为攻击者可以访问数据是否是成员的二进制标签(这个标签源自查询目标模型得到的输出),因此不需要训练生成模型来检测过拟合。这种设置下,攻击者对以下方面的辅助知识有限的两种情况:1.攻击者有 100%肯定没有用于训练目标模型的样本(持有100%非成员数据) 2.攻击者持有训练集(100%成员)和测试集样本(100%非成员)

在这两种情况下,一般的攻击方法是相同的:攻击者训练本地模型以检测目标模型中的过拟合。在 (1) 中,判别器 D 被送入来自该辅助集的样本,标记为负样本,而目标模型生成的样本被标记为正样本。如果目标模型过度拟合训练集, D 将学习区分训练样本和测试样本。在 (2) 中, D 同时输入目标生成的样本和辅助训练样本,标记为真实样本,以及来自辅助测试集的样本,标记为 fake。一旦攻击者训练了判别器,攻击就会再次进行, 如图 3 白盒攻击所示。

必须考虑到攻击者知道一些测试样本(即假样本),以便正确训练二进制判别器。

对情况1进行一个总结叙述:攻击者持有绝对非成员的数据Xtest,以及一些未知具体成员or非成员的数据集X(一直在提及的n个成员数据和m个非成员数据的总和),将Xtest视为负样本(因为一定是非成员),将X输入黑盒模型得到的结果Y视为正样本(里面有成员也有非成员,也就是有正样本也有负样本),如果黑盒模型是过拟合的,那么正样本内部数据之间是有差异的,且负样本和这些正样本中的某类数据是很相似的,判别器就需要将正样本进行细分,重新划分决策边界。

抽象一下就是要重新划定决策边界,这就是判别器的训练。 情况2则是在情况1的基础上增强了成员非成员之间的界限划定,因为有绝对成员数据和绝对非成员数据的存在,使得二者之间的界限更加明晰。

如果目标黑盒模型训练的数据非常大(比如LLM),那么判别式方法就不会很准确,因为成员数据并不是过拟合的,成员非成员之间的边界比较模糊,无法训练一个有效的判别器,这一点在论文中已经被证实[论文精读]Do Membership Inference Attacks Work on Large Language Models?-CSDN博客,结果接近于随机猜测。

4.2生成式设置:

两种辅助有限知识,(1)持有绝对成员(2)持有绝对成员和绝对非成员
有限辅助知识-生成式

攻击者需要训练的是一个本地的生成对抗网络GAN,该模型目的在于检测目标模型中的过拟合。

场景(1)下,攻击者的判别器使用攻击者的生成器生成的结果进行训练(是负样本),而绝对成员和黑盒模型的输出视为正样本。直观地说,如果攻击者模型具有最初训练的样本的辅助知识,那么它预计攻击者模型更擅长识别目标模型中的过拟合。

在 (2) 中, Db​b 使用辅助测试集生成的样本和来自辅助测试集的 Gb​b 样本进行训练,标记为负样本,以及目标模型生成的样本和辅助训练集的样本,标记为真实。攻击者 GAN 经过训练,可以学习直接区分测试和训练样本。同样,一旦攻击者训练了他们的模型,来自 X 的数据点就会被输入到Db​b ,他们的预测就会按照图 3 进行排序。

这篇论文主要研究了关于对生成模型进行成员推断攻击的可能性,并展示了攻击模型的设计和实验结果。研究使用了几种最先进的生成模型,包括用于面部复杂表征的LFW数据集、用于物体表征的CIFAR-10数据集以及用于医学图像的Diabetic Retinopathy数据集,展示了攻击方法对这些复杂数据集的敏感性。通过对不同训练参数的攻击以及对抗性策略的抗性进行评估,研究发现目前的防御措施要么无效,要么会显著降低生成模型的性能,包括训练稳定性和/或样本质量。研究还讨论了云服务提供商如何使用作者提出的方法来评估生成模型的隐私保护性能。

该论文的贡献包括设计了基于白盒和黑盒设置的攻击方法,展示了白盒攻击在检测生成模型过拟合方面的优异性能,以及如何通过对手生成对抗网络提高黑盒攻击的性能。在实验中,作者测试了多个最先进的模型,包括Deep Convolutional GAN(DCGAN)、Boundary Equilibrium GAN(BEGAN)以及DCGAN与Variational Autoencoder(VAE)的组合模型,使用了包括LFW、CIFAR-10和Diabetic Retinopathy在内的复杂数据集,对攻击的效果进行了实验评估。研究结果表明,当前的生成模型容易受到成员推断攻击,且防御策略要么无效,要么会降低模型性能,并展示了攻击对不同训练集大小和训练参数的敏感性。

总体来说,该论文提出了一种针对生成模型的成员推断攻击方法,并对攻击的实施、敏感性和对抗性策略进行了深入研究。这项研究对生成模型的隐私保护和安全性提出了挑战,并为研究人员提供了更深入了解生成模型保护隐私的重要性和目前面临的挑战。

相关推荐
小嗷犬2 小时前
【论文笔记】LLaVA-o1: Let Vision Language Models Reason Step-by-Step
论文阅读·人工智能·语言模型·大模型·多模态
奈斯。zs2 小时前
论文阅读——Intrusion detection systems using longshort‑term memory (LSTM)
论文阅读·人工智能·入侵检测·nids
dundunmm7 小时前
论文阅读:A fast, scalable and versatile tool for analysis of single-cell omics data
论文阅读·数据挖掘·单细胞数据·单细胞多组学数据·细胞聚类
是Winky啊7 小时前
【论文阅读】WGSR
论文阅读·深度学习·计算机视觉·超分辨率重建
hhhhhlt7 小时前
【代码大模型的隐私安全】Unveiling Memorization in Code Models论文阅读
论文阅读·安全
世界宇宙超级无敌究极特级顶级第一非常谱尼7 小时前
论文阅读——Performance Evaluation of Passive Tag to Tag Communications(一)
论文阅读·物联网·天线·信息与通信
dundunmm7 小时前
论文阅读:SIMBA: single-cell embedding along with features
论文阅读·人工智能·数据挖掘·embedding·生物信息·多组学细胞数据·单组学
xhyu617 小时前
【论文笔记】LLaVA-KD: A Framework of Distilling Multimodal Large Language Models
论文阅读·人工智能·语言模型
MorleyOlsen9 小时前
【经典论文阅读】NeRF(神经辐射场,neural radiance fields)
论文阅读·nerf
何大春1 天前
【弱监督语义分割】Self-supervised Image-specific Prototype Exploration for WSSS 论文阅读
论文阅读·人工智能·python·深度学习·论文笔记·原型模式