黑盒攻击

网安INF3 天前
论文阅读·人工智能·深度学习·网络安全·黑盒攻击
【论文阅读】-《SparseFool: a few pixels make a big difference》原文链接:https://arxiv.org/pdf/1811.02248深度神经网络在图像分类任务上取得了非凡的成果,但已被证明容易受到经过精心构造的输入数据扰动的攻击。尽管大多数攻击通常会改变图像多个像素的值,但研究表明深度网络也容易受到输入的稀疏修改的影响。然而,目前尚未提出计算稀疏扰动的计算高效方法。在本文中,我们利用决策边界的低平均曲率,提出了 SparseFool,一种受几何启发的稀疏攻击,可以控制扰动的稀疏性。广泛的评估表明,我们的方法能非常快地计算稀疏扰动,并且能高效地扩展到高维数据。我们
网安INF3 天前
论文阅读·人工智能·计算机视觉·网络安全·黑盒攻击
【论文阅读】-《Sparse Adversarial Attack via Perturbation Factorization》本文研究稀疏对抗攻击,其目标是在一张良性图像的部分位置上生成对抗性扰动,使得被扰动的图像被某个深度神经网络(DNN)模型错误预测。稀疏对抗攻击涉及两个挑战,即扰动哪些位置以及如何确定扰动幅度。许多现有工作手动或启发式地确定扰动位置,然后使用为密集对抗攻击设计的适当算法来优化扰动幅度。在这项工作中,我们提出将每个像素处的扰动分解为两个变量的乘积,包括扰动幅度和一个二元选择因子(即 0 0 0 或 1 1 1)。如果一个像素的选择因子是 1 1 1,则该像素被扰动,否则不被扰动。基于这种分解,我们将稀疏攻击问
网安INF1 个月前
人工智能·深度学习·网络安全·黑盒攻击
【论文阅读】-《Besting the Black-Box: Barrier Zones for Adversarial Example Defense》摘要 对抗性机器学习防御主要集中于缓解静态的白盒攻击。然而,此类防御在自适应的黑盒对手下是否鲁棒仍然是一个悬而未决的问题。在本文中,我们特别关注黑盒威胁模型,并做出以下贡献:首先,我们开发了一种增强的自适应黑盒攻击,实验表明其比 Papernot 等人提出的原始自适应黑盒攻击有效性提高 ≥30%\geq 30\%≥30%。作为我们的第二个贡献,我们使用我们的新攻击测试了 10 种近期提出的防御方法,并提出了我们自己的黑盒防御(屏障区)。我们表明,基于屏障区的防御在最先进的防御基础上提供了显著的安全改进。对
nju_spy2 个月前
人工智能·深度学习·迁移学习·黑盒攻击·南京大学·对抗攻击·领域偏移
李宏毅深度学习教程 第12-13章 对抗攻击 + 迁移学习transfer learning第十节 来自人类恶意的攻击 --【2025版】李宏毅机器学习系列课程第十一节 领域自适应 -- 【2025版】李宏毅机器学习系列课程
因吉2 年前
黑盒攻击
论文阅读 (100):Simple Black-box Adversarial Attacks (2019ICML)题目:简单黑盒对抗攻击 (Simple black-box adversarial attacks)策略:提出了一个在黑盒设置下构建对抗图像的简单方法:
我是有底线的