【论文阅读】-《Sparse and Imperceivable Adversarial Attacks》原文链接:https://arxiv.org/pdf/1909.05040v1神经网络已被证明容易受到各种对抗攻击。从安全角度来看,高度稀疏的对抗攻击尤其危险。另一方面,稀疏攻击的逐像素扰动通常很大,因此可能被检测到。我们提出了一种新的黑盒技术来生成对抗样本,旨在最小化与原始图像的 l 0 l_{0} l0-距离。大量实验表明,我们的攻击优于或可与现有技术相媲美。此外,我们可以集成对分量扰动的附加约束。允许像素仅在高变化区域改变并避免沿轴对齐边缘进行更改,使得我们的对抗样本几乎难以察觉。此外,我们使投影梯