对抗样本

四口鲸鱼爱吃盐8 天前
网络·人工智能·深度学习·机器学习·语言模型·自然语言处理·对抗样本
CVPR2025 | TAPT:用于视觉语言模型鲁棒推理的测试时对抗提示调整论文链接本文 “TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models” 提出一种测试时对抗提示调整(TAPT)方法,以增强视觉语言模型(VLMs)在推理时的鲁棒性。通过在 11 个基准数据集上的实验,证明 TAPT 能有效提升模型对抗攻击的能力,且保持在干净样本上的性能。
四口鲸鱼爱吃盐11 天前
人工智能·深度学习·机器学习·3d·对抗样本
CVPR2024 | TT3D | 物理世界中可迁移目标性 3D 对抗攻击论文链接GitHub链接本文 “Towards Transferable Targeted 3D Adversarial Attack in the Physical World” 提出了一种全新的 3D 攻击框架 TT3D,可将多视图图像快速重建为可迁移目标性的 3D 对抗样本,有效填补了 3D 可迁移目标性攻击领域的空白,为研究深度学习系统的安全性提供了新的视角和方法。
四口鲸鱼爱吃盐2 个月前
人工智能·深度学习·神经网络·机器学习·计算机视觉·对抗样本
CVPR2021 | VMI-FGSM & VNI-FGSM | 通过方差调整增强对抗攻击的可迁移性原文链接本文 “Enhancing the Transferability of Adversarial Attacks through Variance Tuning” 提出方差调整(variance tuning)方法,提升基于迭代梯度攻击方法生成对抗样本的转移性,在多模型设置下集成方法攻击 9 种先进防御模型成功率达 90.1% ,显著优于当前最优攻击性能。
四口鲸鱼爱吃盐2 个月前
人工智能·深度学习·计算机视觉·对抗样本
ECCV2020 | YAILA | 又一种中间层攻击方法论文链接本文 “Yet Another Intermediate-Level Attack” 提出了一种增强对抗样本黑盒迁移性的新方法,通过建立中间层差异的线性映射预测对抗损失,利用多步基线攻击的优化过程提升迁移性,在 CIFAR-100 和 ImageNet 上的实验证明了其有效性优于现有方法。
Bosenya127 个月前
论文阅读·对抗生成网络·对抗性攻击·对抗样本·无数据·替代模型
【论文阅读】DaST: Data-free Substitute Training for Adversarial Attacks(2020)Machine learning models(机器学习模型) are vulnerable(容易受到) to adversarial examples(对抗样本). For the black-box setting(对于黑盒设置), current substitute attacks(目前替代攻击) need pre-trained models(预训练模型) to generate adversarial examples(生成对抗样本). However, pre-trained models(