机器学习中的一些有趣点【Attack 和 Defence】

什么是机器学习中的攻击

"攻击机器学习模型" 指的是试图危害或操纵机器学习模型的概念。有各种类型的攻击机器学习模型的方法,它们可以广泛分为几类:

  • 对抗攻击:
    • 定义: 对抗攻击涉及对输入数据进行微小的、通常是难以察觉的更改,目的是使机器学习模型对数据进行错误分类。
    • 目标: 了解模型的脆弱性,并探索使其产生不正确预测的方法。
  • 模型反演:
    • 定义: 模型反演攻击试图通过观察其输出,反向工程或提取机器学习模型中的敏感信息。
    • 目标:从模型中获取训练数据或模型结构的洞察,潜在地揭示机密信息。
  • 规避攻击:
    • 定义: 规避攻击的目的是通过操纵输入数据来规避机器学习模型的检测或分类。
    • 目标: 通过精心制作输入样本,愚弄模型以产生不正确的预测。
  • 数据污染:
    • 定义: 数据污染攻击涉及向训练集注入恶意数据,以影响模型的行为。 目标:
    • 在训练期间微妙地改变模型的学习参数,导致在未来真实数据上性能受损。
  • 模型提取:
    • 定义: 模型提取攻击旨在提取机器学习模型的内部详细信息或参数。 目标:
    • 获取训练模型的副本,潜在地允许攻击者以恶意方式使用模型或深入了解专有算法。

攻击相对于防御来说是容易的。

攻击的类型

在训练的时候是调整Network的参数,而在攻击的时候是调整x'使预测的结果越错越好。且这张图片和原图片(可以被正确分类的图片)十分相似

  • 没有目标的攻击类型
    • 找到一张图片可以被识别错误,
  • 有特定目标的攻击类型
    • 找到一张图片可以被识别为指定的类型

      常用的Constraint公式
相关推荐
nju_spy3 分钟前
南京大学 LLM开发基础(一)前向反向传播搭建
人工智能·pytorch·深度学习·大语言模型·梯度·梯度下降·反向传播
艾醒16 分钟前
探索大语言模型(LLM):Open-WebUI的安装
人工智能·算法·全栈
AI Echoes25 分钟前
LLMOps平台:开源项目LMForge = GPTs + Coze
人工智能·python·langchain·开源·agent
风信子的猫Redamancy28 分钟前
文心大模型 X1.1:百度交出的“新深度思考”答卷
人工智能·百度·大模型·深度思考
聚客AI32 分钟前
🚀从零构建AI智能体:九大核心技术拆解与落地建议
人工智能·agent·mcp
HUIMU_1 小时前
YOLOv5实战-GPU版本的pytorch虚拟环境配置
人工智能·pytorch·深度学习·yolo
虚行1 小时前
VisionMaster - 1.图像源
人工智能·计算机视觉
Coovally AI模型快速验证1 小时前
基于YOLO集成模型的无人机多光谱风电部件缺陷检测
人工智能·安全·yolo·目标跟踪·无人机
猫天意1 小时前
【CVPR2023】奔跑而非行走:追求更高FLOPS以实现更快神经网络
人工智能·深度学习·神经网络·算法·机器学习·卷积神经网络
杀生丸学AI1 小时前
【三维重建】3R-GS:优化相机位姿的3DGS最佳实践
人工智能·3d·aigc·三维重建·视觉大模型·高斯泼溅