机器学习中的一些有趣点【Attack 和 Defence】

什么是机器学习中的攻击

"攻击机器学习模型" 指的是试图危害或操纵机器学习模型的概念。有各种类型的攻击机器学习模型的方法,它们可以广泛分为几类:

  • 对抗攻击:
    • 定义: 对抗攻击涉及对输入数据进行微小的、通常是难以察觉的更改,目的是使机器学习模型对数据进行错误分类。
    • 目标: 了解模型的脆弱性,并探索使其产生不正确预测的方法。
  • 模型反演:
    • 定义: 模型反演攻击试图通过观察其输出,反向工程或提取机器学习模型中的敏感信息。
    • 目标:从模型中获取训练数据或模型结构的洞察,潜在地揭示机密信息。
  • 规避攻击:
    • 定义: 规避攻击的目的是通过操纵输入数据来规避机器学习模型的检测或分类。
    • 目标: 通过精心制作输入样本,愚弄模型以产生不正确的预测。
  • 数据污染:
    • 定义: 数据污染攻击涉及向训练集注入恶意数据,以影响模型的行为。 目标:
    • 在训练期间微妙地改变模型的学习参数,导致在未来真实数据上性能受损。
  • 模型提取:
    • 定义: 模型提取攻击旨在提取机器学习模型的内部详细信息或参数。 目标:
    • 获取训练模型的副本,潜在地允许攻击者以恶意方式使用模型或深入了解专有算法。

攻击相对于防御来说是容易的。

攻击的类型

在训练的时候是调整Network的参数,而在攻击的时候是调整x'使预测的结果越错越好。且这张图片和原图片(可以被正确分类的图片)十分相似

  • 没有目标的攻击类型
    • 找到一张图片可以被识别错误,
  • 有特定目标的攻击类型
    • 找到一张图片可以被识别为指定的类型

      常用的Constraint公式
相关推荐
大模型真好玩4 分钟前
LangChain DeepAgents 速通指南(三)—— 让Agent告别混乱:Tool Selector与Todo List中间件解析
人工智能·langchain·trae
孟祥_成都38 分钟前
【全网最通俗!新手到AI全栈开发必读】 AI 是如何进化到大模型的
前端·人工智能·全栈
牛奶1 小时前
AI辅助开发的基础概念
前端·人工智能·ai编程
东坡肘子1 小时前
OpenClaw 不错,但我好像没有那么需要 -- 肘子的 Swift 周报 #125
人工智能·swiftui·swift
风象南9 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶9 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶9 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
哥布林学者11 小时前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
罗西的思考12 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab13 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读