Sigmoid函数的表达式为 y = 1 1 + e − x y = \frac{1}{1 + e^{-x}} y=1+e−x1,其导数为 y ′ = y ( 1 − y ) y'=y(1 - y) y′=y(1−y)。当 x x x的值远离0时(即 x x x很大或很小),Sigmoid函数的输出会趋近于0或1。此时,Sigmoid函数的导数 y ′ y' y′会趋近于0。
分析:这个问题描述了一种针对已经训练好的神经网络 f f f的攻击场景。给定一个类别为 y y y的图像 x x x,通过优化一个小的扰动 δ \delta δ,使得 x ′ = x + δ x' = x+\delta x′=x+δ在视觉上与 x x x几乎相同,但神经网络 f f f却错误地将 x ′ x' x′分类为非 y y y类别。问题询问这种精心构造的 x ′ x' x′是否会对神经网络的准确性产生负面影响。
Logistic回归 是一种用于二分类问题的线性模型。它的数学表达式为 y = 1 1 + e − ( w T x + b ) y = \frac{1}{1 + e^{-(w^T x + b)}} y=1+e−(wTx+b)1,其中 w w w是权重向量, x x x是输入向量, b b b是偏置项。这个表达式中的 1 1 + e − z \frac{1}{1 + e^{-z}} 1+e−z1部分就是Sigmoid函数。
当神经网络只有一层且激活函数为Sigmoid函数时 :设输入为 x x x,权重为 w w w,偏置为 b b b,那么这一层的输出就是 y = σ ( w T x + b ) y=\sigma(w^T x + b) y=σ(wTx+b),其中 σ \sigma σ是Sigmoid函数。这与Logistic回归的表达式完全相同。也就是说,这种情况下的神经网络实际上就是在做Logistic回归。