反向传播算法——矩阵形式递推公式——ReLU传递函数

总结反向传播算法。

来源于https://udlbook.github.io/udlbook/,我不明白初始不从 x 0 \boldsymbol{x}_0 x0开始,而是从 z 0 \boldsymbol{z}_0 z0开始,不知道怎么想的。


考虑一个深度神经网络 g [ x i , ϕ ] g[\boldsymbol{x}i, \boldsymbol{\phi}] g[xi,ϕ],它接受输入 x i \boldsymbol{x}i xi,具有 N N N个隐藏层和 ReLU 激活函数,并且有单独的损失项 L i = l o s s [ g [ x i , ϕ ] , y i ] L_i = {\rm loss}[g[\boldsymbol{x}i, \boldsymbol{\phi}], \boldsymbol{y}i] Li=loss[g[xi,ϕ],yi]。反向传播的目标是计算关于偏差 b ι \boldsymbol{b}\iota bι和权重 W ι \boldsymbol{W}\iota Wι的导数 ∂ L i ∂ b ι \frac{\partial L_i}{\partial \boldsymbol{b}\iota} ∂bι∂Li和 ∂ L i ∂ W ι \frac{\partial L_i}{\partial \boldsymbol{W}\iota} ∂Wι∂Li。

前向传递: 计算并存储以下量:

z 0 = b 0 + W 0 x i x ι = f [ z ι − 1 ] ι ∈ { 1 , 2 , ... , M } z ι = b ι + W ι x ι . ι ∈ { 1 , 2 , ... , M } \begin{aligned} \boldsymbol{z}0 &= \boldsymbol{b}0 + \boldsymbol{W}0 \boldsymbol{x}i \\ \boldsymbol{x}\iota &=f[\boldsymbol{z}{\iota-1}] & \iota \in \{1, 2, \ldots, M\} \\ \boldsymbol{z}\iota &= \boldsymbol{b}\iota + \boldsymbol{W}\iota \boldsymbol{x}\iota. & \iota \in \{1, 2, \ldots, M\} \end{aligned} z0xιzι=b0+W0xi=f[zι−1]=bι+Wιxι.ι∈{1,2,...,M}ι∈{1,2,...,M}

反向传递: 从损失函数 L i L_i Li关于网络输出 z M \boldsymbol{z}_M zM的导数 ∂ L i ∂ z M \frac{\partial L_i}{\partial \boldsymbol{z}_M} ∂zM∂Li开始,并在网络中反向工作:

∂ L i ∂ b ι = ∂ L i ∂ z ι ι ∈ { M , M − 1 , ... , 1 } ∂ L i ∂ W ι = ∂ L i ∂ z ι x ι T ι ∈ { M , M − 1 , ... , 1 } ∂ L i ∂ z ι − 1 = I [ z ι − 1 > 0 ] ⊙ ( W ι T ∂ L i ∂ z ι ) , ι ∈ { M , M − 1 , ... , 1 } \begin{aligned} \frac{\partial L_i}{\partial \boldsymbol{b}\iota} &= \frac{\partial L_i}{\partial \boldsymbol{z}\iota} & \iota \in \{M, M-1, \ldots, 1\} \\ \frac{\partial L_i}{\partial \boldsymbol{W}\iota} &= \frac{\partial L_i}{\partial \boldsymbol{z}\iota} \boldsymbol{x}\iota^{\mathsf T} & \iota \in \{M, M-1, \ldots, 1\} \\ \frac{\partial L_i}{\partial \boldsymbol{z}{\iota-1}} &= \mathbb{I}[\boldsymbol{z}{\iota-1} > 0] \odot \left( \boldsymbol{W}\iota^{\mathsf T} \frac{\partial L_i}{\partial \boldsymbol{z}_\iota} \right), & \iota \in \{M, M-1, \ldots, 1\} \end{aligned} ∂bι∂Li∂Wι∂Li∂zι−1∂Li=∂zι∂Li=∂zι∂LixιT=I[zι−1>0]⊙(WιT∂zι∂Li),ι∈{M,M−1,...,1}ι∈{M,M−1,...,1}ι∈{M,M−1,...,1}

其中 ⊙ \odot ⊙表示逐点乘法,而 I [ z ι − 1 > 0 ] \mathbb{I}[\boldsymbol{z}{\iota-1} > 0] I[zι−1>0]是一个向量,其中在 z ι − 1 \boldsymbol{z}{\iota-1} zι−1大于零的位置包含一,在其他位置包含零。

最后,计算关于第一组偏差和权重的导数:

∂ L i ∂ b 0 = ∂ L i ∂ z 0 ∂ L i ∂ W 0 = ∂ L i ∂ z 0 x i T . \begin{aligned} \frac{\partial L_i}{\partial \boldsymbol{b}_0} &= \frac{\partial L_i}{\partial \boldsymbol{z}_0} \\ \frac{\partial L_i}{\partial \boldsymbol{W}_0} &= \frac{\partial L_i}{\partial \boldsymbol{z}_0} \boldsymbol{x}_i^{\mathsf T}. \end{aligned} ∂b0∂Li∂W0∂Li=∂z0∂Li=∂z0∂LixiT.

为批次中的每个训练样本计算这些导数,并将它们相加以获取用于 SGD 更新的梯度。

请注意,反向传播算法非常高效;前向和反向传递中最耗计算的步骤是矩阵乘法(分别由 W \boldsymbol{W} W和 W T \boldsymbol{W}^{\mathsf T} WT进行),这只需要加法和乘法。然而,它不是内存高效的;前向传递中的中间值必须全部存储,这可能会限制可以训练的模型的大小。

相关推荐
郝学胜-神的一滴12 分钟前
Leetcode 969 煎饼排序✨:翻转间的数组排序艺术
数据结构·c++·算法·leetcode·面试
I_LPL8 小时前
hot100贪心专题
数据结构·算法·leetcode·贪心
颜酱8 小时前
DFS 岛屿系列题全解析
javascript·后端·算法
WolfGang0073218 小时前
代码随想录算法训练营 Day16 | 二叉树 part06
算法
2401_831824969 小时前
代码性能剖析工具
开发语言·c++·算法
Sunshine for you10 小时前
C++中的职责链模式实战
开发语言·c++·算法
vx_biyesheji000111 小时前
Python 全国城市租房洞察系统 Django框架 Requests爬虫 可视化 房子 房源 大数据 大模型 计算机毕业设计源码(建议收藏)✅
爬虫·python·机器学习·django·flask·课程设计·旅游
qq_4160187211 小时前
C++中的状态模式
开发语言·c++·算法
2401_8845632411 小时前
模板代码生成工具
开发语言·c++·算法
2401_8319207411 小时前
C++代码国际化支持
开发语言·c++·算法