机器学习常见公式推导

线性层的反向传播

对于函数 Y = X W Y = XW Y=XW( 注: X X X是一个 m × n m \times n m×n的矩阵, W W W是一个 n × k n \times k n×k的矩阵, Y Y Y是一个 m × k m \times k m×k的矩阵。这里的 W W W通常代表模型的权重,而 X X X代表输入数据。)

如何求 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y呢,通常我们只关心其一个特定的切片,即 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} ∂Wrs∂Yij。

对于单个元素 Y i j Y_{ij} Yij而言,其是矩阵 X X X的第 i i i行和矩阵 W W W的第 j j j列的点积。因此:

Y i j = ∑ p = 1 n X i p ⋅ W p j Y_{ij} = \sum_{p=1}^{n} X_{ip} \cdot W_{pj} Yij=p=1∑nXip⋅Wpj

当我们对 Y i j Y_{ij} Yij关于 W r s W_{rs} Wrs求导时,我们只关心 W r s W_{rs} Wrs这一项,其他项的导数为0。因此:

∂ Y i j ∂ W r s = ∂ ∂ W r s ( ∑ p = 1 n X i p ⋅ W p j ) \frac{\partial Y_{ij}}{\partial W_{rs}} = \frac{\partial}{\partial W_{rs}} \left( \sum_{p=1}^{n} X_{ip} \cdot W_{pj} \right) ∂Wrs∂Yij=∂Wrs∂(p=1∑nXip⋅Wpj)

∂ Y i j ∂ W r s = X i r ⋅ ∂ W s j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} = X_{ir} \cdot \frac{\partial W_{sj}}{\partial W_{rs}} ∂Wrs∂Yij=Xir⋅∂Wrs∂Wsj

由于 ∂ W s j ∂ W r s \frac{\partial W_{sj}}{\partial W_{rs}} ∂Wrs∂Wsj只有当 s = r s = r s=r且 j = s j = s j=s时才为1,否则为0,因此:

∂ Y i j ∂ W r s = X i r ⋅ δ s j \frac{\partial Y_{ij}}{\partial W_{rs}} = X_{ir} \cdot \delta_{sj} ∂Wrs∂Yij=Xir⋅δsj

其中 δ s j \delta_{sj} δsj是Kronecker delta 函数,当 s = j s = j s=j时为1,否则为0

因此, ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y的每个元素 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} ∂Wrs∂Yij都是一个 m × n × k m \times n \times k m×n×k的张量,其中 i i i和 j j j分别索引 Y Y Y的行和列,而 r r r和 s s s分别索引 W W W的行和列。

然而,通常我们不会将 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y视为一个张量,而是将其简化为一个矩阵。因为在实际应用中,我们通常对整个矩阵 W W W进行更新,而不是单独更新它的每个元素。因此,我们可以将 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y的所有元素 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} ∂Wrs∂Yij合并成一个 m × k × n m \times k \times n m×k×n的张量,然后将其简化为一个 m × n m \times n m×n的矩阵,即 X X X。这是因为在矩阵乘法中, Y Y Y的每个元素 Y i j Y_{ij} Yij只依赖于 X X X的第 i i i行和 W W W的第 j j j列,所以 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y实际上是一个 m × n m \times n m×n的矩阵,而不是一个 m × n × k m \times n \times k m×n×k的张量,最终有:

∂ Y ∂ W = X \frac{\partial Y}{\partial W} = X ∂W∂Y=X

可通过此网站 https://www.matrixcalculus.org/ 验证矩阵求导的正确性。

在神经网络的链式求导过程,我们求 Y Y Y对 W W W的梯度,通常还会乘以 Y Y Y本身对应的梯度 g r a d y grad_y grady, g r a d y grad_y grady 是 m × k m \times k m×k的矩阵,这时候我们需要对 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y转置。

Softmax函数的反向传播

Softmax函数的定义是:

p i = e z i ∑ j e z j p_i = \frac{e^{z_i}}{\sum_j e^{z_j}} pi=∑jezjezi

对于Softmax函数的导数 ∂ p i ∂ z j \frac{\partial p_i}{\partial z_j} ∂zj∂pi, 可以通过以下方式计算:

∂ p i ∂ z j = ∂ ∂ z j ( e z i ∑ k e z k ) \frac{\partial p_i}{\partial z_j} = \frac{\partial}{\partial z_j} \left( \frac{e^{z_i}}{\sum_k e^{z_k}} \right) ∂zj∂pi=∂zj∂(∑kezkezi)

使用商的求导法则,我们得到:

∂ p i ∂ z j = e z i ⋅ ∂ ∂ z j ( ∑ k e z k ) − ∂ ∂ z j ( e z i ) ⋅ ∑ k e z k ( ∑ k e z k ) 2 \frac{\partial p_i}{\partial z_j} = \frac{e^{z_i} \cdot \frac{\partial}{\partial z_j}(\sum_k e^{z_k}) - \frac{\partial}{\partial z_j}(e^{z_i}) \cdot \sum_k e^{z_k}}{(\sum_k e^{z_k})^2} ∂zj∂pi=(∑kezk)2ezi⋅∂zj∂(∑kezk)−∂zj∂(ezi)⋅∑kezk

简化后,我们得到:

∂ p i ∂ z j = e z i ⋅ δ i j − e z i ⋅ e z j ( ∑ k e z k ) 2 \frac{\partial p_i}{\partial z_j} = \frac{e^{z_i} \cdot \delta_{ij} - e^{z_i} \cdot e^{z_j}}{(\sum_k e^{z_k})^2} ∂zj∂pi=(∑kezk)2ezi⋅δij−ezi⋅ezj

其中 δ i j \delta_{ij} δij是Kronecker delta函数,当 i = j i = j i=j时为1,否则为0。

进一步简化,我们得到:

∂ p i ∂ z j = p i ⋅ ( 1 − δ i j ) − p i ⋅ p j \frac{\partial p_i}{\partial z_j} = p_i \cdot (1 - \delta_{ij}) - p_i \cdot p_j ∂zj∂pi=pi⋅(1−δij)−pi⋅pj

最终,我们得到Softmax函数的导数为:

∂ p i ∂ z j = { p i ( 1 − p j ) , if i = j ; − p i p j , if i ≠ j \frac{\partial p_i}{\partial z_j} = \begin{cases} p_i (1 - p_j) \text{ , if } i = j; \newline -p_i p_j \text{ , if } i \neq j \end{cases} ∂zj∂pi={pi(1−pj) , if i=j;−pipj , if i=j

Softmax函数的导数是一个矩阵,其中每个元素都是输出概率的函数。

Relu函数的反向传播

ReLU(Rectified Linear Unit)函数是深度学习中常用的一种激活函数,其数学表达式为:

f ( x ) = max ⁡ ( 0 , x ) f(x) = \max(0, x) f(x)=max(0,x)

其反向传播公式为:

∂ f ( x ) ∂ x = { 0 , if x ≤ 0 ; 1 , if x > 0 \frac{\partial f(x)}{\partial x} = \begin{cases} 0 \text{ , if } x \leq 0; \newline 1 \text{ , if } x > 0 \end{cases} ∂x∂f(x)={0 , if x≤0;1 , if x>0

MSE函数的反向传播

MSE(Mean Squared Error)函数是深度学习中常用的一种损失函数,其公式如下:

M S E = 1 n ∑ i = 1 n ( y i − y ^ i ) 2 MSE = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 MSE=n1i=1∑n(yi−y^i)2

其中, n n n是数据点的数量, y i y_i yi是第 i i i个数据点的真实值, y ^ i \hat{y}_i y^i是第 i i i个数据点的预测值。

在反向传播过程中,MSE 损失函数单个预测值 y ^ i \hat{y}_i y^i的梯度可以表示为:

∂ M S E ∂ y ^ i = − 2 n ( y i − y ^ i ) \frac{\partial MSE}{\partial \hat{y}_i} = -\frac{2}{n} (y_i - \hat{y}_i) ∂y^i∂MSE=−n2(yi−y^i)

相关推荐
小菜AI科技8 分钟前
Windsurf 评测:这款 人工智能 IDE 是你需要的颠覆性工具吗?
人工智能
RaymondZhao3410 分钟前
【全面推导】策略梯度算法:公式、偏差方差与进化
人工智能·深度学习·算法·机器学习·chatgpt
zhangfeng113319 分钟前
DBSCAN算法详解和参数优化,基于密度的空间聚类算法,特别擅长处理不规则形状的聚类和噪声数据
算法·机器学习·聚类
yzx99101335 分钟前
小程序开发APP
开发语言·人工智能·python·yolo
AKAMAI1 小时前
通过自动化本地计算磁盘与块存储卷加密保护数据安全
人工智能·云计算
无规则ai1 小时前
动手学深度学习(pytorch版):第四章节—多层感知机(5)权重衰减
人工智能·pytorch·python·深度学习
zskj_zhyl2 小时前
家庭健康能量站:微高压氧舱结合艾灸机器人,智享双重养生SPA
人工智能·科技·安全·机器人
朗迪锋2 小时前
数字孪生 :提高制造生产力的智能方法
大数据·人工智能·制造
网安INF2 小时前
【论文阅读】-《HopSkipJumpAttack: A Query-Efficient Decision-Based Attack》
论文阅读·人工智能·深度学习·网络安全·对抗攻击
l1t3 小时前
利用DeepSeek辅助WPS电子表格ET格式分析
人工智能·python·wps·插件·duckdb