神经网络之交叉熵与 Softmax 的梯度计算

🧠 目标

我们要计算的是:

给定模型输出 logits z=[z1,z2,...,zC]\mathbf{z} = [z_1, z_2, ..., z_C]z=[z1,z2,...,zC],Softmax 后得到预测概率 y^=[y^1,...,y^C]\hat{\mathbf{y}} = [\hat{y}_1, ..., \hat{y}_C]y^=[y^1,...,y^C],交叉熵损失函数为:

L=−∑i=1Cyilog⁡(y^i) L = -\sum_{i=1}^C y_i \log(\hat{y}_i) L=−i=1∑Cyilog(y^i)

我们要推导损失对 z\mathbf{z}z 的梯度,也就是:

∂L∂zj \frac{\partial L}{\partial z_j} ∂zj∂L


📘 步骤概览:

  1. 定义 softmax:

    y^i=ezi∑k=1Cezk \hat{y}i = \frac{e^{z_i}}{\sum{k=1}^C e^{z_k}} y^i=∑k=1Cezkezi

  2. 定义交叉熵:

    L=−∑i=1Cyilog⁡(y^i) L = -\sum_{i=1}^C y_i \log(\hat{y}_i) L=−i=1∑Cyilog(y^i)

  3. 合并并对 zjz_jzj 求导:


🧮 步骤一:对 softmax 求导

对于 softmax 输出的 y^i\hat{y}_iy^i,对 zjz_jzj 求导:

  • 当 i=ji = ji=j 时:

∂y^i∂zj=y^i(1−y^i) \frac{\partial \hat{y}_i}{\partial z_j} = \hat{y}_i (1 - \hat{y}_i) ∂zj∂y^i=y^i(1−y^i)

  • 当 i≠ji \ne ji=j 时:

∂y^i∂zj=−y^iy^j \frac{\partial \hat{y}_i}{\partial z_j} = -\hat{y}_i \hat{y}_j ∂zj∂y^i=−y^iy^j

或者统一地写成:

∂y^i∂zj=y^i(δij−y^j) \frac{\partial \hat{y}_i}{\partial z_j} = \hat{y}i (\delta{ij} - \hat{y}_j) ∂zj∂y^i=y^i(δij−y^j)

其中 δij\delta_{ij}δij 是 Kronecker delta,若 i=ji = ji=j 则为 1,否则为 0。


🧮 步骤二:对损失函数求导

回忆损失函数:

L=−∑i=1Cyilog⁡(y^i) L = -\sum_{i=1}^C y_i \log(\hat{y}_i) L=−i=1∑Cyilog(y^i)

对 zjz_jzj 求导(链式法则):

∂L∂zj=−∑i=1Cyi⋅1y^i⋅∂y^i∂zj \frac{\partial L}{\partial z_j} = -\sum_{i=1}^C y_i \cdot \frac{1}{\hat{y}_i} \cdot \frac{\partial \hat{y}_i}{\partial z_j} ∂zj∂L=−i=1∑Cyi⋅y^i1⋅∂zj∂y^i

代入 softmax 的导数:

∂L∂zj=−∑i=1Cyi⋅1y^i⋅y^i(δij−y^j)=−∑i=1Cyi(δij−y^j) \frac{\partial L}{\partial z_j} = -\sum_{i=1}^C y_i \cdot \frac{1}{\hat{y}i} \cdot \hat{y}i (\delta{ij} - \hat{y}j) = -\sum{i=1}^C y_i (\delta{ij} - \hat{y}_j) ∂zj∂L=−i=1∑Cyi⋅y^i1⋅y^i(δij−y^j)=−i=1∑Cyi(δij−y^j)

展开求和:

∂L∂zj=−yj(1−y^j)+∑i≠jyiy^j \frac{\partial L}{\partial z_j} = -y_j (1 - \hat{y}j) + \sum{i \ne j} y_i \hat{y}_j ∂zj∂L=−yj(1−y^j)+i=j∑yiy^j

由于 ∑i≠jyi=1−yj\sum_{i \ne j} y_i = 1 - y_j∑i=jyi=1−yj,可化简为:

∂L∂zj=y^j−yj \frac{\partial L}{\partial z_j} = \hat{y}_j - y_j ∂zj∂L=y^j−yj


✅ 结论:最终梯度公式

∂L∂zj=y^j−yj \boxed{ \frac{\partial L}{\partial z_j} = \hat{y}_j - y_j } ∂zj∂L=y^j−yj

也就是说,Softmax + 交叉熵一起用时,最终反向传播时的梯度是预测概率减去真实标签


📌 优点

  • 数值稳定 :因为常用实现将 Softmax + CrossEntropy 合并在一起(如 PyTorch 中的 CrossEntropyLoss),避免了显式计算 log(softmax(x)),从而防止 underflow/overflow。
  • 高效:只需要一减法操作,计算非常快。
  • 简单清晰:可以直接用误差向量反向传播。
相关推荐
朴实赋能2 分钟前
生死线:2026年跨境电商大洗牌,AI赋能者存,守旧者亡——AI助力怎样重塑品牌出海新规则
人工智能·独立站运营·智矩引擎·跨境电商创业·ai跨境电商·tiktok电商运营·2026跨境电商新趋势
梵得儿SHI3 分钟前
深度拆解 Google Personal Intelligence:下一代个性化 AI 的技术架构、隐私保障与未来愿景
大数据·人工智能·agi·pi·跨产品数据整合
Turboex邮件分享6 分钟前
邮件投递全流程故障排查手册
运维·人工智能
runner365.git9 分钟前
做一个基于ffmpeg的AI Agent智能体
人工智能·ffmpeg·大模型
觉醒大王10 分钟前
硕士/博士研究生避坑指南
笔记·深度学习·学习·自然语言处理·职场和发展·学习方法
策知道18 分钟前
2026年北京政府工作报告产业指标深度解析
大数据·数据库·人工智能·搜索引擎·政务
咚咚王者20 分钟前
人工智能之核心技术 深度学习 第八章 数据预处理与增强
人工智能·深度学习
百***354823 分钟前
2026年AI搜索时代的企业认知突围:微盟星启如何重构品牌信息基础设施
人工智能·重构
极智-99625 分钟前
GitHub 热榜项目-日榜精选(2026-02-03)| AI智能体、终端工具、RAG技术等 | claude-mem、99、termux-app等
人工智能·网络安全·github·ai智能体·llm应用·rag技术·torrent工具
跨境卫士苏苏29 分钟前
跨境电商:从“跑量”到“跑赢利润”的一套打法
大数据·人工智能·跨境电商·亚马逊·内容营销