202_深度学习的动力源泉:矩阵微积分与自动求导 (Autograd)

在深度学习中,我们不仅仅是对单个变量求导,而是对整个向量或矩阵求导。理解梯度(Gradient)如何在高维空间中流动,是掌握反向传播算法的关键。

1. 导数的基本概念:从标量到向量

笔记中回顾了导数的本质:衡量输入发生微小变化时,输出变化的速率。

  • 标量导数:y = f(x)的导数 f'(x)。
  • 亚微分 (Subgradient):对于不可导的点(如 ReLU 在 x=0 处),引入亚微分的概念,确保优化过程在这些点依然可行。

2. 向量微积分:梯度 (Gradient)

当函数 y的输入是一个向量

时,导数就变成了梯度

  • 几何意义 :梯度指向函数增长最快的方向。在训练中,我们沿着梯度的反方向走,这就是"梯度下降"。

3. 自动求导实战:PyTorch 的 backward()

PyTorch 强大的核心原因之一就是其自动求导系统。它会根据前向传播构建计算图,并自动推导出复杂的链式法则。

文件展示了如何对函数

进行求导:

Python

复制代码
import torch

# 1. 创建变量并声明需要计算梯度
x = torch.arange(4.0)
x.requires_grad_(True) # 默认是 False

# 2. 定义函数 y = 2 * (x的平方和)
y = 2 * torch.dot(x, x)

# 3. 反向传播
y.backward()

# 4. 查看梯度结果
# y = 2 * (x1^2 + x2^2 + ...) -> dy/dx = 4 * x
print(x.grad) 
print(x.grad == 4 * x) # 验证结果是否为 [0, 4, 8, 12]

4. 计算图与链式法则 (Chain Rule)

神经网络是由许多层堆叠而成的复合函数

  • 链式法则
  • 计算图 :PyTorch 在后台将操作记录为有向无环图(DAG),.backward() 实际上是在这个图上从后往前进行拓扑遍历。

5. 进阶:分离计算与非标量求导

笔记中提到了两个非常实用的技巧:

① 分离计算 (detach)

有时我们希望将某些计算移出计算图,使其不参与梯度更新。

Python

复制代码
# z 对 x 的梯度不会通过 y 传递
y = x * x
u = y.detach() 
z = u * x
z.sum().backward()
print(x.grad == u) # 此时梯度只计入 u,不计入 y

② 非标量求导

PyTorch 通常只对标量输出求导。如果 y 是一个向量,调用 y.backward() 会报错。

  • 解决方法 :通常对 y.sum().backward() 进行操作,这相当于计算梯度向量。

6. 总结:矩阵计算的"三板斧"

  1. 定义变量 :使用 requires_grad_(True)
  2. 构建逻辑:编写前向计算公式。
  3. 触发求导 :调用 .backward(),然后从 .grad 属性中提取结果。
相关推荐
eastyuxiao2 分钟前
数字孪生(Digital Twin)从入门到实战教程
大数据·人工智能·数字孪生
皮皮学姐分享-ppx3 分钟前
上市公司数字技术风险暴露数据(2010-2024)|《经济研究》同款大模型测算
大数据·网络·数据库·人工智能·chatgpt·制造
CLX05054 分钟前
如何在 WordPress AMP 网站中为特定模板禁用 AMP 渲染
jvm·数据库·python
砚底藏山河7 分钟前
python、JavaScript 、JAVA,定制化数据服务,助力业务高效落地
java·javascript·python
Jay-r7 分钟前
ChatGPT 官网入口(2026 年最新版)——简明指南
人工智能·语言模型·chatgpt·ai助手·chatgpt5.5
神明9317 分钟前
如何实现SQL动态字段选择查询_利用反射或动态拼接字符串
jvm·数据库·python
小星AI8 分钟前
LangGraph 超详细教程,附源码
人工智能·agent
JavaAgent架构师12 分钟前
前端AI工程化(一):AI通信协议深度解析
前端·人工智能
洛的地理研学14 分钟前
Python下载并处理MOD13A3植被指数数据
开发语言·python
m0_7335654618 分钟前
golang如何实现RabbitMQ死信队列_golang RabbitMQ死信队列实现教程
jvm·数据库·python