深度学习(9)导数与计算图

一、导数(Derivative)

1. 导数的定义与直观理解

导数(Derivative)描述的是一个函数在某一点处的"变化率"。换句话说,它告诉我们:

当输入(x)发生一个非常小的变化时,输出(y)会随之变化多少。

数学定义为:

例如:

这表示:在点 x=3x=3x=3 时,斜率是 6,即输入每增加 1,输出大约增加 6。

2. 导数的几何意义

在图像上,导数代表函数曲线在某一点的切线斜率(slope of tangent line)

  • 当导数为正,函数上升;

  • 当导数为负,函数下降;

  • 当导数为 0,函数在该点处平缓(可能是极值点)。

3. 导数在代码中的使用

在深度学习框架(如 TensorFlowPyTorch)中,导数的计算被封装成"自动微分"(Automatic Differentiation)功能。

例如在 PyTorch 中:

python 复制代码
import torch

# 定义变量
x = torch.tensor(3.0, requires_grad=True)
y = x ** 2 + 2 * x + 1

# 自动求导
y.backward()
print(x.grad)  # 输出导数 dy/dx = 2x + 2 = 8

这段代码展示了如何让计算机"自动"计算导数,背后其实就是在构建计算图(Computation Graph),并通过反向传播进行梯度计算。


二、计算图(Computation Graph)

1. 基本概念

计算图 是神经网络中表示计算流程的一种图结构。它将复杂的函数分解为一系列简单的节点操作(如加法、乘法、激活函数等)。

例如:

对应的计算图为:

复制代码
x1 ─┐
    ├─( + )──┐
x2 ─┘        │
              ├─( × )──► y
x3 ───────────┘

2. 从右向左的反向传播原理

在反向传播中,计算导数时要遵循链式法则(Chain Rule)

计算图会从输出节点(右边)开始,逐步往输入节点(左边)反传梯度,这就是"从右向左计算"的原因。

为什么这样做? 因为输出的误差(Loss)依赖于所有中间节点的结果,而每个中间节点的导数又取决于其"下游节点"的梯度。反向传播就是利用这种依赖关系,逐层传递误差信息


3. 计算图中梯度的依赖关系

在计算图中,我们常用 cadj​ 表示某节点的"梯度累积值"(gradient accumulation)。每个节点的梯度由下游节点传回并逐步累加

也就是说,一个节点的梯度取决于它所影响的所有下游节点的梯度。


4. 为什么只需要计算 n + p 次导数?

假设:

  • 计算图中有 n 个中间节点

  • p 个参数(parameters)

那么在一次反向传播中,我们可以同时得到所有参数的梯度 。这得益于计算图的结构:每个节点的导数只需要计算一次 ,然后梯度信息被"复用"并向上游传播。所以,总共只需要 n+p 次计算,而不是 n×p 次。这正是反向传播(Backpropagation)高效的关键


5. 计算图在神经网络中的应用

在神经网络中,整个模型的计算过程都可以看作一个巨大的计算图:

  • 每一层的输出 都是由上一层的输出 经过线性变换 + 激活函数得到;

  • 计算图会自动记录这些运算关系;

  • 在反向传播时,框架根据计算图自动计算每个参数(权重、偏置)的梯度。

例如 PyTorch 的示意:

python 复制代码
import torch
x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)
y = x * 2
z = y.mean()
z.backward()
print(x.grad)  # 输出 [0.6667, 0.6667, 0.6667]

这里 PyTorch 自动构建了如下计算图:

复制代码
x → (×2) → y → (mean) → z

并自动执行了反向传播计算。


总结

概念 作用
导数(Derivative) 衡量输出对输入的敏感程度(变化率)
计算图(Computation Graph) 表示函数的计算流程结构
反向传播(Backpropagation) 从输出误差反向计算梯度
自动微分(Autograd) 框架自动计算梯度的功能
n + p 原理 每个节点和参数的梯度只需计算一次,提高效率
相关推荐
液态不合群2 小时前
推荐算法中的位置消偏,如何解决?
人工智能·机器学习·推荐算法
饭饭大王6662 小时前
当 AI 系统开始“自省”——在 `ops-transformer` 中嵌入元认知能力
人工智能·深度学习·transformer
ujainu2 小时前
CANN仓库中的AIGC可移植性工程:昇腾AI软件栈如何实现“一次开发,多端部署”的跨生态兼容
人工智能·aigc
初恋叫萱萱2 小时前
CANN 生态实战指南:从零构建一个高性能边缘 AI 应用的完整流程
人工智能
Lethehong2 小时前
CANN ops-nn仓库深度解读:AIGC时代的神经网络算子优化实践
人工智能·神经网络·aigc
lbb 小魔仙2 小时前
面向 NPU 的高性能矩阵乘法:CANN ops-nn 算子库架构与优化技术
线性代数·矩阵·架构
开开心心就好2 小时前
AI人声伴奏分离工具,离线提取伴奏K歌用
java·linux·开发语言·网络·人工智能·电脑·blender
TechWJ2 小时前
CANN ops-nn神经网络算子库技术剖析:NPU加速的基石
人工智能·深度学习·神经网络·cann·ops-nn
凌杰2 小时前
AI 学习笔记:LLM 的部署与测试
人工智能
心疼你的一切2 小时前
拆解 CANN 仓库:实现 AIGC 文本生成昇腾端部署
数据仓库·深度学习·aigc·cann