训练神经网络的原理(前向传播、反向传播、优化、迭代)

训练神经网络的原理

通过前向传播 计算预测值和损失,利用反向传播 计算梯度,然后通过优化算法更新参数,最终使模型在给定任务上表现更好。

核心:通过计算损失函数(通常是模型预测与真实值之间的差距)对模型参数的偏导数(即梯度),然后根据梯度信息调整模型参数,以逐步减小损失。简言之,优化算法通过"反向传播"来计算梯度,然后根据这些梯度更新模型的参数,直到损失最小化。

步骤:
  1. 前向传播(Forward Pass)
    • 输入数据通过模型进行计算,得到预测结果。
    • 计算预测结果和真实标签之间的差距,这个差距就是损失函数。

输入数据经过神经网络的每一层依次计算,最终得到预测输出。每一层的计算通常包括线性变换(权重与输入的乘积)和非线性激活函数(如 ReLU、Sigmoid 等),公式可以表示为:
h = σ ( W x + b ) h = \sigma(Wx + b) h=σ(Wx+b)

其中, h h h 是当前层的输出, σ \sigma σ 是激活函数, W W W 是权重矩阵, x x x 是输入向量, b b b 是偏置项。

  1. 反向传播(Backpropagation)
    • 计算损失函数相对于模型参数的梯度。梯度表示损失函数在每个参数上的变化率,即每个参数对最终损失的影响。
    • 使用链式法则,将梯度从输出层传播回输入层,逐层计算每个参数的梯度。

反向传播是神经网络训练的核心步骤。它通过计算损失函数相对于每个参数的梯度,利用链式法则将梯度从输出层逐层传播到输入层。具体步骤如下:
计算损失函数的梯度 :首先计算损失函数对输出层的梯度。
逐层传播梯度 :利用链式法则,计算每一层的梯度。对于隐藏层,梯度计算公式为:
∂ L ∂ W = ∂ L ∂ h ⋅ ∂ h ∂ W \frac{\partial L}{\partial W} = \frac{\partial L}{\partial h} \cdot \frac{\partial h}{\partial W} ∂W∂L=∂h∂L⋅∂W∂h

其中, ∂ L ∂ h \frac{\partial L}{\partial h} ∂h∂L 是损失函数对当前层输出的梯度, ∂ h ∂ W \frac{\partial h}{\partial W} ∂W∂h 是当前层输出对权重的梯度。

  1. 参数更新(Parameter Update)

    • 通过优化算法(如梯度下降)来更新模型参数。梯度下降的核心思路是沿着梯度的反方向更新参数,因为梯度指示了损失函数增长的方向。
    • 参数更新的公式一般为:
      θ = θ − η ⋅ ∇ θ L ( θ ) \theta = \theta - \eta \cdot \nabla_\theta L(\theta) θ=θ−η⋅∇θL(θ)
      其中, θ \theta θ是模型的参数, η \eta η是学习率, ∇ θ L ( θ ) \nabla_\theta L(\theta) ∇θL(θ)是损失函数对参数的梯度。
  2. 迭代训练(Iteration)

    • 通过多次前向传播和反向传播,模型的参数会逐步更新,损失逐步减小,最终达到一个局部或全局最优。

训练过程通常包括多个 epoch(遍历整个数据集的次数),并在每个 epoch 中对数据进行多次小批量训练。

相关推荐
新缸中之脑8 分钟前
AI智能体五大设计模式
人工智能·机器学习·设计模式
lisw0511 分钟前
单片机:概念、历史、内容与发展战略!
人工智能·单片机·机器学习
一招定胜负12 分钟前
机器学习 + 深度学习经典面试真题
深度学习·机器学习·面试
啊巴矲19 分钟前
小白从零开始勇闯人工智能:深度学习汇总(复习大纲篇)
人工智能·深度学习
Zero20 分钟前
机器学习线性代数--(10)基变换:在不同坐标系之间切换
线性代数·机器学习
糖果店的幽灵26 分钟前
【大模型】大模型学习总结之机器学习-3.模型评估
人工智能·学习·机器学习
梦醒过后说珍重33 分钟前
Python 工程化实战:如何将复杂的EndoMamba感知损失封装为“即插即用”的独立模块包
python·深度学习
CoovallyAIHub33 分钟前
编码智能体做 CV 任务,实际能力到哪一步了?——五项视觉任务实测解读
深度学习·算法·计算机视觉
ZWZhangYu37 分钟前
【Gradio系列】使用 Gradio 快速构建机器学习图像分类实战
人工智能·机器学习·分类
梦醒过后说珍重38 分钟前
PyTorch 工程实践:如何优雅地将 ViT 大模型封装为即插即用的感知损失(Perceptual Loss)
python·深度学习