反向传播的本质是链式法则的递归应用:
- 前向传播:数据从输入层流向输出层,计算每个神经元的输出;
- 反向传播:误差从输出层反向流向输入层,根据 "误差对参数的偏导数" 调整网络权重和偏置。
其目标是最小化损失函数(如均方误差、交叉熵),通过梯度下降法更新参数,使模型预测越来越接近真实标签。不同的损失函数对应着不同的任务,能够指导模型去"干什么"
反向传播的本质是链式法则的递归应用:
其目标是最小化损失函数(如均方误差、交叉熵),通过梯度下降法更新参数,使模型预测越来越接近真实标签。不同的损失函数对应着不同的任务,能够指导模型去"干什么"