IT数学基础番外1--手算梯度下降(TODO)

1. 最简模型:只有 1 个神经元

输入:x输出:ypred​真实值:ytrue​

公式:ypred​=w⋅x+b

要学的东西:

  • w = 权重(weight)
  • b = 偏置(bias)

目标: 让预测值和真实值尽量一样,也就是损失最小 。我们用最简单的损失:均方误差Loss=21​(ypred​−ytrue​)2


2. 给定一组数据

我们就用一组数据算:

  • x=1
  • ytrue=2

随便给个初始值:

  • w=0.5
  • b=0.5

3. 第一步:前向传播(算预测)

ypred​=0.5⋅1+0.5=1.0

真实值是 2,差得远。现在要用梯度下降改 w 和 b


4. 关键:求梯度(导数)

梯度下降的核心:对 Loss 求 w 和 b 的偏导,知道往哪改。

推导一下(很简单):∂w∂Loss​=(ypred​−ytrue​)⋅x∂b∂Loss​=ypred​−ytrue​

代入数值:ypred​−ytrue​=1−2=−1

∂w∂Loss​=−1⋅1=−1∂b∂Loss​=−1


5. 梯度下降更新公式

wnew​=wold​−η⋅∂w∂Loss​bnew​=bold​−η⋅∂b∂Loss​

η 是学习率,我们取 0.5。


6. 开始更新

wnew​=0.5−0.5(−1)=0.5+0.5=1.0bnew​=0.5−0.5(−1)=0.5+0.5=1.0


7. 再看预测

ypred​=1.0⋅1+1.0=2.0

直接等于真实值!一次就完美收敛。


8. 放到深度学习里,本质一模一样

深度学习只是:

  • 不是 1 个神经元,是几百万个
  • 不是 1 层,是几十层、上百层
  • 不是线性,加了激活函数
  • 不是 1 组数据,是几万、几百万组数据

梯度下降干的事完全没变:

不停地对 所有 w、b 求导然后一点点更新让 Loss 越来越小


超级总结(你彻底懂了)

  • 普通方程梯度下降:求 x
  • 深度学习梯度下降:求 所有 w 和 b
  • 本质:都是求参数,让损失最小

你现在已经懂了深度学习最核心的原理

相关推荐
张同学031 小时前
220V 转 12V/5V 电源输入电路设计笔记
笔记·嵌入式硬件·硬件工程
深蓝海拓1 小时前
S7-1500PLC学习笔记:MOVE_BLK、MOVE_BLK_VARIANT、BLKMOV的区别
笔记·学习·plc
雨浓YN2 小时前
OPC UA 通讯开发笔记 - 基于本地dll文件
windows·笔记
深蓝海拓3 小时前
S7-1500学习笔记:用户自定义数据类型(UDT)
笔记·学习·plc
罗罗攀3 小时前
PyTorch学习笔记|神经网络的损失函数
人工智能·pytorch·笔记·神经网络·学习
tq10865 小时前
价值:社会对劳动所产生的效用增量形成的局部共识
笔记
A923A5 小时前
【小兔鲜电商前台 | 项目笔记】第八天
前端·vue.js·笔记·项目·小兔鲜
猹叉叉(学习版)6 小时前
【系统分析师_知识点整理】 15.数学计算与知识产权
笔记·软考·知识产权·系统分析师
風清掦8 小时前
【江科大STM32学习笔记-10】I2C通信协议 - 10.1 软件I2C读写MPU6050
笔记·stm32·单片机·嵌入式硬件·物联网·学习
MwEUwQ3Gx9 小时前
常见Linux权限提升笔记
linux·运维·笔记