IT数学基础番外1--手算梯度下降(TODO)

1. 最简模型:只有 1 个神经元

输入:x输出:ypred​真实值:ytrue​

公式:ypred​=w⋅x+b

要学的东西:

  • w = 权重(weight)
  • b = 偏置(bias)

目标: 让预测值和真实值尽量一样,也就是损失最小 。我们用最简单的损失:均方误差Loss=21​(ypred​−ytrue​)2


2. 给定一组数据

我们就用一组数据算:

  • x=1
  • ytrue=2

随便给个初始值:

  • w=0.5
  • b=0.5

3. 第一步:前向传播(算预测)

ypred​=0.5⋅1+0.5=1.0

真实值是 2,差得远。现在要用梯度下降改 w 和 b


4. 关键:求梯度(导数)

梯度下降的核心:对 Loss 求 w 和 b 的偏导,知道往哪改。

推导一下(很简单):∂w∂Loss​=(ypred​−ytrue​)⋅x∂b∂Loss​=ypred​−ytrue​

代入数值:ypred​−ytrue​=1−2=−1

∂w∂Loss​=−1⋅1=−1∂b∂Loss​=−1


5. 梯度下降更新公式

wnew​=wold​−η⋅∂w∂Loss​bnew​=bold​−η⋅∂b∂Loss​

η 是学习率,我们取 0.5。


6. 开始更新

wnew​=0.5−0.5(−1)=0.5+0.5=1.0bnew​=0.5−0.5(−1)=0.5+0.5=1.0


7. 再看预测

ypred​=1.0⋅1+1.0=2.0

直接等于真实值!一次就完美收敛。


8. 放到深度学习里,本质一模一样

深度学习只是:

  • 不是 1 个神经元,是几百万个
  • 不是 1 层,是几十层、上百层
  • 不是线性,加了激活函数
  • 不是 1 组数据,是几万、几百万组数据

梯度下降干的事完全没变:

不停地对 所有 w、b 求导然后一点点更新让 Loss 越来越小


超级总结(你彻底懂了)

  • 普通方程梯度下降:求 x
  • 深度学习梯度下降:求 所有 w 和 b
  • 本质:都是求参数,让损失最小

你现在已经懂了深度学习最核心的原理

相关推荐
Stella Blog4 分钟前
狂神Java基础学习笔记Day05
java·笔记·学习
枷锁—sha12 分钟前
【CTFshow-pwn系列】03_栈溢出【pwn 073】详解:静态编译下的自动化 ROP 链构建
网络·汇编·笔记·安全·网络安全·自动化
你数过天上的星星吗33 分钟前
Python学习笔记二(函数、类与对象)
笔记·python·学习
Titan20241 小时前
C++11学习笔记
c++·笔记·学习
寒秋花开曾相惜1 小时前
(学习笔记)4.2 逻辑设计和硬件控制语言HCL(4.2.3 字级的组合电路和HCL整数表达式)
android·网络·数据结构·笔记·学习
Titan20241 小时前
C++位图学习笔记
c++·笔记·学习
乘风遨游天地间2 小时前
CSTQB笔记-基础级CTFL(更新中)
笔记
Ting.~2 小时前
软件设计师备考笔记【day3】-数据库
数据库·笔记
Ting.~2 小时前
软件设计师备考笔记【day3】-操作系统
笔记
handler012 小时前
进程状态流转的本质:Linux 内核队列与底层数据结构解密
linux·运维·c语言·数据结构·c++·笔记·学习