深度学习权重计算三步法则

先把"游戏规则"全部定死(非常重要)

1️⃣ 模型

y = wx +b

2️⃣ 数据(只用 1 个点)

复制代码
x = 2 y_true = 4 

3️⃣ 初始参数

复制代码
w = 1 b = 0 

4️⃣ Loss(平方误差)

5️⃣ 学习率

复制代码
lr = 0.1 

二、前向传播(算预测)

1️⃣ 算预测值

复制代码
y_hat = w x + b = 1 * 2 + 0 = 2 

2️⃣ 算 loss

复制代码
L = 1/2 * (2 - 4)^2 = 1/2 * 4 = 2 

三、反向传播:算梯度(最关键)

我们现在问一个问题:

如果我把 w 稍微变大一点点,loss 是变大还是变小?


1️⃣ 写出 loss 关于 w 的公式


2️⃣ 对 w 求导(一步一步)


3️⃣ 代入当前数值

复制代码
(w x - y) = (1 * 2 - 4) = -2 
x = 2 

所以代入公式2:

复制代码
grad = -2 * 2 = -4 

🔥 解释这个「-4」是什么意思

  • 梯度是 负的

  • 意味着:

👉 增大 w,会让 loss 下降


四、SGD 更新(你问的核心)

更新公式

复制代码
w_new = w - lr * grad 

代入数值

复制代码
w_new = 1 - 0.1 * (-4) = 1 + 0.4 = 1.4 

五、更新之后,loss 真的变小了吗?(验证)

新预测

复制代码
y_hat = 1.4 * 2 = 2.8 

新 loss

复制代码
L = 1/2 * (2.8 - 4)^2 = 1/2 * 1.44 = 0.72 

2 → 0.72,loss 真的下降了


六、再走一步

第二步更新

当前参数

复制代码
w = 1.4 

算梯度

复制代码
(w x - y) = (1.4 * 2 - 4) = -1.2 
grad = (w x - y) *x = -1.2 * 2 = -2.4 

更新

复制代码
w_new = 1.4 - 0.1 * (-2.4) = 1.64 

loss

复制代码
L = 1/2 * (1.64 * 2 - 4)^2 = 0.13 

七、现在应该能"看见"梯度下降在干嘛了

  • 梯度的 符号:告诉你往哪边走

  • 梯度的 大小:告诉你走多远

  • 学习率:控制步子大小

八、权重更新三步走:

1. 计算损失 - 前向传播

loss = criterion(model(inputs), labels) # 计算预测值与真实值的差异

2. 计算梯度 - 反向传播

loss.backward() # 自动计算所有参数的梯度并存储

3. 更新权重 - 优化器步进

optimizer.step() # 根据梯度更新模型参数

相关推荐
哥布林学者33 分钟前
高光谱成像(二)光谱角映射 SAM
机器学习·高光谱成像
中杯可乐多加冰1 小时前
OpenClaw到底能做什么?有什么用?先装这几个实用的Skills
人工智能
千寻girling1 小时前
一份不可多得的 《 Python 》语言教程
人工智能·后端·python
aircrushin3 小时前
从春晚看分布式实时协同算法与灵巧手工程实现
人工智能·机器人
恋猫de小郭3 小时前
Apple 的 ANE 被挖掘,AI 硬件公开,宣传的 38 TOPS 居然是"数字游戏"?
前端·人工智能·ios
银河系搭车客指南3 小时前
AI Agent 的失忆症:我是怎么给它装上"第二个大脑"的
人工智能
张拭心3 小时前
春节后,有些公司明确要求 AI 经验了
android·前端·人工智能
我的username4 小时前
极致简单的openclaw安装教程
人工智能
小锋java12344 小时前
【技术专题】嵌入模型与Chroma向量数据库 - Chroma 集合操作
人工智能
七月丶4 小时前
别再手动凑 PR 了:这个 AI Skill 会按仓库习惯自动建分支、拆提交、提 PR
人工智能·设计模式·程序员