深度学习权重计算三步法则

先把"游戏规则"全部定死(非常重要)

1️⃣ 模型

y = wx +b

2️⃣ 数据(只用 1 个点)

复制代码
x = 2 y_true = 4 

3️⃣ 初始参数

复制代码
w = 1 b = 0 

4️⃣ Loss(平方误差)

5️⃣ 学习率

复制代码
lr = 0.1 

二、前向传播(算预测)

1️⃣ 算预测值

复制代码
y_hat = w x + b = 1 * 2 + 0 = 2 

2️⃣ 算 loss

复制代码
L = 1/2 * (2 - 4)^2 = 1/2 * 4 = 2 

三、反向传播:算梯度(最关键)

我们现在问一个问题:

如果我把 w 稍微变大一点点,loss 是变大还是变小?


1️⃣ 写出 loss 关于 w 的公式


2️⃣ 对 w 求导(一步一步)


3️⃣ 代入当前数值

复制代码
(w x - y) = (1 * 2 - 4) = -2 
x = 2 

所以代入公式2:

复制代码
grad = -2 * 2 = -4 

🔥 解释这个「-4」是什么意思

  • 梯度是 负的

  • 意味着:

👉 增大 w,会让 loss 下降


四、SGD 更新(你问的核心)

更新公式

复制代码
w_new = w - lr * grad 

代入数值

复制代码
w_new = 1 - 0.1 * (-4) = 1 + 0.4 = 1.4 

五、更新之后,loss 真的变小了吗?(验证)

新预测

复制代码
y_hat = 1.4 * 2 = 2.8 

新 loss

复制代码
L = 1/2 * (2.8 - 4)^2 = 1/2 * 1.44 = 0.72 

2 → 0.72,loss 真的下降了


六、再走一步

第二步更新

当前参数

复制代码
w = 1.4 

算梯度

复制代码
(w x - y) = (1.4 * 2 - 4) = -1.2 
grad = (w x - y) *x = -1.2 * 2 = -2.4 

更新

复制代码
w_new = 1.4 - 0.1 * (-2.4) = 1.64 

loss

复制代码
L = 1/2 * (1.64 * 2 - 4)^2 = 0.13 

七、现在应该能"看见"梯度下降在干嘛了

  • 梯度的 符号:告诉你往哪边走

  • 梯度的 大小:告诉你走多远

  • 学习率:控制步子大小

八、权重更新三步走:

1. 计算损失 - 前向传播

loss = criterion(model(inputs), labels) # 计算预测值与真实值的差异

2. 计算梯度 - 反向传播

loss.backward() # 自动计算所有参数的梯度并存储

3. 更新权重 - 优化器步进

optimizer.step() # 根据梯度更新模型参数

相关推荐
嵌入式老牛24 分钟前
OpenCV与MFC混合编程中的图像格式转换研究
人工智能·opencv·mfc
Raink老师6 小时前
【AI面试临阵磨枪】Harness 的环境隔离(沙箱)如何设计?文件、网络、命令、权限四层隔离?
人工智能·ai 面试
人工智能AI技术6 小时前
Python 断言 assert 基础用法
人工智能
我是发哥哈6 小时前
横向评测:五款主流AI培训课程效果与选型分析
人工智能
GetcharZp7 小时前
告别昂贵显卡!llama.cpp 终极指南:在你的电脑上满速运行大模型!
人工智能
AI木马人7 小时前
3.【Prompt工程实战】如何设计一个可复用的Prompt系统?(避免每次手写提示词)
linux·服务器·人工智能·深度学习·prompt
lwf0061647 小时前
导数学习日记
学习·算法·机器学习
Agent产品评测局7 小时前
临床前同源性反应种属筛选:利用AI Agent加速筛选的实操方案 —— 2026企业级智能体选型与技术落地指南
人工智能·ai·chatgpt
ting94520007 小时前
HunyuanOCR 全方位深度解析
人工智能·架构
woai33647 小时前
AI通识-大模型的原理&应用
人工智能