AI深度学习/PyTorch/反向传播与梯度下降

AI深度学习/PyTorch/反向传播与梯度下降 龙文浩 工程师的学术研究 2026/4/4

import torch

def lwh_backward_grad():

"""

前向传播 = 特征x * 权重w + 偏置b → 预测值z

反向传播 = 预测值z → 损失函数 → 损失值loss → 更新:权重w 、 偏置b

本案例:简化为单变量w,损失函数 loss = 2 * w²,演示单次前向+反向传播

"""

===================== 1. 定义可训练参数(权重w) =====================

requires_grad=True:开启自动求导,PyTorch会记录该张量的计算图,用于反向传播

dtype=torch.float32:指定数据类型为32位浮点数,符合深度学习常规

w = torch.tensor(data=10, requires_grad=True, dtype=torch.float32)

复制代码
# 学习率 lr:控制每次梯度下降的步长,步长太大易震荡,太小收敛慢
lr = 0.1

# ===================== 2. 前向传播:计算损失 =====================
# 定义损失函数:loss = 2 * w²
# 这一步会构建计算图,记录w到loss的计算路径
loss = 2 * w ** 2

# ===================== 3. 反向传播:自动求导 =====================
# loss.sum():将标量损失转为可反向传播的标量(本案例loss本身是标量,sum()为兼容写法)
# backward():自动从loss反向传播,计算所有requires_grad=True的张量的梯度
# 梯度计算:d(loss)/d(w) = d(2w²)/dw = 4w,w初始为10,所以梯度为4*10=40
loss.sum().backward()

# ===================== 4. 梯度下降:更新权重 =====================
# w.data:直接访问张量的数值,不参与计算图,避免影响梯度
# w.grad:反向传播后得到的梯度值(导数)
# 更新公式:w_new = w_old - lr * gradient(梯度下降核心公式)
w1 = w.data - lr * w.grad

# ===================== 5. 结果打印 =====================
print(f"初始权重w: {w.data.item()}")
print(f"损失函数loss: {loss.item()}")
print(f"反向传播计算的梯度w.grad: {w.grad.item()}")
print(f"学习率lr: {lr}")
print(f"反向传播后的权重值w: {w1.item()}")

执行函数

lwh_backward_grad()

相关推荐
头发够用的程序员1 分钟前
从滑动窗口到矩阵运算:img2col算法基本原理
人工智能·算法·yolo·性能优化·矩阵·边缘计算·jetson
ydmy23 分钟前
transformer超参数配置(个人理解)
人工智能·深度学习
AI原来如此28 分钟前
AI 编程助手常见问题 10 问 10 答
人工智能·ai·大模型·编程
科技林总2 小时前
【论文】MemGPT: Towards LLMs as Operating Systems
人工智能
黎阳之光2 小时前
黎阳之光透明管理:视频孪生重构智慧仓储新范式
人工智能·算法·安全·重构·数字孪生
qq_411262422 小时前
四博CozyLife AI智能音响方案:技术化设计与实现
人工智能·智能音箱
水如烟2 小时前
孤能子视角:OpenAI,再看强关系与弱关系
人工智能
MediaTea2 小时前
AI 术语通俗词典:权重参数
人工智能
基因改造者2 小时前
Hermes Agent 配置指南
人工智能·ai·hermes agent
QuestLab2 小时前
【第22期】2026年4月25日 AI日报
人工智能