Pytorch线性回归实现(Pycharm实现)

步骤都在注释里写清楚了,可以自己调整循环的次数观察输出的w与b和loss的值

python 复制代码
import torch

#学习率,用来进行w和b的更新
learning_rate = 0.01
#1. 准备数据
#这里使用y=3x+0.8.也就是w=3,b=0.8.创造一个500行1列的数据
x=torch.rand([500,1])
y_true=x*0.3+0.8

#2. 通过模型计算y_predict。x*w,所以w是1行1列的.torch.matmul是矩阵乘法.只有浮点数才能使用grad。修改dtype
w = torch.rand([1,1],requires_grad=True)
b = torch.tensor(0,requires_grad=True,dtype=torch.float32)


#4. 通过循环,反向传播,更新参数
for i in range(5000):
    y_predict = torch.matmul(x, w) + b
    # 3. 计算loss.用平方来处理,这里mean不太清楚是什么意思。均方误差?这是什么?....每次都需要更新损失,所以把他放在循环里
    loss = (y_true - y_predict).pow(2).mean()

    #每次backward之前梯度置为0
    if w.grad is not None:
        w.grad.data.zero_()
    if b.grad is not None:
        b.grad.data.zero_()

    loss.backward() #反向传播.这时w和b的梯度就算出来了w.grad,b.grad
    w.data = w.data - learning_rate * w.grad
    b.data = b.data - learning_rate * b.grad  #要注意左边不要写成grad,写成grad之后b的内容就一直是0
    print("w,b,loss",w.item(),b.item(),loss.item())

输出:

可以观察到w接近0.3,b接近0.8。和预想值十分接近了。

问题:

这里的理解有欠缺。。。

相关推荐
ZhengEnCi2 小时前
05-自注意力机制详解 🧠
人工智能·pytorch·深度学习
做cv的小昊4 小时前
【TJU】研究生应用统计学课程笔记(8)——第四章 线性模型(4.1 一元线性回归分析)
笔记·线性代数·算法·数学建模·回归·线性回归·概率论
郝学胜-神的一滴8 小时前
Python 抽象基类深度解析:从简易模拟到 abc 模块的优雅实践
开发语言·python·pycharm
xier_ran9 小时前
【BUG问题】5060Ti显卡Windows配置Anaconda中的CUDA及Pytorch,sm_120问题
人工智能·pytorch·windows
郝学胜-神的一滴12 小时前
深度学习损失函数:从原理到实战之 Smooth L1 Loss
人工智能·pytorch·python·深度学习·机器学习·数据挖掘
Thanks_ks14 小时前
【第 002 讲】Python 标准开发环境搭建:运行环境 | 环境变量 | IDE 部署 | 配置优化
ide·python·pycharm·开发工具·环境配置·环境变量·编程基础
小龙报14 小时前
【必装软件】python及pycharm的安装与环境配置
开发语言·人工智能·python·语言模型·自然语言处理·pycharm·语音识别
shughui14 小时前
2026年最新版Python安装和PyCharm安装教程(图文详细 附安装包)
开发语言·windows·python·pycharm·编辑器
SilentSamsara1 天前
闭包的本质:Python 如何捕获自由变量
开发语言·python·青少年编程·pycharm
MATLAB代码顾问1 天前
Transformer时序预测:PatchTST原理与PyTorch实现
pytorch·深度学习·transformer