Pytorch线性回归实现(原理)

设置梯度

直接在tensor中设置 requires_grad=True,每次操作这个数的时候,就会保存每一步的数据。也就是保存了梯度相关的数据。

python 复制代码
import torch
x = torch.ones(2, 2, requires_grad=True)  #初始化参数x并设置requires_grad=True用来追踪其计算历史
print(x)
#tensor([[1., 1.],
#        [1., 1.]], requires_grad=True)

y = x+2
print(y)
#tensor([[3., 3.],
#        [3., 3.]], grad_fn=<AddBackward0>)

z = y*y*3  #平方x3
print(x)
#tensor([[27., 27.],
#        [27., 27.]], grad_fn=<MulBackward0>) 

out = z.mean() #求均值
print(out)
#tensor(27., grad_fn=<MeanBackward0>)

图1.1

想要修改的话:x.requires_grad_(True),就把x变为可以追踪(中间计算结果都保存)的数了。

不想修改了

python 复制代码
with torch.no_gard():
    c = (a * a).sum()  #tensor(151.6830),此时c没有gard_fn

把内容放在torch.no_gard():下就可以了

梯度计算

计算梯度 :直接调用**.backward()**就行。

例如上面图1.1,out.backward()就行

获取梯度 :调用那个数**.gard**

注意:如果.grad在循环中,每次都会和之前的.grad叠加。

所以每次反向传播之后,都需要把梯度变为0再进行操作。


使用.data获取里面的数据。相当于直接拷贝了一份数据,而不改变原数据的内容。

相关推荐
你才是向阳花30 分钟前
如何用python来做小游戏
开发语言·python·pygame
'需尽欢'2 小时前
基于 Flask+Vue+MySQL的研学网站
python·mysql·flask
新子y3 小时前
【小白笔记】最大交换 (Maximum Swap)问题
笔记·python
程序员爱钓鱼4 小时前
Python编程实战 · 基础入门篇 | Python的缩进与代码块
后端·python
pr_note5 小时前
python|if判断语法对比
python
apocelipes7 小时前
golang unique包和字符串内部化
java·python·性能优化·golang
Geoking.8 小时前
NumPy zeros() 函数详解
python·numpy
Full Stack Developme8 小时前
java.text 包详解
java·开发语言·python
丁浩6669 小时前
Python机器学习---2.算法:逻辑回归
python·算法·机器学习
B站_计算机毕业设计之家9 小时前
计算机毕业设计:Python农业数据可视化分析系统 气象数据 农业生产 粮食数据 播种数据 爬虫 Django框架 天气数据 降水量(源码+文档)✅
大数据·爬虫·python·机器学习·信息可视化·课程设计·农业