Pytorch笔记之回归

文章目录


前言

以线性回归为例,记录Pytorch的基本使用方法。


一、导入库

python 复制代码
import numpy as np
import matplotlib.pyplot as plt
import torch
from torch.autograd import Variable # 定义求导变量
from torch import nn, optim # 定义网络模型和优化器

二、数据处理

将数据类型转为tensor,第一维度变为batch_size

python 复制代码
# 构建数据
x = np.random.rand(100)
noise = np.random.normal(0, 0.01, x.shape)
y = 0.1 * x + 0.2 + noise
# 数据处理
x_data = torch.FloatTensor(x.reshape(-1, 1))
y_data = torch.FloatTensor(y.reshape(-1, 1))
inputs = Variable(x_data)
target = Variable(y_data)

三、构建模型

1、继承nn.Module,定义一个线性回归模型。在__init__中定义连接层,定义前向传播的方法

2、实例化模型,定义损失函数与优化器

python 复制代码
# 继承模型
class LinearRegression(nn.Module):
    def __init__(self):
        super().__init__()
        self.fc = nn.Linear(1, 1)
    def forward(self, x):
        out = self.fc(x)
        return out
# 定义模型
print('模型参数')
model = LinearRegression()
mse_loss = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.1)
for name, param in model.named_parameters():
    print('{}:{}'.format(name, param))

四、迭代训练

1、梯度清零:optimizer.zero_grad()

2、反向传播计算梯度值:loss.backward()

3、执行参数更新:optimizer.step()

循环迭代,定期输出损失值

python 复制代码
print('损失值')
for i in range(1001):
    out = model.forward(inputs)
    loss = mse_loss(out, target)
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
    if i % 200 == 0:
        print(i, loss.item())

五、结果预测

绘制样本的散点图与预测值的折线图

python 复制代码
print('结果预测')
y_pred = model(x_data)
plt.plot(x, y, 'b.')
plt.plot(x, y_pred.data.numpy(), 'r-')
plt.show()

总结

使用Pytorch进行训练主要的三步:

(1)数据处理:将数据维度转换为(batch, *),数据类型转换为可训练的tensor;

(2)构建模型:继承nn.Module,定义连接层与运算方法,实例化,定义损失函数与优化器;

(3)迭代训练:循环迭代,依次执行梯度清零、梯度计算、参数更新。

相关推荐
lingggggaaaa1 天前
小迪安全v2023学习笔记(七十九讲)—— 中间件安全&IIS&Apache&Tomcat&Nginx&CVE
笔记·学习·安全·web安全·网络安全·中间件·apache
我登哥MVP1 天前
Java File 类学习笔记
java·笔记·学习
豆浩宇1 天前
Conda环境隔离和PyCharm配置,完美同时运行PaddlePaddle和PyTorch
人工智能·pytorch·算法·计算机视觉·pycharm·conda·paddlepaddle
天天开心a1 天前
OSPF基础部分知识点
网络·笔记·学习·智能路由器·hcip
致***锌1 天前
期权平仓后权利金去哪了?
笔记
LiuYaoheng1 天前
【Android】View 的基础知识
android·java·笔记·学习
星梦清河1 天前
宋红康 JVM 笔记 Day14|垃圾回收概述
jvm·笔记
Suckerbin1 天前
Basic Pentesting: 1靶场渗透
笔记·安全·web安全·网络安全
草莓熊Lotso1 天前
PyCharm 从入门到高效:安装教程 + 快捷键速查表
开发语言·ide·经验分享·笔记·其他
一位搞嵌入式的 genius1 天前
ES6 核心特性详解:从变量声明到函数参数优化
前端·笔记·学习