Pytorch深度学习实践(4)使用Pytorch实现线性回归

使用Pytorch实现线性回归

基本步骤:

  • 准备数据集
  • 设计模型
  • 构造损失函数和优化器
  • 模型训练
    • forward计算损失
    • backward计算梯度
    • update更新参数

准备数据集

[ y p r e d ( 1 ) y p r e d ( 2 ) y p r e d ( 3 ) ] = ω [ x ( 1 ) x ( 2 ) x ( 3 ) ] + b \begin {bmatrix}y_{pred}^{(1)} \\ y_{pred}^{(2)} \\ y_{pred}^{(3)} \end{bmatrix} =\omega \begin {bmatrix}x^{(1)} \\ x^{(2)} \\ x^{(3)} \end{bmatrix} + b ypred(1)ypred(2)ypred(3) =ω x(1)x(2)x(3) +b

python 复制代码
import torch
## 注意x和y的值必须是矩阵
x_data = torch.tensor([[1.0], [2.0], [3.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0]])

设计模型

在Pytorch里,重点是构造计算图

在这里使用的是仿射模型,即线性单元
z = w x + b z = wx + b z=wx+b

需要确定的是 w w w 和 b b b 的维度大小,即要通过输入和输出的维度来确定权重的维度

必须注意的是 l o s s loss loss一定要是一个标量

一般而言,会把模型设计成类

python 复制代码
class LinearModel(torch.nn.Module):  #继承自Module
    def __init__(self):  #构造函数
        super(LinearModel, self).__init__()  # 调用负类的构造
        self.linear = torch.nn.Linear(1, 1)  # 构造Linear对象 包含权重和偏置
    def forward(self, x):
        y_pred = self.linear(x)
        return y_pred

model = LinearModel()  # 实例化LinearModel()对象

torch.nn.Linear(in_features, out_features, bias=True)参数:

  • in_features 输入的每一个样本的维度
  • out_features 输出的每一个样本的维度
  • bias 是否需要添加偏置,默认为True

forward()方法中y_pred = self.linear(x)调用的是了python中的__call__函数。在Pytorch的Module.__call__()中有一个重要的语句就是forward(),也就是说,在这里我们必须写forward()来去覆盖

定义损失函数和优化器

损失函数

损失函数使用MSE

python 复制代码
criterion = torch.nn.MSELoss(size_average=False)

参数设置:

  • size_average,是否对损失求平均,默认为True
  • reduce,用来确定是否要把损失求和降维(特征降维)

一般而言,只考虑size_average

优化器

使用梯度下降

python 复制代码
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

参数设置:

  • params,传入模型需要优化的权重
  • lr,学习率

模型训练

训练100次,主要是三个步骤

  • 前馈计算
  • 反向传播
  • 梯度更新

注意不要忘记梯度清零

python 复制代码
for epoch in range(100):
    y_pred = model(x_data)  # 前馈计算
    loss = criterion(y_pred, y_data)  # 计算损失
    print(epoch, loss)

    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # 反向传播
    optimizer.step()  # 参数更新

## 损失数据可视化
plt.plot(np.arange(100), loss_history)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()
## 打印训练后的参数
print("w = ", model.linear.weight.item())
print("b = ", model.linear.bias.item())

模型测试

python 复制代码
x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print("y_pred = ", y_test.item())

测试结果如下

整体代码

python 复制代码
import torch
import matplotlib.pyplot as plt
import numpy as np

## 注意x和y的值必须是矩阵
x_data = torch.tensor([[1.0], [2.0], [3.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0]])
loss_history = []

########## 模型的定义 ##########
class LinearModel(torch.nn.Module):  #继承自Module
    def __init__(self):  #构造函数
        super(LinearModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)
    def forward(self, x):
        y_pred = self.linear(x)
        return y_pred

model = LinearModel()  # 实例化Linear()对象

########## 定义损失函数和优化器 ##########
## 损失函数
criterion = torch.nn.MSELoss(size_average=False)
## 优化器
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

########## 模型训练 ##########
for epoch in range(100):
    y_pred = model(x_data)  # 前馈计算
    loss = criterion(y_pred, y_data)  # 计算损失
    print(epoch, loss)
    loss_history.append(loss.item())

    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # 反向传播
    optimizer.step()  # 参数更新

## 损失数据可视化
plt.plot(np.arange(100), loss_history)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()
## 打印训练后的参数
print("w = ", model.linear.weight.item())
print("b = ", model.linear.bias.item())

########## 模型测试 ##########
x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print("y_pred = ", y_test.item())
相关推荐
夏莉莉iy1 小时前
[MDM 2024]Spatial-Temporal Large Language Model for Traffic Prediction
人工智能·笔记·深度学习·机器学习·语言模型·自然语言处理·transformer
pchmi2 小时前
CNN常用卷积核
深度学习·神经网络·机器学习·cnn·c#
deflag2 小时前
第P10周-Pytorch实现车牌号识别
人工智能·pytorch·yolo
pzx_0013 小时前
【机器学习】K折交叉验证(K-Fold Cross-Validation)
人工智能·深度学习·算法·机器学习
造夢先森4 小时前
Transformer & LLaMA
深度学习·transformer·llama
神经美学_茂森4 小时前
神经网络防“失忆“秘籍:弹性权重固化如何让AI学会“温故知新“
人工智能·深度学习·神经网络
阿_旭5 小时前
【超详细】神经网络的可视化解释
人工智能·深度学习·神经网络
武乐乐~5 小时前
QARepVGG--含demo实现
深度学习
OpenCSG5 小时前
免部署|DeepSeek模型上线 CSGHub Serverless API|即刻免费试用
人工智能·深度学习·社区
JolyouLu6 小时前
PyTorch-基础(CUDA、Dataset、transforms、卷积神经网络、VGG16)
人工智能·pytorch·cnn