pytorch线性/非线性回归拟合

一、线性回归

1. 导入依赖库

python 复制代码
import numpy as np
import matplotlib.pyplot as plt
import torch
from torch import nn, optim
from torch.autograd import Variable
  • numpy:用来构建数据
  • matplotlib.pyplot: 将构建好的数据可视化
  • torch.nn:包含了torch已经准备好的层,激活函数、全连接层等
  • torch.optim:提供了神经网络的一系列优化算法,如 SGD、Adam 等
  • torch.autograd:用来自动求导,计算梯度。其中Variable用来包装张量,使得张量能够支持自动求导,但在 PyTorch 0.4 及以后,已经被 Tensor 对象取代。

2. 构建数据

首先确定一个线性函数,例如y_data = 0.1 * x_data + 0.2。然后在这条直线上加一些噪点,最后看神经网络是否能抵抗这些干扰点,拟合出正确的线性函数。

只要做神经网络相关的数据处理,就一定要把数据转为张量(tensor)类型。然后想要实现梯度下降算法,就要把张量类型再转为Variable类型。

python 复制代码
x_data = np.random.rand(100)
noise = np.random.normal(0, 0.01, x_data.shape)  # 构建正态分布噪点
y_data = x_data * 0.1 + 0.2 + noise

x_data = x_data.reshape(-1, 1)  # 把原始数据更改形状,自动匹配任意行,1列
y_data = y_data.reshape(-1, 1)

x_data = torch.FloatTensor(x_data)  # 把numpy类型转为tensor类型
y_data = torch.FloatTensor(y_data)
inputs = Variable(x_data)  # 变成variable类型才可以自动求导操作
target = Variable(y_data)

3. 构建神经网络模型

构建神经网络模型通常遵循一个相对固定的模板。这种模板不仅让代码结构清晰,还能利用 PyTorch 提供的模块化设计,使得网络的定义、训练、推理更加简洁。

这里我们定义一个一对一的全连接层即可。使用MSE代价函数,SGD优化算法。

python 复制代码
class LinearRegression(nn.Module):
    # 定义网络结构
    def __init__(self):
        super(LinearRegression, self).__init__()  # 固定写法,初始化父类
        self.fc = nn.Linear(1, 1)  # 定义一个全连接层,且一对一

    # 定义网络计算(前向传播)
    def forward(self, x):
        out = self.fc(x)  # 将输入传递给全连接层
        return out


model = LinearRegression()  # 定义模型
mse_loss = nn.MSELoss()  # 使用均方差代价函数
optimizer = optim.SGD(model.parameters(), lr=0.1)  # 使用随机梯度下降法优化模型

4. 模型训练

在模型训练上,几乎也是一个固定套路。之前写的,inputs和target即x_data和y_data的Variable类型。那么当模型(model)获得输入值(inputs),通过前向传播(forward)就会获得一个输出值(out)。然后通过MSE代价函数就能计算出损失(loss),最后经过计算梯度,优化权值,就完成了一轮训练。共训练1000次,期间可以每隔200次看一下损失值。通过输出结果可以看到loss值在一直变小,训练还不错!

python 复制代码
for i in range(1001):
    out = model(inputs)
    loss = mse_loss(out, target)  # 计算损失
    optimizer.zero_grad()  # 梯度清0
    loss.backward()  # 计算梯度
    optimizer.step()  # 优化权值
    if i % 200 == 0:
        print('第{}次,loss值为:{}'.format(i, loss.item()))

如果我们查看看最后拟合后的权重值(weight)和偏置值(bias),可以发现和我们之前设计好的的 y_data = 0.1 * x_data + 0.2 几乎非常吻合。

python 复制代码
for name, param in model.named_parameters():
    print('name:{}\nparam:{}\n'.format(name, param))

5. 绘图查看结果

首先利用scatter画出散点图,然后用plot绘出神经网络的拟合结果。

python 复制代码
y_pred = model(inputs)
plt.scatter(x_data, y_data)
plt.plot(x_data, y_pred.data.numpy(), color='red')
plt.show()

二、非线性回归

构建非线性回归时,思路和线性回归几乎一致,只需要把数据改为非线性数据,然后神经网络模型增加一个隐藏层即可。

1. 构建非线性数据

首先事先设计一个非线性函数:y_data = x_data²,然后再加入一些噪点干扰神经网络。

python 复制代码
x_data = np.linspace(-2, 2, 200)[:, np.newaxis]  # linspace(起始点,终止点,分割点总数),然后增加维度到(200, 1)
noise = np.random.normal(0, 0.2, x_data.shape)
y_data = np.square(x_data) + noise

2. 修改神经网络模型

一般情况下,只有隐藏层使用激活函数才可用来拟合非线性数据,如sigmoid、relu、tanh等。这里可以先确定10个隐藏神经元看效果如何。

python 复制代码
class NonLinearRegression(nn.Module):
    # 定义网络结构
    def __init__(self):
        super(NonLinearRegression, self).__init__()  # 固定写法,初始化父类
        self.fc1 = nn.Linear(1, 10)  #   定义隐藏层,10个隐藏神经元
        self.tanh = nn.Tanh()  # 激活函数
        self.fc2 = nn.Linear(10, 1)

    # 定义网络计算(前向传播)
    def forward(self, x):
        x = self.fc1(x)
        x = self.tanh(x)
        x = self.fc2(x)
        return x

如果想要较短时间的训练来获取一个相对较好的结果,可以尝试 Adam 自适应矩阵优化算法。虽然 Adam 算法可以自动调整学习率,但是一般默认初始值是0.001,最后训练情况不理想,所以这里设置为0.05的初始值。而且这个算法容易过拟合,需要正则化 weight_decay 来提高模型的泛化性。

注意:这里的代价函数不可以修改为交叉熵(CrossEntropyLoss),因为交叉熵大多用于分类任务。

python 复制代码
model = NonLinearRegression()
mse_loss = nn.MSELoss()  # 均方差代价函数
optimizer = optim.Adam(model.parameters(), lr=0.05, weight_decay=0.001)  # 设置L2正则化,防止过拟合

3. 查看拟合结果

相关推荐
拜刊物苏哲16 分钟前
【机器学习(八)】分类和回归任务-因子分解机(Factorization Machines,FM)-Sentosa_DSML社区版
机器学习·分类·回归
程序员陆通25 分钟前
Meta Llama 3.2发布:小型文本模型与多模态视觉能力,AI的未来已来!
人工智能·llama
吃什么芹菜卷27 分钟前
机器学习:opencv--摄像头OCR
人工智能·笔记·opencv·计算机视觉·ocr
中云时代-防御可测试-小余39 分钟前
国产游戏出海火热另一面:AI和API快速成长引发网络安全挑战
人工智能·tcp/ip·web安全·游戏·网络安全·udp·ddos
AI服务老曹1 小时前
算法种类丰富,分析准确率业内领先的智慧能源开源了
大数据·人工智能·物联网·开源·能源
新兴AI民工1 小时前
OPENCV判断图像中目标物位置及多目标物聚类
图像处理·人工智能·opencv·聚类
TechubNews1 小时前
解读 Story Protocol:IP 与区块链的潜力与障碍
人工智能·tcp/ip·区块链
数造科技1 小时前
数造科技入选中国信通院《高质量数字化转型产品及服务全景图》三大板块
大数据·人工智能·科技·云计算·敏捷开发·网联
陈苏同学1 小时前
《动手学深度学习》笔记2.4——神经网络从基础→进阶 (文件读写-保存参数和模型)
人工智能·pytorch·python·深度学习
源大模型1 小时前
源2.0-M32大模型适配AutoGPTQ工具及量化&推理教程
人工智能·语言模型·开源