自定义数据集使用框架的线性回归方法对其进行拟合

代码:

复制代码
# 导入必要的库
import torch
import numpy as np
import matplotlib.pyplot as plt

# 定义数据集:二维数据,其中第一列是特征 x,第二列是目标值 y
data = [[-0.5, 7.7],
        [1.8, 98.5],
        [0.9, 57.8],
        [0.4, 39.2],
        [-1.4, -15.7],
        [-1.4, -37.3],
        [-1.8, -49.1],
        [1.5, 75.6],
        [0.4, 34.0],
        [0.8, 62.3]]

# 将数据转换为 NumPy 数组
data = np.array(data)

# 提取特征(x_data)和目标值(y_data)
x_data = data[:, 0]  # 提取第一列作为特征
y_data = data[:, 1]  # 提取第二列作为目标

# 将 NumPy 数组转换为 PyTorch 张量(tensor),数据类型为浮点型
x_train = torch.tensor(x_data, dtype=torch.float32)  # 输入特征
y_train = torch.tensor(y_data, dtype=torch.float32)  # 目标值

# 导入损失函数模块,使用均方误差 (MSELoss)
import torch.nn as nn

criterion = nn.MSELoss()  # 均方误差损失


# 定义线性回归模型类(继承自 nn.Module)
class LinearModel(nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()
        # 定义一个线性层(一个输入节点,一个输出节点)
        self.layers = nn.Linear(1, 1)  # 输入特征数为1,输出为1

    # 前向传播方法:输入 x 返回经过线性层的输出
    def forward(self, x):
        x = self.layers(x)  # 线性层处理输入
        return x  # 返回结果


# 创建模型实例
model = LinearModel()

# 定义优化器:随机梯度下降(SGD),学习率为 0.01
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

# 训练模型的 epoch 数量,设定为 500 次
epochs = 500

# 开始训练
for n in range(1, epochs + 1):
    # 预测:将 x_train 输入到模型中进行预测
    y_pred = model(x_train.unsqueeze(1))  # unsqueeze(1) 是将 x_train 从 [batch_size] 转换为 [batch_size, 1],以符合模型输入要求

    # 计算损失:损失是预测值和实际值之间的均方误差
    loss = criterion(y_pred.squeeze(1), y_train)  # squeeze(1) 是将 y_pred 从 [batch_size, 1] 转换为 [batch_size]

    # 优化器梯度清零
    optimizer.zero_grad()

    # 反向传播计算梯度
    loss.backward()

    # 使用优化器更新模型参数
    optimizer.step()

    # 每 10 个 epoch 或第 1 个 epoch 打印一次损失,并实时显示训练过程
    if n % 10 == 0 or n == 1:
        # 清除之前的图像
        plt.clf()

        # 绘制原始数据点,使用蓝色表示
        plt.scatter(x_data, y_data, color='blue')

        # 绘制当前预测的回归线,使用红色表示
        plt.plot(x_data, y_pred.detach().numpy(), color='red')  # detach() 是为了防止从计算图中分离,避免梯度计算

        # 设置图表的 x 和 y 轴标签
        plt.xlabel('X')
        plt.ylabel('Y')

        # 设置图表的标题,显示当前 epoch 数
        plt.title(f'Epoch {n}')

        # 暂停 0.1 秒,实时更新图表
        plt.pause(0.1)

# 训练完成后,显示最终的图表
plt.show()

结果:

相关推荐
承渊政道几秒前
【动态规划算法】(似包非包以及卡特兰数问题深入解析)
数据结构·c++·学习·算法·leetcode·动态规划·哈希算法
fangzt20109 分钟前
从零搭建自动驾驶中间件(四):数据录制与回灌——算法调试的核心基础设施
算法·中间件·自动驾驶
搬砖的小码农_Sky17 分钟前
比特币区块链:SHA256哈希函数
算法·区块链·哈希算法
承渊政道26 分钟前
【动态规划算法】(一文讲透二维费用的背包问题)
数据结构·c++·学习·算法·leetcode·动态规划·哈希算法
Zevalin爱灰灰7 小时前
现代密码学 第二章——流密码【下】
算法·密码学
飞Link9 小时前
大模型长文本的“救命稻草”:深度解析 TurboQuant 与 KV Cache 压缩技术
算法
郝学胜-神的一滴9 小时前
深度学习优化核心:梯度下降与网络训练全解析
数据结构·人工智能·python·深度学习·算法·机器学习
Je1lyfish10 小时前
CMU15-445 (2025 Fall/2026 Spring) Project#3 - QueryExecution
linux·c语言·开发语言·数据结构·数据库·c++·算法
许彰午10 小时前
03-二叉树——从递归遍历到非递归实现
java·算法
Brilliantwxx10 小时前
【C++】 vector(代码实现+坑点讲解)
开发语言·c++·笔记·算法