操作pytorch进行深度学习的步骤和解释——以简单线性回归为例

python 复制代码
import torch

x_data = torch.Tensor([[1],[2],[3]])

y_data = torch.Tensor([[2],[4],[6]])

class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel,self).__init__()
        self.linear = torch.nn.Linear(1,1)
    def forward(self,x):
        y_pred = self.linear(x)
        return y_pred
model = LinearModel()
criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)
losses = []
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred,y_data)
    print(epoch,loss)
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
    losses.append(loss.item())


print('w=',model.linear.weight.item())
print('b=',model.linear.bias.item())

x_test = torch.Tensor([[4]])
y_test = model(x_test)
print('y_pred=',y_test.data)

导入PyTorch库,这是使用PyTorch进行深度学习所必需的。

python 复制代码
x_data = torch.Tensor([[1],[2],[3]])

创建一个包含三个样本的二维张量**x_data**,每个样本是一个一维张量,代表模型的输入特征。

python 复制代码
y_data = torch.Tensor([[2],[4],[6]])

创建一个包含三个样本的二维张量**y_data**,每个样本是一个一维张量,代表模型的输出目标值。

python 复制代码
class LinearModel(torch.nn.Module):

定义一个名为**LinearModel** 的类,它继承自torch.nn.Module,是构建任何神经网络模型的基础。

python 复制代码
def __init__(self):
    super(LinearModel,self).__init__() 
    self.linear = torch.nn.Linear(1,1)

在**LinearModel** 类的构造函数中,首先调用父类的构造函数。然后创建一个线性层**self.linear,** 它是一个一元线性模型,输入和输出特征的数量都是1输入的特征维度是1,输出特征维度也是1,这样就可让模型知道W和b的维度是多少。

python 复制代码
def forward(self,x): 
    y_pred = self.linear(x) 
    return y_pred

定义模型的前向传播函数。它接受输入x,通过线性层self.linear进行计算,得到预测输出y_pred,然后返回这个预测值。这个函数是必须存在的

python 复制代码
model = LinearModel()

实例化**LinearModel类**,创建模型对象。

python 复制代码
criterion = torch.nn.MSELoss(size_average=False)

创建一个均方误差损失函数**criterionsize_average=False**参数(即将被弃用)指定损失函数在计算时应累加所有样本的损失。size_average=False代表着损失,不用求均值。

python 复制代码
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)

创建一个随机梯度下降**(SGD** )优化器**optimizer**,用于更新模型的参数。学习率设置为0.01。

python 复制代码
losses = []

初始化一个空列表**losses**,用于存储训练过程中的每一轮损失值。

python 复制代码
for epoch in range(1000):

开始一个训练循环,总共训练1000个epoch(轮次)。

python 复制代码
y_pred = model(x_data)

在每个epoch中,计算模型对输入数据x_data的预测输出y_pred

python 复制代码
loss = criterion(y_pred,y_data)

计算预测输出y_pred和目标值y_data之间的损失。

python 复制代码
print(epoch,loss)

打印当前epoch和对应的损失值。

python 复制代码
optimizer.zero_grad()

在每次参数更新前,清空过往梯度。

python 复制代码
loss.backward()

对损失函数进行反向传播,计算模型参数的梯度。

python 复制代码
optimizer.step()

根据计算得到的梯度,使用优化器更新模型的参数。

python 复制代码
losses.append(loss.item())

将当前epoch的损失值添加到losses列表中。

python 复制代码
print('w=',model.linear.weight.item())

打印模型中线性层的权重w

python 复制代码
print('b=',model.linear.bias.item())

打印模型中线性层的偏置b

python 复制代码
x_test = torch.Tensor([[4]])

创建一个新的输入张量x_test,用于测试模型。

python 复制代码
y_test = model(x_test)

使用训练好的模型对x_test进行预测,得到y_test

python 复制代码
print('y_pred=',y_test.data)

打印测试数据的预测输出y_pred

这个代码实现了一个简单的线性回归模型,并通过梯度下降方法训练模型参数。最后,它还打印了训练后的权重、偏置以及对新数据的预测结果。

相关推荐
B站_计算机毕业设计之家11 分钟前
大数据YOLOv8无人机目标检测跟踪识别系统 深度学习 PySide界面设计 大数据 ✅
大数据·python·深度学习·信息可视化·数据挖掘·数据分析·flask
程序员霸哥哥2 小时前
从零搭建PyTorch计算机视觉模型
人工智能·pytorch·python·计算机视觉
胖哥真不错3 小时前
Python基于PyTorch实现多输入多输出进行CNN卷积神经网络回归预测项目实战
pytorch·python·毕业设计·课程设计·毕设·多输入多输出·cnn卷积神经网络回归预测
程序员-小李3 小时前
基于PyTorch的动物识别模型训练与应用实战
人工智能·pytorch·python
武子康8 小时前
AI研究-119 DeepSeek-OCR PyTorch FlashAttn 2.7.3 推理与部署 模型规模与资源详细分析
人工智能·深度学习·机器学习·ai·ocr·deepseek·deepseek-ocr
忙碌5449 小时前
AI大模型时代下的全栈技术架构:从深度学习到云原生部署实战
人工智能·深度学习·架构
听风吹等浪起11 小时前
基于改进TransUNet的港口船只图像分割系统研究
人工智能·深度学习·cnn·transformer
化作星辰11 小时前
深度学习_原理和进阶_PyTorch入门(2)后续语法3
人工智能·pytorch·深度学习
哥布林学者13 小时前
吴恩达深度学习课程二: 改善深层神经网络 第二周:优化算法(二)指数加权平均和学习率衰减
深度学习·ai
点云SLAM13 小时前
弱纹理图像特征匹配算法推荐汇总
人工智能·深度学习·算法·计算机视觉·机器人·slam·弱纹理图像特征匹配