操作pytorch进行深度学习的步骤和解释——以简单线性回归为例

python 复制代码
import torch

x_data = torch.Tensor([[1],[2],[3]])

y_data = torch.Tensor([[2],[4],[6]])

class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel,self).__init__()
        self.linear = torch.nn.Linear(1,1)
    def forward(self,x):
        y_pred = self.linear(x)
        return y_pred
model = LinearModel()
criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)
losses = []
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred,y_data)
    print(epoch,loss)
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
    losses.append(loss.item())


print('w=',model.linear.weight.item())
print('b=',model.linear.bias.item())

x_test = torch.Tensor([[4]])
y_test = model(x_test)
print('y_pred=',y_test.data)

导入PyTorch库,这是使用PyTorch进行深度学习所必需的。

python 复制代码
x_data = torch.Tensor([[1],[2],[3]])

创建一个包含三个样本的二维张量**x_data**,每个样本是一个一维张量,代表模型的输入特征。

python 复制代码
y_data = torch.Tensor([[2],[4],[6]])

创建一个包含三个样本的二维张量**y_data**,每个样本是一个一维张量,代表模型的输出目标值。

python 复制代码
class LinearModel(torch.nn.Module):

定义一个名为**LinearModel** 的类,它继承自torch.nn.Module,是构建任何神经网络模型的基础。

python 复制代码
def __init__(self):
    super(LinearModel,self).__init__() 
    self.linear = torch.nn.Linear(1,1)

在**LinearModel** 类的构造函数中,首先调用父类的构造函数。然后创建一个线性层**self.linear,** 它是一个一元线性模型,输入和输出特征的数量都是1输入的特征维度是1,输出特征维度也是1,这样就可让模型知道W和b的维度是多少。

python 复制代码
def forward(self,x): 
    y_pred = self.linear(x) 
    return y_pred

定义模型的前向传播函数。它接受输入x,通过线性层self.linear进行计算,得到预测输出y_pred,然后返回这个预测值。这个函数是必须存在的

python 复制代码
model = LinearModel()

实例化**LinearModel类**,创建模型对象。

python 复制代码
criterion = torch.nn.MSELoss(size_average=False)

创建一个均方误差损失函数**criterionsize_average=False**参数(即将被弃用)指定损失函数在计算时应累加所有样本的损失。size_average=False代表着损失,不用求均值。

python 复制代码
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)

创建一个随机梯度下降**(SGD** )优化器**optimizer**,用于更新模型的参数。学习率设置为0.01。

python 复制代码
losses = []

初始化一个空列表**losses**,用于存储训练过程中的每一轮损失值。

python 复制代码
for epoch in range(1000):

开始一个训练循环,总共训练1000个epoch(轮次)。

python 复制代码
y_pred = model(x_data)

在每个epoch中,计算模型对输入数据x_data的预测输出y_pred

python 复制代码
loss = criterion(y_pred,y_data)

计算预测输出y_pred和目标值y_data之间的损失。

python 复制代码
print(epoch,loss)

打印当前epoch和对应的损失值。

python 复制代码
optimizer.zero_grad()

在每次参数更新前,清空过往梯度。

python 复制代码
loss.backward()

对损失函数进行反向传播,计算模型参数的梯度。

python 复制代码
optimizer.step()

根据计算得到的梯度,使用优化器更新模型的参数。

python 复制代码
losses.append(loss.item())

将当前epoch的损失值添加到losses列表中。

python 复制代码
print('w=',model.linear.weight.item())

打印模型中线性层的权重w

python 复制代码
print('b=',model.linear.bias.item())

打印模型中线性层的偏置b

python 复制代码
x_test = torch.Tensor([[4]])

创建一个新的输入张量x_test,用于测试模型。

python 复制代码
y_test = model(x_test)

使用训练好的模型对x_test进行预测,得到y_test

python 复制代码
print('y_pred=',y_test.data)

打印测试数据的预测输出y_pred

这个代码实现了一个简单的线性回归模型,并通过梯度下降方法训练模型参数。最后,它还打印了训练后的权重、偏置以及对新数据的预测结果。

相关推荐
AI风老师10 分钟前
深度学习入门:打好数学与机器学习基础,迈向AI进阶之路
人工智能·深度学习·机器学习
摘星星的屋顶1 小时前
论文阅读记录之《VelocityGPT 》
论文阅读·人工智能·深度学习·学习
格林威2 小时前
工业相机如何通过光度立体成像技术实现高效精准的2.5D缺陷检测
人工智能·深度学习·数码相机·yolo·计算机视觉
虚拟现实旅人2 小时前
【机器学习】通过tensorflow实现猫狗识别的深度学习进阶之路
深度学习·机器学习·tensorflow
胡耀超2 小时前
5、Python-NumPy科学计算基础
开发语言·人工智能·python·深度学习·numpy
盼小辉丶2 小时前
生成模型与概率分布基础
深度学习·生成模型
colus_SEU3 小时前
【卷积神经网络详解与实例】4——感受野
人工智能·深度学习·计算机视觉·cnn
luoganttcc5 小时前
PyTorch 中nn.Embedding
pytorch·深度学习·embedding
九章云极AladdinEdu5 小时前
绿色算力技术栈:AI集群功耗建模与动态调频系统
人工智能·pytorch·深度学习·unity·游戏引擎·transformer·gpu算力
盼小辉丶5 小时前
Transformer实战(17)——微调Transformer语言模型进行多标签文本分类
深度学习·分类·transformer