操作pytorch进行深度学习的步骤和解释——以简单线性回归为例

python 复制代码
import torch

x_data = torch.Tensor([[1],[2],[3]])

y_data = torch.Tensor([[2],[4],[6]])

class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel,self).__init__()
        self.linear = torch.nn.Linear(1,1)
    def forward(self,x):
        y_pred = self.linear(x)
        return y_pred
model = LinearModel()
criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)
losses = []
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred,y_data)
    print(epoch,loss)
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
    losses.append(loss.item())


print('w=',model.linear.weight.item())
print('b=',model.linear.bias.item())

x_test = torch.Tensor([[4]])
y_test = model(x_test)
print('y_pred=',y_test.data)

导入PyTorch库,这是使用PyTorch进行深度学习所必需的。

python 复制代码
x_data = torch.Tensor([[1],[2],[3]])

创建一个包含三个样本的二维张量**x_data**,每个样本是一个一维张量,代表模型的输入特征。

python 复制代码
y_data = torch.Tensor([[2],[4],[6]])

创建一个包含三个样本的二维张量**y_data**,每个样本是一个一维张量,代表模型的输出目标值。

python 复制代码
class LinearModel(torch.nn.Module):

定义一个名为**LinearModel** 的类,它继承自torch.nn.Module,是构建任何神经网络模型的基础。

python 复制代码
def __init__(self):
    super(LinearModel,self).__init__() 
    self.linear = torch.nn.Linear(1,1)

在**LinearModel** 类的构造函数中,首先调用父类的构造函数。然后创建一个线性层**self.linear,** 它是一个一元线性模型,输入和输出特征的数量都是1输入的特征维度是1,输出特征维度也是1,这样就可让模型知道W和b的维度是多少。

python 复制代码
def forward(self,x): 
    y_pred = self.linear(x) 
    return y_pred

定义模型的前向传播函数。它接受输入x,通过线性层self.linear进行计算,得到预测输出y_pred,然后返回这个预测值。这个函数是必须存在的

python 复制代码
model = LinearModel()

实例化**LinearModel类**,创建模型对象。

python 复制代码
criterion = torch.nn.MSELoss(size_average=False)

创建一个均方误差损失函数**criterionsize_average=False**参数(即将被弃用)指定损失函数在计算时应累加所有样本的损失。size_average=False代表着损失,不用求均值。

python 复制代码
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)

创建一个随机梯度下降**(SGD** )优化器**optimizer**,用于更新模型的参数。学习率设置为0.01。

python 复制代码
losses = []

初始化一个空列表**losses**,用于存储训练过程中的每一轮损失值。

python 复制代码
for epoch in range(1000):

开始一个训练循环,总共训练1000个epoch(轮次)。

python 复制代码
y_pred = model(x_data)

在每个epoch中,计算模型对输入数据x_data的预测输出y_pred

python 复制代码
loss = criterion(y_pred,y_data)

计算预测输出y_pred和目标值y_data之间的损失。

python 复制代码
print(epoch,loss)

打印当前epoch和对应的损失值。

python 复制代码
optimizer.zero_grad()

在每次参数更新前,清空过往梯度。

python 复制代码
loss.backward()

对损失函数进行反向传播,计算模型参数的梯度。

python 复制代码
optimizer.step()

根据计算得到的梯度,使用优化器更新模型的参数。

python 复制代码
losses.append(loss.item())

将当前epoch的损失值添加到losses列表中。

python 复制代码
print('w=',model.linear.weight.item())

打印模型中线性层的权重w

python 复制代码
print('b=',model.linear.bias.item())

打印模型中线性层的偏置b

python 复制代码
x_test = torch.Tensor([[4]])

创建一个新的输入张量x_test,用于测试模型。

python 复制代码
y_test = model(x_test)

使用训练好的模型对x_test进行预测,得到y_test

python 复制代码
print('y_pred=',y_test.data)

打印测试数据的预测输出y_pred

这个代码实现了一个简单的线性回归模型,并通过梯度下降方法训练模型参数。最后,它还打印了训练后的权重、偏置以及对新数据的预测结果。

相关推荐
胡耀超14 小时前
DataOceanAI Dolphin(ffmpeg音频转化教程) 多语言(中国方言)语音识别系统部署与应用指南
python·深度学习·ffmpeg·音视频·语音识别·多模态·asr
HUIMU_14 小时前
DAY12&DAY13-新世纪DL(Deeplearning/深度学习)战士:破(改善神经网络)1
人工智能·深度学习
mit6.82415 小时前
[1Prompt1Story] 注意力机制增强 IPCA | 去噪神经网络 UNet | U型架构分步去噪
人工智能·深度学习·神经网络
Coovally AI模型快速验证15 小时前
YOLO、DarkNet和深度学习如何让自动驾驶看得清?
深度学习·算法·yolo·cnn·自动驾驶·transformer·无人机
科大饭桶16 小时前
昇腾AI自学Day2-- 深度学习基础工具与数学
人工智能·pytorch·python·深度学习·numpy
努力还债的学术吗喽17 小时前
2021 IEEE【论文精读】用GAN让音频隐写术骗过AI检测器 - 对抗深度学习的音频信息隐藏
人工智能·深度学习·生成对抗网络·密码学·音频·gan·隐写
weixin_5079299118 小时前
第G7周:Semi-Supervised GAN 理论与实战
人工智能·pytorch·深度学习
AI波克布林20 小时前
发文暴论!线性注意力is all you need!
人工智能·深度学习·神经网络·机器学习·注意力机制·线性注意力
weixin_4569042720 小时前
一文讲清楚Pytorch 张量、链式求导、正向传播、反向求导、计算图等基础知识
人工智能·pytorch·学习
Blossom.11820 小时前
把 AI 推理塞进「 8 位 MCU 」——0.5 KB RAM 跑通关键词唤醒的魔幻之旅
人工智能·笔记·单片机·嵌入式硬件·深度学习·机器学习·搜索引擎