Pytorch-05 简单模型与训练

当组合一个简单的模型并进行训练时,通常需要定义一个包含多个层的神经网络模型,并指定损失函数和优化器。以下是一个示例代码,演示了如何使用torch.nn组合一个简单的模型并进行训练:

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim

# 定义一个简单的神经网络模型
class SimpleModel(nn.Module):
    def __init__(self):
        super(SimpleModel, self).__init__()
        self.fc1 = nn.Linear(10, 5)
        self.relu = nn.ReLU()
        self.fc2 = nn.Linear(5, 1)

    def forward(self, x):
        x = self.fc1(x)
        x = self.relu(x)
        x = self.fc2(x)
        return x

# 创建模型实例
model = SimpleModel()

# 定义损失函数
criterion = nn.MSELoss()

# 创建Adam优化器
optimizer = optim.Adam(model.parameters(), lr=0.01)

# 准备训练数据
input_data = torch.randn(100, 10)  # 100个样本,每个样本有10个特征
target_data = torch.randn(100, 1)  # 每个样本的目标值

# 训练模型
for epoch in range(100):
    optimizer.zero_grad()
    output = model(input_data)
    loss = criterion(output, target_data)
    # 核心计算过程,后续展开说明
    loss.backward()
    optimizer.step()
    # 打印损失值信息
    if epoch % 10 == 0:
        print(f'Epoch {epoch}, Loss: {loss.item()}')

在这个示例中,我们定义了一个简单的神经网络模型SimpleModel,包含两个线性层和一个ReLU激活函数。然后我们定义了损失函数为均方误差损失(MSELoss),使用Adam优化器进行参数优化。接下来,我们准备了训练数据,并进行了模型训练。在每个训练周期中,我们计算损失并进行反向传播优化模型参数。最后,我们打印出每10个周期的损失值。

另外,核心计算过程我们需要展开说明:loss.backward()optimizer.step()这两句代码里面包含了哪些过程与计算细节?

  1. loss.backward(): 这一步是计算损失函数关于模型参数的梯度。具体来说,PyTorch会根据反向传播算法自动计算出损失函数对模型参数的梯度,通过链式法则将梯度从损失函数传播回每个参数。这一步是反向传播算法的核心,用于计算梯度以便后续的参数更新。

  2. optimizer.step(): 这一步是利用优化器来更新模型的参数。在这一步中,优化器会根据计算得到的梯度来更新模型的参数值,以减小损失函数的值。具体来说,优化器会根据梯度和学习率等参数来更新模型的权重,使得模型能够更好地拟合训练数据,提高训练效果。

综合起来,这两句代码实现了神经网络训练的核心步骤:计算损失函数关于参数的梯度并利用优化器来更新模型参数,从而逐步优化模型以最小化损失函数。这个过程在训练过程中反复进行,直到模型收敛或达到设定的训练轮数。

相关推荐
许泽宇的技术分享7 分钟前
当 AI 工作流需要“人类智慧“:深度解析 Microsoft Agent Framework 的人工接入机制
人工智能·microsoft
ifeng091825 分钟前
HarmonyOS资源加载进阶:惰性加载、预加载与缓存机制
深度学习·缓存·harmonyos
antonytyler32 分钟前
机器学习实践项目(二)- 房价预测增强篇 - 特征工程四
人工智能·python·机器学习
飞哥数智坊1 小时前
TRAE SOLO 正式版上线,限时免费活动开启
人工智能·trae·solo
Danceful_YJ1 小时前
34.来自Transformers的双向编码器表示(BERT)
人工智能·深度学习·bert
love530love1 小时前
【笔记】xFormers版本与PyTorch、CUDA对应关系及正确安装方法详解
人工智能·pytorch·windows·笔记·python·深度学习·xformers
中科岩创1 小时前
某地公园桥梁自动化监测服务项目
大数据·人工智能·物联网·自动化
kev_gogo1 小时前
【链式法则】神经网络中求导时w既是常数也是自变量的辨析(能否对常数求导?)
人工智能·深度学习·神经网络
文真同学2 小时前
《动手学深度学习》6.3~6.4
人工智能·深度学习
受之以蒙2 小时前
赋能 AI 与具身智能:Rust ndarray 构建安全高效的数据底座
人工智能·笔记·rust