Pytorch-05 简单模型与训练

当组合一个简单的模型并进行训练时,通常需要定义一个包含多个层的神经网络模型,并指定损失函数和优化器。以下是一个示例代码,演示了如何使用torch.nn组合一个简单的模型并进行训练:

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim

# 定义一个简单的神经网络模型
class SimpleModel(nn.Module):
    def __init__(self):
        super(SimpleModel, self).__init__()
        self.fc1 = nn.Linear(10, 5)
        self.relu = nn.ReLU()
        self.fc2 = nn.Linear(5, 1)

    def forward(self, x):
        x = self.fc1(x)
        x = self.relu(x)
        x = self.fc2(x)
        return x

# 创建模型实例
model = SimpleModel()

# 定义损失函数
criterion = nn.MSELoss()

# 创建Adam优化器
optimizer = optim.Adam(model.parameters(), lr=0.01)

# 准备训练数据
input_data = torch.randn(100, 10)  # 100个样本,每个样本有10个特征
target_data = torch.randn(100, 1)  # 每个样本的目标值

# 训练模型
for epoch in range(100):
    optimizer.zero_grad()
    output = model(input_data)
    loss = criterion(output, target_data)
    # 核心计算过程,后续展开说明
    loss.backward()
    optimizer.step()
    # 打印损失值信息
    if epoch % 10 == 0:
        print(f'Epoch {epoch}, Loss: {loss.item()}')

在这个示例中,我们定义了一个简单的神经网络模型SimpleModel,包含两个线性层和一个ReLU激活函数。然后我们定义了损失函数为均方误差损失(MSELoss),使用Adam优化器进行参数优化。接下来,我们准备了训练数据,并进行了模型训练。在每个训练周期中,我们计算损失并进行反向传播优化模型参数。最后,我们打印出每10个周期的损失值。

另外,核心计算过程我们需要展开说明:loss.backward()optimizer.step()这两句代码里面包含了哪些过程与计算细节?

  1. loss.backward(): 这一步是计算损失函数关于模型参数的梯度。具体来说,PyTorch会根据反向传播算法自动计算出损失函数对模型参数的梯度,通过链式法则将梯度从损失函数传播回每个参数。这一步是反向传播算法的核心,用于计算梯度以便后续的参数更新。

  2. optimizer.step(): 这一步是利用优化器来更新模型的参数。在这一步中,优化器会根据计算得到的梯度来更新模型的参数值,以减小损失函数的值。具体来说,优化器会根据梯度和学习率等参数来更新模型的权重,使得模型能够更好地拟合训练数据,提高训练效果。

综合起来,这两句代码实现了神经网络训练的核心步骤:计算损失函数关于参数的梯度并利用优化器来更新模型参数,从而逐步优化模型以最小化损失函数。这个过程在训练过程中反复进行,直到模型收敛或达到设定的训练轮数。

相关推荐
健忘的派大星1 小时前
需求激增800%!2025年第一硬通货:懂大模型、云计算和硬件的“前沿部署工程师”!
人工智能·算法·架构·langchain·云计算·大模型学习·大模型教程
Amanda_yan1 小时前
云计算和边缘计算到底有什么不同?一文讲清楚
人工智能·云计算·边缘计算
拓端研究室2 小时前
2026年人工智能AI未来报告:智能体、元宇宙、教育、商业化落地|附400+份报告PDF、数据、可视化模板汇总下载
人工智能·百度
橙露7 小时前
数据特征工程:缺失值、异常值、标准化一站式解决方案
人工智能·机器学习
新加坡内哥谈技术8 小时前
OpenAI 的 Codex 团队如何工作并利用 AI
人工智能
星河耀银海8 小时前
人工智能大模型的安全与隐私保护:技术防御与合规实践
人工智能·安全·ai·隐私
love530love8 小时前
Scoop 完整迁移指南:从 C 盘到 D 盘的无缝切换
java·服务器·前端·人工智能·windows·scoop
njsgcs8 小时前
agentscope提取msg+llama_index 查询
人工智能
小和尚同志8 小时前
什么?oh-my-opencode 太重了?那试试 oh-my-opencode-slim
人工智能·aigc
一路往蓝-Anbo9 小时前
第 9 章:Linux 设备树 (DTS) ——屏蔽与独占外设
linux·运维·服务器·人工智能·stm32·嵌入式硬件