01_CNN界的hello world

ai生成代码+自行理解注释

python 复制代码
import torch    #PyTorch核心
import torch.nn as nn   #神经网络模块(层、模型)
import torch.optim as optim #优化器(怎么更新参数)
from torchvision import datasets, transforms    #现成数据集(MNIST就在这里)和 数据预处理。

# 1. 超参数
batch_size = 64 #一次喂64张图片
learning_rate = 0.001 #每次更新参数的步子大小(lr:学太快会炸,太慢学不会)
epochs = 3  #整个数据集训练3遍

# 2. 数据,让数据分布更稳定 → 更容易训练
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])

train_loader = torch.utils.data.DataLoader( #DataLoader 喂数据给模型
    datasets.MNIST('./data', train=True, download=True, transform=transform),   #加载数据
    batch_size=batch_size,  #每次64张
    shuffle=True    #打乱数据(防止模型死记顺序)
)


# 3. 定义CNN模型,所有模型必须继承 nn.Module
class SimpleCNN(nn.Module):                 #定义一个叫 SimpleCNN 的类,它继承自 nn.Module
    def __init__(self):                     #构造函数(初始化函数)。创建对象的时候(model = SimpleCNN()),__init__() 就会自动执行
        super(SimpleCNN, self).__init__()   #调用父类 nn.Module 的初始化函数

        #卷积部分
        self.conv = nn.Sequential(  #按顺序堆层
            #输出通道:16,提取16种特征
            nn.Conv2d(1, 16, 3, 1, 1),  # (1,28,28) -> (16,28,28)   #nn.Conv2d(in_channels, out_channels, kernel_size, stride, padding)
            nn.ReLU(),  #激活函数,会把负值置零 → 输出很多 0
            nn.MaxPool2d(2),  # -> (16,14,14)   #保留重要特征,减少计算量

            nn.Conv2d(16, 32, 3, 1, 1),  # -> (32,14,14)
            nn.ReLU(),
            nn.MaxPool2d(2)  # -> (32,7,7)
        )
        #全连接层
        self.fc = nn.Sequential(
            nn.Flatten(),   #把卷积输出"铺平"以便送到全连接层
            nn.Linear(32 * 7 * 7, 128), #第一层全连接,把一个 1568 维的向量 线性变换 成 128 维向量
            nn.ReLU(),
            nn.Linear(128, 10)
        )

    def forward(self, x):   #forward 是模型的核心计算函数,通过调用 model(x) 时由 PyTorch 内部机制触发;
        x = self.conv(x)
        x = self.fc(x)
        return x


# 4. 初始化
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = SimpleCNN().to(device)  #模型放到GPU/CPU

criterion = nn.CrossEntropyLoss()   #分类问题最常用损失函数
#优化器就是神经网络的"调节器",根据梯度调整模型参数,让 loss 下降。
optimizer = optim.Adam(model.parameters(), lr=learning_rate)    #parameters在模型创建时(__init__)就已经被初始化(通常是随机的)

# 5. 训练
for epoch in range(epochs): #训练epochs轮
    model.train()   #开启训练模式
    total_loss = 0  #统计loss

    #每轮循环(batch_idx)喂64张图
    for batch_idx, (data, target) in enumerate(train_loader):
        data, target = data.to(device), target.to(device)   #把数据搬到你指定的设备(CPU/GPU)上

        # 前向
        output = model(data)    #这里触发forward()前向传播,得到预测
        loss = criterion(output, target)    #衡量 output 和 target 的差距,并把这个差距转成一个可以优化的数值

        # 反向
        optimizer.zero_grad()   #清空梯度(不然会累加)
        loss.backward() #计算梯度(链式法则)
        optimizer.step()    #更新参数

        total_loss += loss.item()   #.item():把tensor变成数值(训练是按 batch 进行的:我们更关心整个 epoch 的整体表现)

        if batch_idx % 100 == 0:
            print(f"Epoch {epoch}, Batch {batch_idx}, Loss {loss.item():.4f}")

    print(f"Epoch {epoch} Avg Loss: {total_loss / len(train_loader):.4f}")

print("训练完成")

#保存整个模型
torch.save(model, "mnist_full.pt")

#-------------------------------------------------------------------------------------
#'''
# 切换为推理模式(重要)
model.eval()

# 构造输入
dummy_input = torch.randn(1, 1, 28, 28).to(device)

# 导出 ONNX
torch.onnx.export(model, dummy_input, "mnist.onnx")

print("ONNX 导出完成")
#'''
相关推荐
昵称小白6 分钟前
从 ( y = wx + b ) 到神经网络:参数、loss、梯度到底怎么连起来(一)
人工智能·神经网络
SmartBrain11 分钟前
基于 Spring AI + Skill 工程 + MCP 技术方案研究
人工智能·spring·架构·aigc
俊哥V14 分钟前
每日 AI 研究简报 · 2026-04-18
人工智能·ai
冬奇Lab15 分钟前
AI Native 时代的 CI/CD:从“手工流水线”到“智能驾驶舱”的范式演进
人工智能·ci/cd
STLearner17 分钟前
WSDM 2026 | 时空数据(Spatial Temporal)论文总结
人工智能·python·深度学习·机器学习·数据挖掘·智慧城市·推荐算法
空中湖19 分钟前
大模型修炼秘籍 第十二章:人师指路——RLHF之精髓
人工智能·深度学习·transformer
xiaotao13121 分钟前
01-编程基础与数学基石:Python错误与异常处理
开发语言·人工智能·python
YummyJacky34 分钟前
Hermes Agent自进化的实现方式
人工智能·python
普鲁夕格1 小时前
【AI翻唱】RVC和SVC声音音色模型难找?推荐这个下载网站
人工智能
亚马逊云开发者1 小时前
【Bedrock AgentCore】AI Agent 回答不一致怎么办?双 Memory 架构实现服务标准化(附完整代码)
大数据·人工智能·架构