练习3-softmax分类(李沐函数简要解析)

环境为:练习1的环境

网址为:https://www.bilibili.com/video/BV1K64y1Q7wu/?spm_id_from=333.1007.top_right_bar_window_history.content.click

代码简要解析

导入模块

导入PyTorch

导入Torch中的nn模块

导入d2l中torch模块 并命名为d2l

复制代码
import torch
from torch import nn
from d2l import torch as d2l

获取数据

从Fashion-MNIST中获取batch_size个数据 注意此处为28*28的像素图像 d2l.load_data_fashion_mnist(batch_size) 函数加载 Fashion-MNIST 数据集,并返回两个迭代器

复制代码
batch_size=100
train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)

初始化模型和参数

Flatten()将输入为28*28的像素图像摊开成一组784长的数组 作为特征值 输入

nn.Linear() 为784输入 10输出的层

net.apply(init); 是将其中init函数作为所有可变参数的初始化方式 注意:m是层 既对每层m进行判断 符合条件对m的权重进行初始化

type(m) == nn.Linear 用于检查变量 m 是否属于 PyTorch 中的线性层(nn.Linear

复制代码
net=nn.Sequential(nn.Flatten(),nn.Linear(784,10))
def init_weights(m):
    if type(m)==nn.Linear:
            nn.init.normal_(m.weight,std=0.01)
        
net.apply(init_weights)

初始化损失函数 这里为交叉熵损失函数

复制代码
loss=nn.CrossEntropyLoss(reduction='none')

设定梯度下降算法

torch.optim.SGD()

复制代码
trainer=torch.optim.SGD(net.parameters(),lr=0.1)

训练

这里的d2l是李沐老师自己写的,想要运行成功,理论上需要把d2l下载下来

网址:https://github.com/d2l-ai/d2l-zh

复制代码
num_epochs=10;
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)

我所学习到的

获得Fashion-MNIST的数据

复制代码
train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)

对输入进行平铺处理 其本质是把每个像素点都当作特征值

复制代码
nn.Flatten()

多层的权重初始化

复制代码
net.apply(init_weights)

交叉熵损失函数

复制代码
loss=nn.CrossEntropy()
相关推荐
一个人旅程~9 分钟前
《七重时间的织锦》-致初七
windows·经验分享·笔记·微信公众平台
YZ09918 分钟前
2026年如何批量保存小红书作者主页的视频、图片和文案?
经验分享·浏览器·插件
2501_926978331 小时前
嵌套分形意识融合理论3.0:概率分形通用理论与存在意义论的统一整合框架
人工智能·经验分享·机器学习·ai写作·agi
ppppppatrick2 小时前
【深度学习基础篇04】从回归到分类:图像分类与卷积神经网络入门
人工智能·深度学习·分类
LaughingZhu3 小时前
Product Hunt 每日热榜 | 2026-02-23
人工智能·经验分享·深度学习·神经网络·产品运营
啊阿狸不会拉杆4 小时前
《计算机视觉:模型、学习和推理》第 9 章-分类模型
人工智能·python·学习·算法·机器学习·计算机视觉·分类
念越18 小时前
快速上手Markdown:博客写作的利器
经验分享
2501_9269783319 小时前
提高认知的位置---存在、认知、程序的逻辑位置
人工智能·经验分享
智者知已应修善业20 小时前
【冰雹猜想过程逆序输出】2025-4-19
c语言·c++·经验分享·笔记·算法