练习3-softmax分类(李沐函数简要解析)

环境为:练习1的环境

网址为:https://www.bilibili.com/video/BV1K64y1Q7wu/?spm_id_from=333.1007.top_right_bar_window_history.content.click

代码简要解析

导入模块

导入PyTorch

导入Torch中的nn模块

导入d2l中torch模块 并命名为d2l

复制代码
import torch
from torch import nn
from d2l import torch as d2l

获取数据

从Fashion-MNIST中获取batch_size个数据 注意此处为28*28的像素图像 d2l.load_data_fashion_mnist(batch_size) 函数加载 Fashion-MNIST 数据集,并返回两个迭代器

复制代码
batch_size=100
train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)

初始化模型和参数

Flatten()将输入为28*28的像素图像摊开成一组784长的数组 作为特征值 输入

nn.Linear() 为784输入 10输出的层

net.apply(init); 是将其中init函数作为所有可变参数的初始化方式 注意:m是层 既对每层m进行判断 符合条件对m的权重进行初始化

type(m) == nn.Linear 用于检查变量 m 是否属于 PyTorch 中的线性层(nn.Linear

复制代码
net=nn.Sequential(nn.Flatten(),nn.Linear(784,10))
def init_weights(m):
    if type(m)==nn.Linear:
            nn.init.normal_(m.weight,std=0.01)
        
net.apply(init_weights)

初始化损失函数 这里为交叉熵损失函数

复制代码
loss=nn.CrossEntropyLoss(reduction='none')

设定梯度下降算法

torch.optim.SGD()

复制代码
trainer=torch.optim.SGD(net.parameters(),lr=0.1)

训练

这里的d2l是李沐老师自己写的,想要运行成功,理论上需要把d2l下载下来

网址:https://github.com/d2l-ai/d2l-zh

复制代码
num_epochs=10;
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)

我所学习到的

获得Fashion-MNIST的数据

复制代码
train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)

对输入进行平铺处理 其本质是把每个像素点都当作特征值

复制代码
nn.Flatten()

多层的权重初始化

复制代码
net.apply(init_weights)

交叉熵损失函数

复制代码
loss=nn.CrossEntropy()
相关推荐
隔壁大炮4 小时前
第一章_机器学习概述_03.机器学习_算法分类
算法·机器学习·分类
W.W.H.7 小时前
通过WiFi获取仪器所在经纬度
经验分享·wifi
2501_943205058 小时前
【177期】吾爱top级软件,万物工具箱!
经验分享
HackTorjan9 小时前
AI驱动的制品库高效管理:智能分类、自动化追踪与全生命周期优化
linux·人工智能·分类·自动化
动物园猫9 小时前
番茄叶片病害检测数据集分享(适用于YOLO系列深度学习分类检测任务)
深度学习·yolo·分类
N串9 小时前
数字化-两种基因,两种宿命
经验分享·产品运营·产品经理
宝宝单机sop11 小时前
数据分析资源合集
经验分享
N串11 小时前
从“培养人”到“培养数字化系统”:数字化建设的组织分水岭
经验分享
N串11 小时前
数字化-一条可能的路
经验分享·产品运营·产品经理
智者知已应修善业11 小时前
【51单片机调用__TIME__无法实时时间】2023-7-10
c++·经验分享·笔记·算法·51单片机