神经网络入门实战:(九)分类问题 → 神经网络模型搭建模版和训练四步曲

(一) 神经网络模型搭建官方文档

每一层基本都有权重和偏置,可以仔细看官方文档。

pytorch 官网的库:torch.nn --- PyTorch 2.5 documentation

  • Containers库:用来搭建神经网络框架(包含所有的神经网络的框架);
  • ++特征提取:++
    • Convolution Layers:用来搭建卷积层;
    • Pooling layers:用来搭建池化层;
    • Padding Layers:用来搭建填充层;
  • ++分类:++
    • Linear Layers:用来搭建全连接层。

(二) 神经网络模型模版(Containers库中的nn.Module)

在写代码的过程中,通常会把神经网络定义成一个类(class),其模版就如下所示:

python 复制代码
# 我们的模型类应该继承自nn.Module,这是所有神经网络模块的基类。
# 每个模型类中,都必须要定义以下两个
class LinearModel(torch.nn.Module): # 其中nn是神经网络neural network的缩写
    def __init__(self): # 构造函数,初始化对象时调用的函数,名字也不能变
        super(LinearModel,self).__init__() # 直接写super().__init__()也行
        self.linear = torch.nn.Linear(1,1)
    def forward(self, x): # 前向传播函数,就必须要叫这个名字,因为 nn.Module 类的call方法里调用了名为forward函数
        y_pred = self.linear(x)
        return y_pred
model = LinearModel()

# 其中反向传播的计算,是自动进行的,所有继承自Module的类,都如此。

示例:

python 复制代码
import torch
from torch import nn

class testNet(nn.Module):
	def __init__(self):
		super(testNet, self).__init__()

	def forward(self, input):
		output = input + 4
		return output

first_net = testNet()
x = torch.tensor(1.0)
output = first_net(x) # 因为 nn.Module 类的call方法里调用了名为forward函数,所以这里可以直接将实例当做函数使用。
print(output)
------------------------------------------------------------------------------------------------------------------
# 运行结果
tensor(5.)

(三) 神经网络训练套路(四部曲)

其中的损失函数、优化器,以及训练循环体后面会详细讲解

准备数据集 → 设计模型 → 创建损失函数和优化器 → 写训练循环体。

以逻辑回归为例:


上一篇 下一篇
神经网络入门实战(八) 神经网络入门实战(十)
相关推荐
极限实验室1 小时前
Coco AI 实战(一):Coco Server Linux 平台部署
人工智能
杨过过儿1 小时前
【学习笔记】4.1 什么是 LLM
人工智能
巴伦是只猫1 小时前
【机器学习笔记Ⅰ】13 正则化代价函数
人工智能·笔记·机器学习
伍哥的传说1 小时前
React 各颜色转换方法、颜色值换算工具HEX、RGB/RGBA、HSL/HSLA、HSV、CMYK
深度学习·神经网络·react.js
大千AI助手1 小时前
DTW模版匹配:弹性对齐的时间序列相似度度量算法
人工智能·算法·机器学习·数据挖掘·模版匹配·dtw模版匹配
AI生存日记2 小时前
百度文心大模型 4.5 系列全面开源 英特尔同步支持端侧部署
人工智能·百度·开源·open ai大模型
LCG元2 小时前
自动驾驶感知模块的多模态数据融合:时序同步与空间对齐的框架解析
人工智能·机器学习·自动驾驶
why技术2 小时前
Stack Overflow,轰然倒下!
前端·人工智能·后端
彭祥.2 小时前
Jetson边缘计算主板:Ubuntu 环境配置 CUDA 与 cudNN 推理环境 + OpenCV 与 C++ 进行目标分类
c++·opencv·分类