小白的机器学习之路(四)神经网络的初步认识:基于pytorch搭建自己的神经网络

小白的机器学习之路(四)

引子

当前交通大数据业务的需要,需要承担一部分算法工作(数据处理),考虑到上次研究深度学习算法还是两年前,我薄弱的基础已经无法支持当前的工作,通过前期的学习准备(其它算法工程师和chatgpt 的帮助),制定了五天的初步复习计划----初步定为:

目标四:

  • 学习深度学习基础:了解神经网络的基本结构、反向传播算法和激活函数等。

目标任务:使用深度学习算法构建一个简单的神经网络模型,并训练模型。

学习计划小贴士:

  • 每天定期复习前几天的内容,巩固知识。

  • 在学习过程中遇到问题及时查阅资料,或向论坛、社区寻求帮助。

  • 尝试在学习过程中动手实践,通过编写代码来加深对算法和原理的理解。

  • 学习过程中保持积极的学习态度和耐心,机器学习和深度学习是复杂的领域,需要持续学习和实践。

  • 学习机器学习基础:了解机器学习的定义、分类和基本原理。

  • 掌握数据预处理:学习数据清洗、特征选择和特征工程的基本方法。

准备一份草稿,后面更新

神经网络的基本结构

反向传播算法和激活函数

优化器

如何通过pytorch搭建自己的BP network

这里用到一个新的接口 torch.nn.Module

解释一下,torch.nn给了我们一个快速搭建bp的脚手架,我们可以直接设定参数来选择层数、神经元个数、每层的功能等;
对应的api如下

这里,我搭建一个简单网络进行处理,输入一些数据进行测试:

java 复制代码
import torch
import torchvision.datasets
from torch.utils.data import Dataset
from PIL import Image
from torch import nn
import torch.nn.functional as F
import numpy as np
from torch.utils.data import DataLoader
java 复制代码
class MyData(nn.Module):

    def __init__(self) -> None:
        super().__init__()
        self.conv1 = nn.Conv2d(1,20,1)
        self.conv2 = nn.Conv2d(20,20,5)



    def forward(self, input):
        output = F.relu(self.conv1(input))
        output = F.relu(self.conv2(output))
        return output

dataset  = torchvision.datasets.CIFAR10("../data", train=False, transform=torchvision.transforms.ToTensor(),
                             download=True)
dataloader = DataLoader(dataset, batch_size=64)

MyData = MyData()
x = torch.Tensor([[
        [[0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
        [0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
        [0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
        [0.1000, 0.1000, 0.1000, 0.1000, 0.5000],
        [0.1000, 0.1000, 0.1000, 0.1000, 0.5000]]
]])

print(x)
print("ouput:", MyData(x))

结果分析:

tensor([[[[0.1000, 0.1000, 0.1000, 0.1000, 0.5000],

0.1000, 0.1000, 0.1000, 0.1000, 0.5000\], \[0.1000, 0.1000, 0.1000, 0.1000, 0.5000\], \[0.1000, 0.1000, 0.1000, 0.1000, 0.5000\], \[0.1000, 0.1000, 0.1000, 0.1000, 0.5000\]\]\]\]) ouput: tensor(\[\[\[\[0.0000\]\], \[\[0.1192\]\], \[\[0.0000\]\], \[\[0.0000\]\], \[\[0.0000\]\], \[\[0.0115\]\], \[\[0.0885\]\], \[\[0.0000\]\], ```java self.conv1 = nn.Conv2d(1,20,1) self.conv2 = nn.Conv2d(20,20,5) ``` 这里的`Conv2d(1,20,1)`是指进行卷积,输入通道数1,输出通道为20,我们的卷积核为1\*1; 最后进过两轮卷积,最后生成对应的结果; 卷积广泛应用于图像分类,下一章我们将讲到一个**图像分类的小项目;** 图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。 卷积神经网络(CNN)是用于图像分类问题的最流行的神经网络模型。CNN背后的一个重要思想是,对图像的局部理解是好的。实际的好处是,参数少将大大缩短了学习所需的时间,并减少了训练模型所需的数据量。CNN具有足够的权重来查看图像的小块,而不是来自每个像素的完全连接的权重网络。

相关推荐
AI技术增长10 小时前
Pytorch图像去噪实战(六):CBDNet真实噪声去噪实战,解决合成噪声模型落地效果差的问题
pytorch·深度学习·机器学习
博.闻广见11 小时前
AI_概率统计-2.常见分布
人工智能·机器学习
小糖学代码11 小时前
LLM系列:2.pytorch入门:8.神经网络的损失函数(criterion)
人工智能·深度学习·神经网络
Jmayday11 小时前
Pytorch:RNN理论基础
pytorch·rnn·深度学习
谭欣辰13 小时前
C++快速幂完整实战讲解
算法·决策树·机器学习
AI周红伟13 小时前
周红伟:GPT-Image-2深度解析:从技术原理到实战教程,为什么它能让整个AI圈炸锅?
人工智能·gpt·深度学习·机器学习·语言模型·openclaw
*Lisen14 小时前
从零手写 FlashAttention(PyTorch实现 + 原理推导)
人工智能·pytorch·python
Uopiasd1234oo15 小时前
上下文引导模块改进YOLOv26局部与全局特征融合能力双重提升
深度学习·yolo·机器学习
哥布林学者15 小时前
深度学习进阶(十四)ConvNeXt
机器学习·ai
Jmayday16 小时前
Pytorch:CNN理论基础
人工智能·pytorch·cnn