探究pytorch中多个卷积层和全连接层的输出方法

1 问题

问题1: 多个卷积层连续输出方法

问题2: 多个卷积层加上多个全连接层的输出方法。

2 方法

问题1: 多个卷积层连续输出方法

创建多个卷积层并连接它们时,通常会在每个卷积层后使用激活函数,这有助于引入非线性性,从而使网络能够学习更复杂的特征。激活函数有Sigmoid 函数、ReLU 函数、Tanh 函数等等,这里用ReLU作演示。(不同的激活函数适用于不同的情况,通常需要根据具体的任务和数据集来选择。ReLU 及其变体通常是首选,因为它们在实践中表现得很好。)

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| import torch from torch import nn conv = nn.Conv2d( in_channels=3, out_channels=16, kernel_size=3, stride=2, ) conv1 = nn.Conv2d( in_channels= 16, # 输入通道数 out_channels= 64, # 当前卷积层使用的卷积核的数量 kernel_size= 3, # 卷积核的大小 3x3 stride=1, # 步长, 规定了卷积核每次扫描移动的步数,默认值为1 # padding默认值为0 padding=1,# 使用填充获得与输入特征图相同的尺寸, 3x3使用padding=1,5x5使用padding=2 ) # 激活函数 activation = nn.ReLU() if name == 'main': # 构造输入层数据 x = torch.rand(size=(3, 5, 5)) x = conv(x) x = activation(x) x = conv1(x) x = activation(x) print(x.shape) |

问题2: 多个卷积层加上多个全连接层的输出方法

卷积层到全连接层之间连接时需要flatten。 flatten 通常指的是将一个多维的张量(tensor)转换成一个一维的张量,以便进行全连接层等操作。可以使用 view 方法来实现这一操作。

|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| import torch from torch import nn conv = nn.Conv2d( in_channels=3, out_channels=16, kernel_size=3, stride=2, ) conv1 = nn.Conv2d( in_channels= 16, # 输入通道数 out_channels= 64, # 当前卷积层使用的卷积核的数量 kernel_size= 3, # 卷积核的大小 3x3 stride=1, # 步长, 规定了卷积核每次扫描移动的步数,默认值为1 # padding默认值为0 padding=1, ) # 全连接层 fc1 = nn.Linear(in_features=4,out_features=256) fc2 = nn.Linear(in_features=256,out_features=10) # 激活函数 activation = nn.ReLU() if name == 'main': # 构造输入层数据 x = torch.rand(size=(3, 5, 5)) x = conv(x) x = activation(x) x = conv1(x) x = activation(x) # 展平 x = x.view(x.size(0), -1) # 全连接层和激活函数 x = fc1(x) x = activation(x) x = fc2(x) print(x.shape) |

3 结语

在深度学习中,多个卷积层通过使用激活函数引入非线性,以学习更复杂的特征。通常,ReLU是常用的激活函数。在卷积层与全连接层之间,需要进行flatten操作,将多维张量转换成一维张量,以便进行全连接层的操作。这些是构建深度神经网络的关键步骤。

相关推荐
EkihzniY4 小时前
AI+OCR:解锁数字化新视界
人工智能·ocr
东哥说-MES|从入门到精通4 小时前
GenAI-生成式人工智能在工业制造中的应用
大数据·人工智能·智能制造·数字化·数字化转型·mes
铅笔侠_小龙虾5 小时前
深度学习理论推导--梯度下降法
人工智能·深度学习
kaikaile19955 小时前
基于遗传算法的车辆路径问题(VRP)解决方案MATLAB实现
开发语言·人工智能·matlab
lpfasd1235 小时前
第1章_LangGraph的背景与设计哲学
人工智能
Aevget6 小时前
界面组件Kendo UI for React 2025 Q3亮点 - AI功能全面提升
人工智能·react.js·ui·界面控件·kendo ui·ui开发
桜吹雪6 小时前
LangChain.js/DeepAgents可观测性
javascript·人工智能
&&Citrus6 小时前
【杂谈】SNNU公共计算平台:深度学习服务器配置与远程开发指北
服务器·人工智能·vscode·深度学习·snnu
乌恩大侠6 小时前
Spark 机器上修改缓冲区大小
人工智能·usrp
STLearner6 小时前
AI论文速读 | U-Cast:学习高维时间序列预测的层次结构
大数据·论文阅读·人工智能·深度学习·学习·机器学习·数据挖掘