探究pytorch中多个卷积层和全连接层的输出方法

1 问题

问题1: 多个卷积层连续输出方法

问题2: 多个卷积层加上多个全连接层的输出方法。

2 方法

问题1: 多个卷积层连续输出方法

创建多个卷积层并连接它们时,通常会在每个卷积层后使用激活函数,这有助于引入非线性性,从而使网络能够学习更复杂的特征。激活函数有Sigmoid 函数、ReLU 函数、Tanh 函数等等,这里用ReLU作演示。(不同的激活函数适用于不同的情况,通常需要根据具体的任务和数据集来选择。ReLU 及其变体通常是首选,因为它们在实践中表现得很好。)

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| import torch from torch import nn conv = nn.Conv2d( in_channels=3, out_channels=16, kernel_size=3, stride=2, ) conv1 = nn.Conv2d( in_channels= 16, # 输入通道数 out_channels= 64, # 当前卷积层使用的卷积核的数量 kernel_size= 3, # 卷积核的大小 3x3 stride=1, # 步长, 规定了卷积核每次扫描移动的步数,默认值为1 # padding默认值为0 padding=1,# 使用填充获得与输入特征图相同的尺寸, 3x3使用padding=1,5x5使用padding=2 ) # 激活函数 activation = nn.ReLU() if name == 'main': # 构造输入层数据 x = torch.rand(size=(3, 5, 5)) x = conv(x) x = activation(x) x = conv1(x) x = activation(x) print(x.shape) |

问题2: 多个卷积层加上多个全连接层的输出方法

卷积层到全连接层之间连接时需要flatten。 flatten 通常指的是将一个多维的张量(tensor)转换成一个一维的张量,以便进行全连接层等操作。可以使用 view 方法来实现这一操作。

|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| import torch from torch import nn conv = nn.Conv2d( in_channels=3, out_channels=16, kernel_size=3, stride=2, ) conv1 = nn.Conv2d( in_channels= 16, # 输入通道数 out_channels= 64, # 当前卷积层使用的卷积核的数量 kernel_size= 3, # 卷积核的大小 3x3 stride=1, # 步长, 规定了卷积核每次扫描移动的步数,默认值为1 # padding默认值为0 padding=1, ) # 全连接层 fc1 = nn.Linear(in_features=4,out_features=256) fc2 = nn.Linear(in_features=256,out_features=10) # 激活函数 activation = nn.ReLU() if name == 'main': # 构造输入层数据 x = torch.rand(size=(3, 5, 5)) x = conv(x) x = activation(x) x = conv1(x) x = activation(x) # 展平 x = x.view(x.size(0), -1) # 全连接层和激活函数 x = fc1(x) x = activation(x) x = fc2(x) print(x.shape) |

3 结语

在深度学习中,多个卷积层通过使用激活函数引入非线性,以学习更复杂的特征。通常,ReLU是常用的激活函数。在卷积层与全连接层之间,需要进行flatten操作,将多维张量转换成一维张量,以便进行全连接层的操作。这些是构建深度神经网络的关键步骤。

相关推荐
zhuiyisuifeng19 小时前
2026前瞻:GPTimage2镜像官网或将颠覆视觉创作
人工智能·gpt
徐健峰19 小时前
GPT-image-2 热门玩法实战(一):AI 看手相 — 一张手掌照片生成专业手相分析图
人工智能·gpt
weixin_3709763519 小时前
AI的终极赛跑:进入AGI,还是泡沫破灭?
大数据·人工智能·agi
Slow菜鸟19 小时前
AI学习篇(五) | awesome-design-md 使用说明
人工智能·学习
冬奇Lab19 小时前
RAG 系列(五):Embedding 模型——语义理解的核心
人工智能·llm·aigc
深小乐19 小时前
AI 周刊【2026.04.27-05.03】:Anthropic 9000亿美元估值、英伟达死磕智能体、中央重磅定调AI
人工智能
码点滴19 小时前
什么时候用 DeepSeek V4,而不是 GPT-5/Claude/Gemini?
人工智能·gpt·架构·大模型·deepseek
狐狐生风20 小时前
LangChain 向量存储:Chroma、FAISS
人工智能·python·学习·langchain·faiss·agentai
波动几何20 小时前
CDA架构代码工坊技能cda-code-lab
人工智能
舟遥遥娓飘飘20 小时前
DeepSeek V4技术变革对社会结构与职业体系的重构
人工智能