探究pytorch中多个卷积层和全连接层的输出方法

1 问题

问题1: 多个卷积层连续输出方法

问题2: 多个卷积层加上多个全连接层的输出方法。

2 方法

问题1: 多个卷积层连续输出方法

创建多个卷积层并连接它们时,通常会在每个卷积层后使用激活函数,这有助于引入非线性性,从而使网络能够学习更复杂的特征。激活函数有Sigmoid 函数、ReLU 函数、Tanh 函数等等,这里用ReLU作演示。(不同的激活函数适用于不同的情况,通常需要根据具体的任务和数据集来选择。ReLU 及其变体通常是首选,因为它们在实践中表现得很好。)

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| import torch from torch import nn conv = nn.Conv2d( in_channels=3, out_channels=16, kernel_size=3, stride=2, ) conv1 = nn.Conv2d( in_channels= 16, # 输入通道数 out_channels= 64, # 当前卷积层使用的卷积核的数量 kernel_size= 3, # 卷积核的大小 3x3 stride=1, # 步长, 规定了卷积核每次扫描移动的步数,默认值为1 # padding默认值为0 padding=1,# 使用填充获得与输入特征图相同的尺寸, 3x3使用padding=1,5x5使用padding=2 ) # 激活函数 activation = nn.ReLU() if name == 'main': # 构造输入层数据 x = torch.rand(size=(3, 5, 5)) x = conv(x) x = activation(x) x = conv1(x) x = activation(x) print(x.shape) |

问题2: 多个卷积层加上多个全连接层的输出方法

卷积层到全连接层之间连接时需要flatten。 flatten 通常指的是将一个多维的张量(tensor)转换成一个一维的张量,以便进行全连接层等操作。可以使用 view 方法来实现这一操作。

|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| import torch from torch import nn conv = nn.Conv2d( in_channels=3, out_channels=16, kernel_size=3, stride=2, ) conv1 = nn.Conv2d( in_channels= 16, # 输入通道数 out_channels= 64, # 当前卷积层使用的卷积核的数量 kernel_size= 3, # 卷积核的大小 3x3 stride=1, # 步长, 规定了卷积核每次扫描移动的步数,默认值为1 # padding默认值为0 padding=1, ) # 全连接层 fc1 = nn.Linear(in_features=4,out_features=256) fc2 = nn.Linear(in_features=256,out_features=10) # 激活函数 activation = nn.ReLU() if name == 'main': # 构造输入层数据 x = torch.rand(size=(3, 5, 5)) x = conv(x) x = activation(x) x = conv1(x) x = activation(x) # 展平 x = x.view(x.size(0), -1) # 全连接层和激活函数 x = fc1(x) x = activation(x) x = fc2(x) print(x.shape) |

3 结语

在深度学习中,多个卷积层通过使用激活函数引入非线性,以学习更复杂的特征。通常,ReLU是常用的激活函数。在卷积层与全连接层之间,需要进行flatten操作,将多维张量转换成一维张量,以便进行全连接层的操作。这些是构建深度神经网络的关键步骤。

相关推荐
数科云6 小时前
AI提示词(Prompt)入门:什么是Prompt?为什么要写好Prompt?
人工智能·aigc·ai写作·ai工具集·最新ai资讯
Devlive 开源社区6 小时前
技术日报|Claude Code超级能力库superpowers登顶日增1538星,自主AI循环ralph爆火登榜第二
人工智能
软件供应链安全指南6 小时前
灵脉 IAST 5.4 升级:双轮驱动 AI 漏洞治理与业务逻辑漏洞精准检测
人工智能·安全
lanmengyiyu7 小时前
单塔和双塔的区别和共同点
人工智能·双塔模型·网络结构·单塔模型
微光闪现7 小时前
AI识别宠物焦虑、紧张和晕车行为,是否已经具备实际可行性?
大数据·人工智能·宠物
技术小黑屋_7 小时前
用好Few-shot Prompting,AI 准确率提升100%
人工智能
中草药z7 小时前
【嵌入模型】概念、应用与两大 AI 开源社区(Hugging Face / 魔塔)
人工智能·算法·机器学习·数据集·向量·嵌入模型
知乎的哥廷根数学学派7 小时前
基于数据驱动的自适应正交小波基优化算法(Python)
开发语言·网络·人工智能·pytorch·python·深度学习·算法
DisonTangor8 小时前
GLM-Image:面向密集知识与高保真图像生成的自回归模型
人工智能·ai作画·数据挖掘·回归·aigc
哥布林学者8 小时前
吴恩达深度学习课程五:自然语言处理 第二周:词嵌入(一)词汇表征和类比推理
深度学习·ai