一、单选题(每题只有1个正确答案)
- 卷积神经网络(CNN)的核心特点不包括以下哪一项?( )
A. 局部区域连接
B. 权值共享
C. 全连接无死角
D. 保留空间信息
答案:C
解析:CNN的核心特点是局部区域连接、权值共享,可解决传统图像处理丢失空间信息的问题,保留图像特征;而"全连接无死角"是全连接层的特点,并非CNN的核心特点,CNN通过局部连接实现参数降维,避免全连接的高参数量问题。
- PyTorch中,带可学习参数的层应使用哪个模块?( )
A. nn.functional
B. torch.utils.data
C. nn.Module
D. DataLoader
答案:C
解析:nn.Module是类(首字母大写),其包含的层(如Conv2d、Linear)的参数由框架自动管理,适用于带可学习参数的层;nn.functional是函数,无自动参数管理能力,适用于无学习参数的层;torch.utils.data和DataLoader是数据集相关模块,与层的参数管理无关。
- 下列关于特征图尺寸计算公式的表述,正确的是( )(设输入尺寸n×n,卷积核k×k,步长s,填充个数p)
A. 输出尺寸=(n-2p-k)/s +1
B. 输出尺寸=(n+2p-k)/s +1
C. 输出尺寸=(n+2p+k)/s -1
D. 输出尺寸=(n-2p+k)/s -1
答案:B
解析:特征图尺寸计算公式:输出尺寸=(n+2p-k)/s +1,其中填充p是在输入边缘补0,会增加输入的有效尺寸(n+2p),减去卷积核尺寸k后,除以步长s,再加1得到最终输出尺寸。
- 深度可分离卷积的组成部分不包括( )
A. 逐通道卷积(DW)
B. 逐点卷积(PW)
C. 全连接卷积
D. 无额外组成部分
答案:C
解析:深度可分离卷积由逐通道卷积(DW)和逐点卷积(PW)两部分组成,逐通道卷积实现单通道独立特征提取,逐点卷积实现通道数变换,无需全连接卷积;全连接卷积是常规卷积的一种形式,并非深度可分离卷积的组成部分。
- 下列哪种激活函数适合多分类任务,可将输出映射为各类概率?( )
A. ReLU
B. Sigmoid
C. Softmax
D. Tanh
答案:C
解析:Softmax的输出范围为(0,1),可通过指定dim维度计算各类别概率,适合多分类任务;ReLU输出范围为[0,+∞),主要解决梯度消失问题;Sigmoid输出范围为(0,1),适合二分类任务;Tanh输出范围为(-1,1),零均值输出但易梯度消失。
- ResNet的残差结构主要解决了深层神经网络的什么问题?( )
A. 参数量过大
B. 运算速度慢
C. 梯度消失/爆炸和网络退化
D. 过拟合
答案:C
解析:ResNet通过shortcut隔层连接构建残差结构,核心解决深层神经网络的梯度消失/爆炸和网络退化问题,让网络深度增加时性能不下降;参数量过大可通过深度可分离卷积解决,运算速度慢可通过池化、轻量化架构优化,过拟合可通过Dropout、数据增强解决。
二、多选题(每题有2个及以上正确答案)
- 卷积神经网络(CNN)的一般构成包括以下哪些层?( )
A. 输入层
B. 卷积层
C. 池化层
D. 全连接层
E. Softmax层
答案:ABCDE
解析:CNN的一般构成的顺序为:输入层→卷积层→池化层→全连接层→Softmax层,其中输入层接收图像数据,卷积层提取特征,池化层减小尺寸,全连接层整合特征,Softmax层输出分类概率。
- 下列关于PyTorch中nn.Module和nn.functional的区别,说法正确的有( )
A. nn.Module是类,nn.functional是函数
B. 两者都能实现卷积、激活等操作
C. nn.Module可自动管理参数,nn.functional不能
D. 两者都带可学习参数
答案:ABC
解析:nn.Module是首字母大写的类,nn.functional是全小写的函数,两者均可实现卷积、激活、池化等操作;核心区别是nn.Module可自动管理层的可学习参数,而nn.functional无自动参数管理能力;nn.functional本身不带可学习参数,仅负责运算。
- 下列属于池化层类型的有( )
A. 最大值池化
B. 均值池化
C. 全局最大池化
D. 全局均值池化
E. 逐通道池化
答案:ABCD
解析:池化层类型包括最大值池化、均值池化、全局最大池化、全局均值池化,四种池化均能实现减小特征尺寸、抗噪声的功能;逐通道池化并非独立的池化类型,而是逐通道卷积的伴随操作,不属于池化层范畴。
- 经典CNN架构中,下列说法正确的有( )
A. AlexNet有8层,包含5个卷积层和3个全连接层
B. VGG16使用3×3小卷积核和2×2小池化核
C. GoogleNet用Inception模块,以平均池化替代全连接层
D. ResNet的残差结构只有BasicBlock一种形式
答案:ABC
解析:AlexNet的核心结构为8层(5卷积+3全连接),用ReLU替代Sigmoid;VGG16的特点是使用3×3小卷积核和2×2小池化核,网络更深更宽;GoogleNet采用Inception模块化结构,以平均池化替代全连接层,减少参数量;ResNet的残差结构有两种形式:BasicBlock(2个3×3卷积)和Bottleneck(1×1降维+3×3卷积+1×1升维),故D错误。
- 批量标准化(BN)的作用包括( )
A. 降低内部协变量变化
B. 加快模型训练速度
C. 提升模型性能和稳定性
D. 减少参数量
E. 解决过拟合
答案:ABC
解析:批量标准化(nn.BatchNorm2d)的核心作用是降低内部协变量变化,避免因层间输入分布变化导致训练缓慢,从而加快训练速度、提升模型性能和稳定性;减少参数量是深度可分离卷积的作用,解决过拟合是Dropout、数据增强的作用,故D、E错误。
三、判断题(正确选A,错误选B)
- 多通道卷积中,卷积核通道数与输入通道数不一致,逐通道卷积后相加得到输出特征图。( )
答案:B
解析:多通道卷积的核心要求是卷积核通道数与输入通道数一致,先对每个通道进行单通道卷积,再将所有通道的特征图对应位置相加,最终输出1个特征图;若通道数不一致,无法进行逐通道卷积运算。
- 步长(Stride)越大,卷积后输出的特征图尺寸越小,步长为n时,尺寸缩小为原来的1/n。( )
答案:A
解析:步长是卷积核每次滑动的行列数,步长越大,卷积核覆盖的输入区域越少,输出特征图尺寸越小,当步长为n时,输出尺寸约为原来的1/n(需结合填充参数,若填充为0,尺寸缩小比例接近1/n)。
- PyTorch中,深度可分离卷积有专用函数nn.DepthwiseConv2d,可直接调用实现。( )
答案:B
解析:PyTorch中无深度可分离卷积的专用函数,需通过nn.Conv2d组合实现:逐通道卷积(DW)设置groups=输入通道数,逐点卷积(PW)设置kernel_size=1。
- MobileNetV2的倒残差结构流程为"压缩-卷积-扩张",与ResNet的残差结构流程一致。( )
答案:B
解析:MobileNetV2的倒残差结构流程为"扩张-卷积-压缩",与ResNet残差结构的"压缩-卷积-扩张"流程相反;倒残差先升维得到高维特征,经ReLU激活后信息丢失更少,更适配移动端。
- 自定义数据集时,需继承torch.utils.data.Dataset类,并重写__len__和__getitem__方法。( )
答案:A
解析:torch.utils.data下的Dataset是自定义数据集的核心类,重写__len__方法用于返回数据集的样本总数,重写__getitem__方法用于获取指定索引的样本,两者缺一不可。
- 激活函数的作用是为卷积神经网络提供非线性建模能力,若没有激活函数,网络只能实现线性映射。( )
答案:A
解析:卷积、线性层等操作均为线性变换,若没有激活函数,整个网络只能实现线性映射,无法拟合复杂的非线性数据分布;激活函数(如ReLU、Softmax)通过引入非线性,让网络能够学习复杂的特征关系。