卷积神经网络(CNN)客观题(含答案+解析)

一、单选题(每题只有1个正确答案)

  1. 卷积神经网络(CNN)的核心特点不包括以下哪一项?( )

A. 局部区域连接

B. 权值共享

C. 全连接无死角

D. 保留空间信息

答案:C

解析:CNN的核心特点是局部区域连接、权值共享,可解决传统图像处理丢失空间信息的问题,保留图像特征;而"全连接无死角"是全连接层的特点,并非CNN的核心特点,CNN通过局部连接实现参数降维,避免全连接的高参数量问题。

  1. PyTorch中,带可学习参数的层应使用哪个模块?( )

A. nn.functional

B. torch.utils.data

C. nn.Module

D. DataLoader

答案:C

解析:nn.Module是类(首字母大写),其包含的层(如Conv2d、Linear)的参数由框架自动管理,适用于带可学习参数的层;nn.functional是函数,无自动参数管理能力,适用于无学习参数的层;torch.utils.data和DataLoader是数据集相关模块,与层的参数管理无关。

  1. 下列关于特征图尺寸计算公式的表述,正确的是( )(设输入尺寸n×n,卷积核k×k,步长s,填充个数p)

A. 输出尺寸=(n-2p-k)/s +1

B. 输出尺寸=(n+2p-k)/s +1

C. 输出尺寸=(n+2p+k)/s -1

D. 输出尺寸=(n-2p+k)/s -1

答案:B

解析:特征图尺寸计算公式:输出尺寸=(n+2p-k)/s +1,其中填充p是在输入边缘补0,会增加输入的有效尺寸(n+2p),减去卷积核尺寸k后,除以步长s,再加1得到最终输出尺寸。

  1. 深度可分离卷积的组成部分不包括( )

A. 逐通道卷积(DW)

B. 逐点卷积(PW)

C. 全连接卷积

D. 无额外组成部分

答案:C

解析:深度可分离卷积由逐通道卷积(DW)和逐点卷积(PW)两部分组成,逐通道卷积实现单通道独立特征提取,逐点卷积实现通道数变换,无需全连接卷积;全连接卷积是常规卷积的一种形式,并非深度可分离卷积的组成部分。

  1. 下列哪种激活函数适合多分类任务,可将输出映射为各类概率?( )

A. ReLU

B. Sigmoid

C. Softmax

D. Tanh

答案:C

解析:Softmax的输出范围为(0,1),可通过指定dim维度计算各类别概率,适合多分类任务;ReLU输出范围为[0,+∞),主要解决梯度消失问题;Sigmoid输出范围为(0,1),适合二分类任务;Tanh输出范围为(-1,1),零均值输出但易梯度消失。

  1. ResNet的残差结构主要解决了深层神经网络的什么问题?( )

A. 参数量过大

B. 运算速度慢

C. 梯度消失/爆炸和网络退化

D. 过拟合

答案:C

解析:ResNet通过shortcut隔层连接构建残差结构,核心解决深层神经网络的梯度消失/爆炸和网络退化问题,让网络深度增加时性能不下降;参数量过大可通过深度可分离卷积解决,运算速度慢可通过池化、轻量化架构优化,过拟合可通过Dropout、数据增强解决。

二、多选题(每题有2个及以上正确答案)

  1. 卷积神经网络(CNN)的一般构成包括以下哪些层?( )

A. 输入层

B. 卷积层

C. 池化层

D. 全连接层

E. Softmax层

答案:ABCDE

解析:CNN的一般构成的顺序为:输入层→卷积层→池化层→全连接层→Softmax层,其中输入层接收图像数据,卷积层提取特征,池化层减小尺寸,全连接层整合特征,Softmax层输出分类概率。

  1. 下列关于PyTorch中nn.Module和nn.functional的区别,说法正确的有( )

A. nn.Module是类,nn.functional是函数

B. 两者都能实现卷积、激活等操作

C. nn.Module可自动管理参数,nn.functional不能

D. 两者都带可学习参数

答案:ABC

解析:nn.Module是首字母大写的类,nn.functional是全小写的函数,两者均可实现卷积、激活、池化等操作;核心区别是nn.Module可自动管理层的可学习参数,而nn.functional无自动参数管理能力;nn.functional本身不带可学习参数,仅负责运算。

  1. 下列属于池化层类型的有( )

A. 最大值池化

B. 均值池化

C. 全局最大池化

D. 全局均值池化

E. 逐通道池化

答案:ABCD

解析:池化层类型包括最大值池化、均值池化、全局最大池化、全局均值池化,四种池化均能实现减小特征尺寸、抗噪声的功能;逐通道池化并非独立的池化类型,而是逐通道卷积的伴随操作,不属于池化层范畴。

  1. 经典CNN架构中,下列说法正确的有( )

A. AlexNet有8层,包含5个卷积层和3个全连接层

B. VGG16使用3×3小卷积核和2×2小池化核

C. GoogleNet用Inception模块,以平均池化替代全连接层

D. ResNet的残差结构只有BasicBlock一种形式

答案:ABC

解析:AlexNet的核心结构为8层(5卷积+3全连接),用ReLU替代Sigmoid;VGG16的特点是使用3×3小卷积核和2×2小池化核,网络更深更宽;GoogleNet采用Inception模块化结构,以平均池化替代全连接层,减少参数量;ResNet的残差结构有两种形式:BasicBlock(2个3×3卷积)和Bottleneck(1×1降维+3×3卷积+1×1升维),故D错误。

  1. 批量标准化(BN)的作用包括( )

A. 降低内部协变量变化

B. 加快模型训练速度

C. 提升模型性能和稳定性

D. 减少参数量

E. 解决过拟合

答案:ABC

解析:批量标准化(nn.BatchNorm2d)的核心作用是降低内部协变量变化,避免因层间输入分布变化导致训练缓慢,从而加快训练速度、提升模型性能和稳定性;减少参数量是深度可分离卷积的作用,解决过拟合是Dropout、数据增强的作用,故D、E错误。

三、判断题(正确选A,错误选B)

  1. 多通道卷积中,卷积核通道数与输入通道数不一致,逐通道卷积后相加得到输出特征图。( )

答案:B

解析:多通道卷积的核心要求是卷积核通道数与输入通道数一致,先对每个通道进行单通道卷积,再将所有通道的特征图对应位置相加,最终输出1个特征图;若通道数不一致,无法进行逐通道卷积运算。

  1. 步长(Stride)越大,卷积后输出的特征图尺寸越小,步长为n时,尺寸缩小为原来的1/n。( )

答案:A

解析:步长是卷积核每次滑动的行列数,步长越大,卷积核覆盖的输入区域越少,输出特征图尺寸越小,当步长为n时,输出尺寸约为原来的1/n(需结合填充参数,若填充为0,尺寸缩小比例接近1/n)。

  1. PyTorch中,深度可分离卷积有专用函数nn.DepthwiseConv2d,可直接调用实现。( )

答案:B

解析:PyTorch中无深度可分离卷积的专用函数,需通过nn.Conv2d组合实现:逐通道卷积(DW)设置groups=输入通道数,逐点卷积(PW)设置kernel_size=1。

  1. MobileNetV2的倒残差结构流程为"压缩-卷积-扩张",与ResNet的残差结构流程一致。( )

答案:B

解析:MobileNetV2的倒残差结构流程为"扩张-卷积-压缩",与ResNet残差结构的"压缩-卷积-扩张"流程相反;倒残差先升维得到高维特征,经ReLU激活后信息丢失更少,更适配移动端。

  1. 自定义数据集时,需继承torch.utils.data.Dataset类,并重写__len__和__getitem__方法。( )

答案:A

解析:torch.utils.data下的Dataset是自定义数据集的核心类,重写__len__方法用于返回数据集的样本总数,重写__getitem__方法用于获取指定索引的样本,两者缺一不可。

  1. 激活函数的作用是为卷积神经网络提供非线性建模能力,若没有激活函数,网络只能实现线性映射。( )

答案:A

解析:卷积、线性层等操作均为线性变换,若没有激活函数,整个网络只能实现线性映射,无法拟合复杂的非线性数据分布;激活函数(如ReLU、Softmax)通过引入非线性,让网络能够学习复杂的特征关系。

相关推荐
万添裁15 分钟前
pytorch的张量数据结构以及各种操作函数的底层原理
人工智能·pytorch·python
盘古开天166624 分钟前
Gemma4本地部署,零成本打造私有 AI 助手
人工智能·本地部署·智能体·gemma4·ai私有助理
夜影风32 分钟前
算力租赁产业链全景分析:解构AI时代的“算力电厂”
人工智能·算力租赁
MediaTea34 分钟前
AI 术语通俗词典:矩阵乘法
人工智能·线性代数·矩阵
NHuan^_^36 分钟前
SpringBoot3 整合 SpringAI 实现ai助手(记忆)
java·人工智能·spring boot
Binary_ey38 分钟前
光刻技术第22期 | 贝叶斯压缩感知光源优化的优化技术及对比分析
人工智能·深度学习·机器学习
奔跑草-39 分钟前
【AI日报】每日AI最新消息2026-04-07
人工智能·大模型·github·开源软件
rainy雨39 分钟前
免费且好用的精益工具在哪里?2026年精益工具清单整理
大数据·人工智能·信息可视化·数据挖掘·数据分析·精益工程
小黄人软件39 分钟前
【研究让AI做擅长的事】有哪些强大的研究方法 ,让研究自动发生
人工智能·安全