一、单选题
1、 对于某卷积层,关于卷积核大小的描述(假设通道数固定)正确
的是哪个?
A.卷积核越小,更新参数的计算量越少,但更容易得到局部的特
征。
B.卷积核越大,其取得的特征越全面,得到的特征图越大。
C.卷积核越大,越容易提取细节特征
D.卷积核只能选择3、5、7等奇数值。
正确答案:A
2、 下面有关神经网络梯度消失说法错误的是()
A.当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠
近输入层的权重难以更新。
B.网络梯度消失可以通过改变隐层和输出层的神经元激活函数减
弱。
C.网络梯度消失可能导致有些权重难以更新,导致网路训练失败。
D.网络梯度消失可以通过减少隐层神经元的个数减弱。
正确答案:D
3、 假设卷积神经网络某隐层的特征图大小是1919 8,其中8是通道
数,使用大小为33的12个卷积核,步长为2,没有padding对此隐层
进行操作,得到的特征图大小是?
A.8 88
B.8 812
C.9 912
D.14 148
正确答案:C
4、 卷积神经网络隐层神经元的数量与下面哪些因素无关?
A.输入图像大小
B.卷积核大小
C.步长
D.激活函数
正确答案:D
5、 以下哪个有关卷积神经网络的说法是错误的?
A.输入一个300 300的彩色图,经过10个55的卷积核,隐层的参数
量是260(含偏置)
B.使用激活函数Relu的收敛速度比Sigmoid要快一些
C.隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线
性多元函数。
D.在网络规模相同的情况下,增加网络深度比增加宽度能带来更强
的网络特征获取能力
正确答案:A
6、 以下哪个关于卷积神经网络的说法是错误的?
A.卷积神经网络训练时值学习每层神经元的阈值
B.AlexNet是一个8层的卷积神经网络
C.目标检测网络Yolo网络结构中包含卷积层
D.典型的卷积神经网络是由卷积层、池化层和全连接层等组成
正确答案:A
7、下列对于生成式对抗网络的叙述,哪个是错误的?
A.训练可能不稳定
B.可以产生清晰且真实的样本
C.仅由一个生成网络与一个判别网络组成
D.属于无监督学习
正确答案:C
8、 假设卷积神经网络某卷积层的输入和输出特征图大小分别为
63 6316和33 3364,卷积核大小是3 3,步长为2,那么Padding值
为多少?
A.0
B.3
C.2
D.1
正确答案:C
9、 有关一般卷积神经网络的组成,下面哪种说法是正确的?
A.卷积神经网络的层次结构依次是由输入层、卷积层、池化层、激
活层和全连接层组成
B.卷积神经网络的层次结构依次是由输入层、池化层、卷积层、激
活层和全连接层组成
C.卷积神经网络的层次结构依次是由输入层、卷积层、激活层、池
化层和全连接层组成
D.卷积神经网络的层次结构依次是由输入层、激活层、卷积层、池
化层和全连接层组成
正确答案:C
10、 有关卷积神经网络的说法哪个是正确的?
A.在卷积层后面使用池化操作,可以减少网络可以训练的参数量
B.1*1的卷积没有改变特征图的大小,因此没有获得新的特征
C.不同卷积层或同一卷积层只能用一种大小的卷积核
D.类似AlexNet网络使用的分组卷积可以增加卷积层的参数量,降低
网络训练速度
正确答案:A
11、 有关循环神经网络激活函数的说法,以下哪个是错误的?
A.ReLU可以减少循环神经网络的梯度消失问题
B.Sigmoid函数相对于Tanh函数来说更容易导致梯度消失
C.取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一
堆小数在做乘法,容易导致网络梯度消失。
D.Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢
正确答案:D
12、 在长短期记忆网络中,使用了两种激活函数,下面哪种说法是
错误的?
A.两种激活函数的作用是不同的
B.两种激活函数共同确定有多少学习到的信息可以流转下去
C.两种激活函数互换会影响网络的性能和可解释性
D.两种激活函数的作用是相似的
正确答案:D
13、 有关生成对抗网络的训练,哪个说法是正确的?
A.在训练时,只要把判别网络的性能训练足够强,就可以生成高质
量的样本
B.因为生成对抗网络是无监督学习,其训练不需要很多真实的样本
C.判别网络和生成网络的损失函数是没有冲突的,两者共同构成生
成对抗网络的总损失函数
D.判别网络和生成网络的训练是交替进行的
正确答案:D
14、 下面关于强化学习的描述中,哪个说法是错误的?
A.策略就是从环境感知的状态到在这些状态中可采用动作的一个映
射
B.强化学习不需要积累足够多的环境交互数据才能学习
C.奖赏函数(reward)对应强化学习问题中的目标
D. 随机策略选择估计报酬最大的动作
正确答案:D
15、 下面关于池化的描述中,错误的是哪个?
A.池化在CNN中可以防止过拟合,提高模型的泛化能力。
B.池化的常用方法包括最小化池化、全局池化。
C.池化是仿照人的视觉系统进行降维(降采样),用更高层的抽象
表达来表示图像特征。
D.平均池化能更多的保留图像的背景信息,最大池化能更多的保留
纹理信息。
正确答案:B
16、 下面关于卷积神经网络结构的描述,哪个是正确的说法?
A.深层网络结构中,隐层的特征表征一般与神经元的参数和样本有
关。
B.网络结构的层次越深,学习到的特征就一定越多。
C.神经元的数量是由网络的层数决定的。
D.网络的训练时间只与网络的层数有关。
正确答案:A
17、 假设一个全卷积神经网络,全连接层前的卷积层输出为
2424 25,其展开的向量长度为?
A.3600
B.224
C.144000
D.14400
正确答案:D
18、 提升卷积神经网络对图像的特征获取能力有效的方法不包括以
下哪些方面?
A.在不同隐层调整卷积核大小。
B.采用不同大小的卷积:在开始的卷积层采用大卷积核获得粗略的
特征,然后再后续的卷积层采用小卷积核获得细致的特征。
C.增加池化操作。
D.采用shortcut等方式,减少特征的损失。
正确答案:C
19、 长短期记忆网络(LSTM)中输入门的作用是以下哪项?
A.控制对当前时刻新输入信息的拟合。
B.负责协调与输出门的关系。
C.负责协调与遗忘门的关系。
D.存储网络输入产生的新信息。
正确答案:A
20、 当生成器产生的样本分布与真实样本分布不一致时,以下哪个
说法是错误的?
A.代价函数设计合理(例如使用了EM距离)可能稳定训练。
B.代价函数设计不合理(例如使用了KL散度)会出现训练不稳定的
结果。
C.出现了训练成功的算法(例如WGAN)。
D.无法训练成功。
正确答案:D
21、 下面有关数据增强,哪个说法错误的?
A.数据增强可以调整一些参数实现。
B.数据增强只有是样本数量少的情况下执行。
C.数据增强可以增加样本的数量,因此可以减少模型的过拟合。
D.数据增强产生的新样本不一定能增强训练精度。
正确答案:B
22、 与神经网络模型泛化能力相似的说法是哪个?
A.鲁棒性
B.对测试样本的推广能力
C.稳定性
D.对训练样本的拟合能力
正确答案:B
23、 对于3 * 3的特征图,采用dilation rate=2的空洞卷积,得到的特征
图大小是?
A.66
B.5 5
C.77
D.8 8
正确答案:B
24、 以下哪个网络没有使用skip connection?
A.Faster RCNN
B.ResNet
C.denseNet
D.UNet
正确答案:A
25、 在目标检测算法中,IoU(Intersection over Union)主要用于?
A.度量检测框的准确度
B.度量目标的大小和位置
C.度量检测框和真实框的重叠程度
D.度量分类结果的准确度
正确答案:C
26、 GAN中的Mode Collapse问题是指什么?
A.生成器只生成少数几种样本
B.生成器生成的样本与真实样本之间的差异非常小
C.生成器和判别器的目标函数无法收敛
D.判别器无法正确分类真实样本和生成样本
正确答案:A
27、 在RNN中,隐藏状态的作用是什么?
A.存储之前的信息,为后续计算提供输入
B.用于控制模型的复杂度
C.用于控制模型的学习速度
D.用于输出结果的计算
正确答案:A
28、 门控循环单元(GRU)相比LSTM有什么不同?
A.GRU的效果更好
B.GRU有2个门控单元,而LSTM有4个门控单元
C.GRU的计算速度更快
D.GRU只有1个门控单元,而LSTM有3个门控单元
正确答案:C
29、 在RNN中,使用Attention机制的目的是?
A.可以减少模型的过拟合
B.可以处理长序列数据
C.可以加速模型的训练
D.可以提高模型的准确率
正确答案:D
30、 注意力机制中,Softmax函数的作用是什么?
A.将注意力权重归一化
B.用于提取信息
C.计算注意力权重
D.用于计算损失函数
正确答案:A
二、多选题
1、 提高图像分类的准确度,可以考虑以下哪些方法?
A.数据增强,增加训练数据
B.调整超参
C.增加输入图像的分辨率
D.减少训练数据集
正确答案:A、B、C
2、 下面关于卷积神经网络的描述中,正确的说法是哪些?
A.卷积层通道数量越多或者通道对应的核大小越多样,获得的特征
就越充分
B.卷积是指对图像的窗口数据和卷积核做内积的操作,在训练过程
中卷积核的大小和值不变
C.SAME填充和VALID填充的主要区别是前者向图像边缘添加0值,而
后者可能对图像边缘的特征获取不足
D.局部感知使网络可以提取数据的局部特征,而权值共享大大增加
了网络的训练工作量
正确答案:A、C
3、 下面哪些关于卷积神经网络的说法是正确的?
A.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深
度能带来更强的网络表示能力
B.ReLU非线性激活函数的收敛速度比Sigmoid可能快一些
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元
函数
D.输入一个300300的彩色图,经过10个5 5的卷积核,得到卷积层
的参数量为750(包括偏置)
正确答案:B、C
4、 有关Faster-RCNN的说法错误的是哪些?
A.候选区域的生成与目标分类、边框精修的工作是同一个子网络完
成的。
B.非极大值抑制(NMS)可以减少候选框的数量,一般放在候选区
域的目标分类和位置修正后完成。
C.目标分类与边框精修的输入来自于区域提名网络。
D.候选框的生成使用区域提名网络(RPN),比选择性搜索方法速度
要快。
正确答案:A、C
5、 以下哪些方法防止或减少梯度消失和梯度爆炸?
A.权重正则化
B.梯度截断
C.增加网络的层数
D.Leaky ReLU激活函数
正确答案:A、B、D
6、 下面有关神经网络小批量训练的批量对网络性能的影响说法哪些
是错误的?
A.批量大,网络检验样本集分类准确率较低,达到同样的网络分类
准确率需要更多的轮次。
B.批量越大,网络训练速度慢,但网络分类准确率高。
C.批量小,网络训练样本集损失减少越快,网络泛化能力较强
D.批量小,网络的准确率高,训练速度慢一些
正确答案:A、C、D
7、 以下哪些方法可以用于减少神经网络的过拟合问题?
A.批标准化
B.损失函数正则化
C.网络权重合理初始化
D.数据增强
正确答案:A、B、D
8、 有关depthwise卷积,以下哪些说法是正确的?
A.可以减少网络参数个数
B.提高卷积神经网络速度
C.增加卷积神经网络的特征获取能力
D.Mobilenet网络使用depthwise卷积
正确答案:A、B、D
9、 以下卷积神经网络模型没有全连接隐层的是哪些?
A.GoogleNet
B.AlexNet
C.VGG
D.ResNet
正确答案:A、D
10、 有关语义分割的说法,哪些是正确的叙述?
A.解决小物体分割可以使用空洞卷积和增大特征图的分辨率
B.图像质量不影响语义分割结果
C.语义分割使用的卷积神经网络是空间不变的( spatially invariant)
D.处理遮挡物体的分割问题可以使用生成对抗网络(GAN)
正确答案:A、D
三、判断题
1、 在设计卷积神经网络时,开始时网络的深度尽可能深一些,当这
个网络的性能还不错时,再考虑减少网络的层次,提升准确度。
正确答案:×
2、 训练神经网络选择越大的batch-size,可以使用越小的学习率,使
网络训练的损失函数下降越快。
正确答案:×
3、 Faster R-CNN算法输出层只预测Anchor Box的偏移值与置信度,而
不是候选框的坐标值,这样使神经网络学习更容易。
正确答案:√
4、 YOLO v2算法借鉴Faster RCNN算法,采用先验框,增加了候选区
域数量,降低了召回率。
正确答案:×
5、 对于欠拟合的卷积神经网络模型,可以增加模型的宽度或深度,
或者对数据集进行增强操作。
正确答案:√