深度学习及其应用期末测试题目

一、单选题

1、 对于某卷积层,关于卷积核大小的描述(假设通道数固定)正确

的是哪个?

A.卷积核越小,更新参数的计算量越少,但更容易得到局部的特

征。

B.卷积核越大,其取得的特征越全面,得到的特征图越大。

C.卷积核越大,越容易提取细节特征

D.卷积核只能选择3、5、7等奇数值。

正确答案:A

2、 下面有关神经网络梯度消失说法错误的是()

A.当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠

近输入层的权重难以更新。

B.网络梯度消失可以通过改变隐层和输出层的神经元激活函数减

弱。

C.网络梯度消失可能导致有些权重难以更新,导致网路训练失败。

D.网络梯度消失可以通过减少隐层神经元的个数减弱。

正确答案:D

3、 假设卷积神经网络某隐层的特征图大小是1919 8,其中8是通道

数,使用大小为33的12个卷积核,步长为2,没有padding对此隐层
进行操作,得到的特征图大小是?
A.8
88
B.8
812
C.9
912
D.14
148
正确答案:C
4、 卷积神经网络隐层神经元的数量与下面哪些因素无关?
A.输入图像大小
B.卷积核大小
C.步长
D.激活函数
正确答案:D
5、 以下哪个有关卷积神经网络的说法是错误的?
A.输入一个300
300的彩色图,经过10个55的卷积核,隐层的参数
量是260(含偏置)
B.使用激活函数Relu的收敛速度比Sigmoid要快一些
C.隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线
性多元函数。
D.在网络规模相同的情况下,增加网络深度比增加宽度能带来更强
的网络特征获取能力
正确答案:A
6、 以下哪个关于卷积神经网络的说法是错误的?
A.卷积神经网络训练时值学习每层神经元的阈值
B.AlexNet是一个8层的卷积神经网络
C.目标检测网络Yolo网络结构中包含卷积层
D.典型的卷积神经网络是由卷积层、池化层和全连接层等组成
正确答案:A
7、下列对于生成式对抗网络的叙述,哪个是错误的?
A.训练可能不稳定
B.可以产生清晰且真实的样本
C.仅由一个生成网络与一个判别网络组成
D.属于无监督学习
正确答案:C
8、 假设卷积神经网络某卷积层的输入和输出特征图大小分别为
63
6316和33 3364,卷积核大小是3 3,步长为2,那么Padding值

为多少?

A.0

B.3

C.2

D.1

正确答案:C

9、 有关一般卷积神经网络的组成,下面哪种说法是正确的?

A.卷积神经网络的层次结构依次是由输入层、卷积层、池化层、激

活层和全连接层组成

B.卷积神经网络的层次结构依次是由输入层、池化层、卷积层、激

活层和全连接层组成

C.卷积神经网络的层次结构依次是由输入层、卷积层、激活层、池

化层和全连接层组成

D.卷积神经网络的层次结构依次是由输入层、激活层、卷积层、池

化层和全连接层组成

正确答案:C

10、 有关卷积神经网络的说法哪个是正确的?

A.在卷积层后面使用池化操作,可以减少网络可以训练的参数量

B.1*1的卷积没有改变特征图的大小,因此没有获得新的特征

C.不同卷积层或同一卷积层只能用一种大小的卷积核

D.类似AlexNet网络使用的分组卷积可以增加卷积层的参数量,降低

网络训练速度

正确答案:A

11、 有关循环神经网络激活函数的说法,以下哪个是错误的?

A.ReLU可以减少循环神经网络的梯度消失问题

B.Sigmoid函数相对于Tanh函数来说更容易导致梯度消失

C.取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一

堆小数在做乘法,容易导致网络梯度消失。

D.Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢

正确答案:D

12、 在长短期记忆网络中,使用了两种激活函数,下面哪种说法是

错误的?

A.两种激活函数的作用是不同的

B.两种激活函数共同确定有多少学习到的信息可以流转下去

C.两种激活函数互换会影响网络的性能和可解释性

D.两种激活函数的作用是相似的

正确答案:D

13、 有关生成对抗网络的训练,哪个说法是正确的?

A.在训练时,只要把判别网络的性能训练足够强,就可以生成高质

量的样本

B.因为生成对抗网络是无监督学习,其训练不需要很多真实的样本

C.判别网络和生成网络的损失函数是没有冲突的,两者共同构成生

成对抗网络的总损失函数

D.判别网络和生成网络的训练是交替进行的

正确答案:D

14、 下面关于强化学习的描述中,哪个说法是错误的?

A.策略就是从环境感知的状态到在这些状态中可采用动作的一个映

B.强化学习不需要积累足够多的环境交互数据才能学习

C.奖赏函数(reward)对应强化学习问题中的目标

D. 随机策略选择估计报酬最大的动作

正确答案:D

15、 下面关于池化的描述中,错误的是哪个?

A.池化在CNN中可以防止过拟合,提高模型的泛化能力。

B.池化的常用方法包括最小化池化、全局池化。

C.池化是仿照人的视觉系统进行降维(降采样),用更高层的抽象

表达来表示图像特征。

D.平均池化能更多的保留图像的背景信息,最大池化能更多的保留

纹理信息。

正确答案:B

16、 下面关于卷积神经网络结构的描述,哪个是正确的说法?

A.深层网络结构中,隐层的特征表征一般与神经元的参数和样本有

关。

B.网络结构的层次越深,学习到的特征就一定越多。

C.神经元的数量是由网络的层数决定的。

D.网络的训练时间只与网络的层数有关。

正确答案:A

17、 假设一个全卷积神经网络,全连接层前的卷积层输出为

2424 25,其展开的向量长度为?

A.3600

B.224

C.144000

D.14400

正确答案:D

18、 提升卷积神经网络对图像的特征获取能力有效的方法不包括以

下哪些方面?

A.在不同隐层调整卷积核大小。

B.采用不同大小的卷积:在开始的卷积层采用大卷积核获得粗略的

特征,然后再后续的卷积层采用小卷积核获得细致的特征。

C.增加池化操作。

D.采用shortcut等方式,减少特征的损失。

正确答案:C

19、 长短期记忆网络(LSTM)中输入门的作用是以下哪项?

A.控制对当前时刻新输入信息的拟合。

B.负责协调与输出门的关系。

C.负责协调与遗忘门的关系。

D.存储网络输入产生的新信息。

正确答案:A

20、 当生成器产生的样本分布与真实样本分布不一致时,以下哪个

说法是错误的?

A.代价函数设计合理(例如使用了EM距离)可能稳定训练。

B.代价函数设计不合理(例如使用了KL散度)会出现训练不稳定的

结果。

C.出现了训练成功的算法(例如WGAN)。

D.无法训练成功。

正确答案:D

21、 下面有关数据增强,哪个说法错误的?

A.数据增强可以调整一些参数实现。

B.数据增强只有是样本数量少的情况下执行。

C.数据增强可以增加样本的数量,因此可以减少模型的过拟合。

D.数据增强产生的新样本不一定能增强训练精度。

正确答案:B

22、 与神经网络模型泛化能力相似的说法是哪个?

A.鲁棒性

B.对测试样本的推广能力

C.稳定性

D.对训练样本的拟合能力

正确答案:B

23、 对于3 * 3的特征图,采用dilation rate=2的空洞卷积,得到的特征

图大小是?

A.66
B.5
5

C.77
D.8
8

正确答案:B

24、 以下哪个网络没有使用skip connection?

A.Faster RCNN

B.ResNet

C.denseNet

D.UNet

正确答案:A

25、 在目标检测算法中,IoU(Intersection over Union)主要用于?

A.度量检测框的准确度

B.度量目标的大小和位置

C.度量检测框和真实框的重叠程度

D.度量分类结果的准确度

正确答案:C

26、 GAN中的Mode Collapse问题是指什么?

A.生成器只生成少数几种样本

B.生成器生成的样本与真实样本之间的差异非常小

C.生成器和判别器的目标函数无法收敛

D.判别器无法正确分类真实样本和生成样本

正确答案:A

27、 在RNN中,隐藏状态的作用是什么?

A.存储之前的信息,为后续计算提供输入

B.用于控制模型的复杂度

C.用于控制模型的学习速度

D.用于输出结果的计算

正确答案:A

28、 门控循环单元(GRU)相比LSTM有什么不同?

A.GRU的效果更好

B.GRU有2个门控单元,而LSTM有4个门控单元

C.GRU的计算速度更快

D.GRU只有1个门控单元,而LSTM有3个门控单元

正确答案:C

29、 在RNN中,使用Attention机制的目的是?

A.可以减少模型的过拟合

B.可以处理长序列数据

C.可以加速模型的训练

D.可以提高模型的准确率

正确答案:D

30、 注意力机制中,Softmax函数的作用是什么?

A.将注意力权重归一化

B.用于提取信息

C.计算注意力权重

D.用于计算损失函数

正确答案:A

二、多选题

1、 提高图像分类的准确度,可以考虑以下哪些方法?

A.数据增强,增加训练数据

B.调整超参

C.增加输入图像的分辨率

D.减少训练数据集

正确答案:A、B、C

2、 下面关于卷积神经网络的描述中,正确的说法是哪些?

A.卷积层通道数量越多或者通道对应的核大小越多样,获得的特征

就越充分

B.卷积是指对图像的窗口数据和卷积核做内积的操作,在训练过程

中卷积核的大小和值不变

C.SAME填充和VALID填充的主要区别是前者向图像边缘添加0值,而

后者可能对图像边缘的特征获取不足

D.局部感知使网络可以提取数据的局部特征,而权值共享大大增加

了网络的训练工作量

正确答案:A、C

3、 下面哪些关于卷积神经网络的说法是正确的?

A.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深

度能带来更强的网络表示能力

B.ReLU非线性激活函数的收敛速度比Sigmoid可能快一些

C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元

函数

D.输入一个300300的彩色图,经过10个5 5的卷积核,得到卷积层

的参数量为750(包括偏置)

正确答案:B、C

4、 有关Faster-RCNN的说法错误的是哪些?

A.候选区域的生成与目标分类、边框精修的工作是同一个子网络完

成的。

B.非极大值抑制(NMS)可以减少候选框的数量,一般放在候选区

域的目标分类和位置修正后完成。

C.目标分类与边框精修的输入来自于区域提名网络。

D.候选框的生成使用区域提名网络(RPN),比选择性搜索方法速度

要快。

正确答案:A、C

5、 以下哪些方法防止或减少梯度消失和梯度爆炸?

A.权重正则化

B.梯度截断

C.增加网络的层数

D.Leaky ReLU激活函数

正确答案:A、B、D

6、 下面有关神经网络小批量训练的批量对网络性能的影响说法哪些

是错误的?

A.批量大,网络检验样本集分类准确率较低,达到同样的网络分类

准确率需要更多的轮次。

B.批量越大,网络训练速度慢,但网络分类准确率高。

C.批量小,网络训练样本集损失减少越快,网络泛化能力较强

D.批量小,网络的准确率高,训练速度慢一些

正确答案:A、C、D

7、 以下哪些方法可以用于减少神经网络的过拟合问题?

A.批标准化

B.损失函数正则化

C.网络权重合理初始化

D.数据增强

正确答案:A、B、D

8、 有关depthwise卷积,以下哪些说法是正确的?

A.可以减少网络参数个数

B.提高卷积神经网络速度

C.增加卷积神经网络的特征获取能力

D.Mobilenet网络使用depthwise卷积

正确答案:A、B、D

9、 以下卷积神经网络模型没有全连接隐层的是哪些?

A.GoogleNet

B.AlexNet

C.VGG

D.ResNet

正确答案:A、D

10、 有关语义分割的说法,哪些是正确的叙述?

A.解决小物体分割可以使用空洞卷积和增大特征图的分辨率

B.图像质量不影响语义分割结果

C.语义分割使用的卷积神经网络是空间不变的( spatially invariant)

D.处理遮挡物体的分割问题可以使用生成对抗网络(GAN)

正确答案:A、D

三、判断题

1、 在设计卷积神经网络时,开始时网络的深度尽可能深一些,当这

个网络的性能还不错时,再考虑减少网络的层次,提升准确度。

正确答案:×

2、 训练神经网络选择越大的batch-size,可以使用越小的学习率,使

网络训练的损失函数下降越快。

正确答案:×

3、 Faster R-CNN算法输出层只预测Anchor Box的偏移值与置信度,而

不是候选框的坐标值,这样使神经网络学习更容易。

正确答案:√

4、 YOLO v2算法借鉴Faster RCNN算法,采用先验框,增加了候选区

域数量,降低了召回率。

正确答案:×

5、 对于欠拟合的卷积神经网络模型,可以增加模型的宽度或深度,

或者对数据集进行增强操作。

正确答案:√

相关推荐
不会玩技术的技术girl4 小时前
AI 自动化编程的现状与局限
运维·人工智能·自动化
玄明Hanko4 小时前
AI文献阅读ChatDOC 、ChatPDF 哪个好?
人工智能·chatdoc·chatpdf
Kai HVZ6 小时前
《机器学习》——KNN算法
人工智能·算法·机器学习
Nil_cxc6 小时前
机器学习周报-TCN文献阅读
人工智能·机器学习
人总该做点什么6 小时前
【机器学习】概述
人工智能·机器学习
feifeikon6 小时前
机器学习DAY7: 特征工程和特征选择(数据预处理)(完)
人工智能·机器学习
神一样的老师6 小时前
ViT-Reg:面向tinyML平台的回归聚焦型硬件感知微调Vision Transformer
人工智能
人总该做点什么6 小时前
【机器学习】回归
人工智能·机器学习·回归
Struart_R7 小时前
MoGe---最新单目3D几何估计方法
人工智能·深度学习·3d·transformer·单目深度估计·单目几何估计
玛哈特-小易7 小时前
玛哈特矫平机助力其龙机械,引领汽摩配件制造技术升级
java·大数据·人工智能·python·科技·制造