深度学习笔试选择题:题组1

题目(共9小题)

  1. (多选)关于BatchNorm和LayerNorm的区别,以下说法正确的是

A. BatchNorm的归一化依赖批次数据统计,LayerNorm的归一化仅依赖单个样本

B. BatchNorm在训练和推理时行为不同(需维护滑动均值),LayerNorm的行为始终一致

C. LayerNorm对硬件资源要求更低,因为它无需存储批次统计量

D. BatchNorm更适合处理变长席列(如文本数据),LayerNorm更适合固定尺寸的图像数据

  1. (单选)训练LLM时,以下哪种技术不能缓解梯度不稳定问题?

A. 梯度裁剪(Gradient Clipping)

B. 权重归一化(Weight Normalization)

C. 残差连接(Residual Connection)

D. 激活函数改用GELU

  1. (单选)卷积神经网络(CNN)中,池化层(Pooling)的主要作用是

A. 减少空间维度并保留关键特征

B. 直接输出分类结果

C. 替代全连接层

D. 增加模型参数量

  1. (单选)以下哪种方法不能有效解决语音识别中的方言/口音问题?

A. 使用对抗学习(Adversarial Learning)分离说话人特征与内容特征

B. 对输入语音进行全局均值归一化(CMVN)

C. 采用多任务学习联合训练方言分类器

D. 在训练数据中增加多方言语料

5.(单选)在模式识别中,ROC曲线被经常用来评价不同判别方法的性能。下列选项中,关于ROC曲线及相关概念说法正确的是

A. ROC曲线下的面积可能会经常出现小于0.5的情况

B. 假阳率是指在所有预测为负的样本中,预测结果为正的比例

C. ROC曲线也可以用来选择与分类有关的特征

D. ROC曲线和P-R曲线在正负样本分布发生变化时都容易产生较大的波动

6.(单选)下列哪个神经网络结构会发生权重共享?

A. 循环神经网络

B. 选项A和D

C. 全连接神经网络

D. 卷积神经网络

7.(多选)在比较Transformer和CNN时,以下哪些是Transformer的优点?

A. 更高的计算效率

B. 更容易实现序列到序列的转换

C. 更小的模型参数量

D. 更好的处理长距离依赖

  1. (多选)以下哪些是Transformer模型中的关键组件?

A. 卷积层 B. 位置编码 C. 残差连接 D. 多头注意力机制

9.(单选)在深度学习中,反向传播算法的作用是什么?

A. 更新神经网络的权重

B. 找到最佳的超参数组合

C. 计算损失函数的梯度

D. 预测未知数据的标签

解答

1.【答案】ABC

【解析】

  • 选项A​​:正确。BatchNorm的归一化依赖于整个批次数据的统计(均值和方差),而LayerNorm的归一化仅依赖于单个样本自身的统计,不依赖批次大小。

  • ​选项B​​:正确。BatchNorm在训练时需要计算批次统计并维护滑动均值/方差,在推理时使用这些滑动统计量,因此行为不同;LayerNorm在训练和推理时都使用当前样本的统计量,行为一致。

  • ​选项C​​:正确。LayerNorm不需要存储批次统计量或滑动平均,因此对内存等硬件资源要求相对较低;而BatchNorm需要存储滑动平均统计量,增加了内存开销。

  • ​选项D​​:错误。实际上,BatchNorm更适合固定尺寸的图像数据(因为批次统计要求固定尺寸),而LayerNorm更适合处理变长序列(如文本数据),因为它对每个样本独立归一化,不受序列长度变化影响。

因此,正确的选项是A、B和C。

2.【答案】B

【解析】

  • A. 梯度裁剪(Gradient Clipping)​​:直接通过裁剪梯度大小来防止梯度爆炸,能有效缓解梯度不稳定问题。

  • ​B. 权重归一化(Weight Normalization)​​:这是一种权重参数化技术,通过分解权重方向和大小时归一化,主要用于加速收敛和改善训练稳定性,但并非专门针对梯度不稳定问题。在LLM训练中,更常用的是层归一化(Layer Normalization),权重归一化效果有限,且可能无法直接缓解梯度消失或爆炸。

  • ​C. 残差连接(Residual Connection)​​:通过跳过连接允许梯度直接流动,有效减轻梯度消失问题,能缓解梯度不稳定。

  • ​D. 激活函数改用GELU​​:GELU激活函数具有平滑性,在负区域有非零梯度,能缓解梯度消失问题,从而改善梯度流动。

因此,​​权重归一化(Weight Normalization)​​ 不能有效缓解梯度不稳定问题,是正确答案。

3.【答案】A

**【解析】**卷积神经网络(CNN)中,池化层(Pooling Layer)的核心作用如下:

  1. ​降维(减少空间尺寸)​​:通过池化操作(如最大池化或平均池化)对特征图进行下采样,降低其宽度和高度,从而减少计算量和内存消耗。

  2. ​保留关键特征​​:池化会提取局部区域中最显著的特征(如最大池化保留最活跃的特征),增强模型对位置变化的鲁棒性(如平移不变性)。

  3. ​抑制过拟合​​:通过减少参数数量,降低模型复杂度,有助于防止过拟合。

为什么其他选项错误:

  • ​B. 直接输出分类结果​​:分类任务通常由全连接层和Softmax层完成,池化层仅用于特征提取和降维。

  • ​C. 替代全连接层​​:池化层和全连接层功能不同,无法相互替代。全连接层用于整合全局信息并输出分类结果。

  • ​D. 增加模型参数量​​:池化层本身没有可学习参数,且会降低特征图尺寸,反而减少后续层的参数量。

因此,选项A正确描述了池化层的主要作用。

4.【答案】B

【解析】

  • 选项A:使用对抗学习(Adversarial Learning)分离说话人特征与内容特征​

    这种方法能有效减少口音影响,通过对抗训练使模型专注于语音内容,而不是说话人特征(如口音),因此能改善方言识别。

  • ​选项B:对输入语音进行全局均值归一化(CMVN)​

    CMVN是一种语音预处理技术,主要用于标准化特征维度,减少信道噪声和说话人声学变化(如音量、音调),但并不能直接处理方言或口音的语言学差异。它只是统计归一化,无法捕捉方言特有的音素、语法或词汇变化,因此不能有效解决方言/口音问题。

  • ​选项C:采用多任务学习联合训练方言分类器​

    多任务学习能同时优化语音识别和方言分类任务,帮助模型学习方言不变的特征,从而提高对口音的鲁棒性,这是一种有效方法。

  • ​选项D:在训练数据中增加多方言语料​

    增加方言数据是最直接有效的方法,能让模型暴露于多样口音,提升泛化能力,因此能有效解决方言问题。

因此,选项B(对输入语音进行全局均值归一化)不能有效解决语音识别中的方言/口音问题。

5.【答案】C

【解析】

  • 选项A​​:ROC曲线下的面积(AUC)可能会经常出现小于0.5的情况。实际上,AUC小于0.5表示分类器性能比随机猜测还差,但这种情况并不常见,通常可以通过反转预测使AUC大于0.5。因此,AUC"经常"小于0.5的说法不正确。

  • ​选项B​​:假阳率(False Positive Rate, FPR)的定义是实际为负的样本中被错误预测为正的比例,即FPR = FP / (FP + TN)。选项B表述为"在所有预测为负的样本中,预测结果为正的比例",这是错误的,因为预测为负的样本中不可能出现预测为正的情况。

  • ​选项C​​:ROC曲线也可以用来选择与分类有关的特征。虽然ROC曲线主要用于评估分类器性能,但在实践中,通过比较不同特征或特征子集的AUC值,可以间接进行特征选择。例如,在生物信息学或机器学习中,AUC常用于评估特征重要性。因此,这个说法正确。

  • ​选项D​​:ROC曲线和P-R曲线在正负样本分布发生变化时都容易产生较大的波动。实际上,ROC曲线对样本分布不敏感,因为TPR和FPR都是比例值,不受类别不平衡影响;而P-R曲线对样本分布敏感,尤其当正样本稀少时。因此,这个说法错误。

6.【答案】B

**【解析】**根据神经网络的基础知识,权重共享是指神经网络中的多个部分使用相同的权重参数,这可以减少参数数量并提高模型效率。具体分析选项:

  • ​A. 循环神经网络(RNN)​​:在RNN中,相同的权重被用于每个时间步,因此存在权重共享。

  • ​B. 选项A和D​​:表示"循环神经网络和卷积神经网络",两者都有权重共享。

  • ​C. 全连接神经网络​​:每个神经元都有独立的权重,没有权重共享。

  • ​D. 卷积神经网络(CNN)​​:在CNN中,卷积核在输入上滑动,共享相同的权重,因此也有权重共享。

权重共享主要发生在循环神经网络(RNN)和卷积神经网络(CNN)中。因此,正确答案是​​B. 选项A和D​​(即RNN和CNN都有权重共享)。

7.【答案】BD

【解析】

  • A. 更高的计算效率​​:错误。Transformer的自注意力机制计算复杂度为O(n^2),其中n是序列长度,导致计算效率通常低于CNN(卷积计算效率更高,尤其是局部性和并行化)。

  • ​B. 更容易实现序列到序列的转换​​:正确。Transformer最初设计用于序列到序列任务(如机器翻译),其编码器-解码器结构自然适合这种转换,而CNN需要额外设计(如使用卷积序列模型)。

  • ​C. 更小的模型参数量​​:错误。Transformer模型(如BERT或GPT)通常有大量参数(例如多头注意力和前馈网络),参数量较大,而CNN可以通过深度可分离卷积等减少参数量。

  • ​D. 更好的处理长距离依赖​​:正确。Transformer的自注意力机制能直接捕获序列中任意两个位置之间的依赖关系,而CNN依赖多层卷积传递信息,可能丢失长距离信息。

因此,正确答案是​​B和D​​。

8.【答案】BCD

【解析】

  • A. 卷积层​​:Transformer模型不包含卷积层。它完全基于自注意力机制和前馈神经网络,因此卷积层不是其关键组件。

  • ​B. 位置编码​​:这是Transformer的关键组件之一。由于Transformer没有循环或卷积结构,它依赖位置编码来注入序列中元素的位置信息,使模型能处理顺序数据。

  • ​C. 残差连接​​:这也是Transformer的关键组件。每个子层(如注意力层和前馈层)都使用残差连接,有助于缓解梯度消失问题,加速训练深度网络。

  • ​D. 多头注意力机制​​:这是Transformer的核心组件。通过多头注意力,模型可以同时关注序列中不同位置的表示,捕获多种依赖关系。

因此,正确答案是​​B、C和D​​。

9.【答案】C

**【解析】**根据深度学习的基础知识,反向传播算法(Backpropagation)的主要作用是计算损失函数对神经网络权重的梯度。这个过程通过链式法则从输出层向输入层传播误差,从而得到每个权重的梯度值。这些梯度随后被优化算法(如梯度下降)用于更新权重,以最小化损失函数。

现在分析选项:

  • ​A. 更新神经网络的权重​​:不正确。更新权重是由优化算法(如梯度下降)完成的,反向传播只负责计算梯度。

  • ​B. 找到最佳的超参数组合​​:不正确。超参数优化需要通过其他方法(如网格搜索、贝叶斯优化)实现,与反向传播无关。

  • ​C. 计算损失函数的梯度​​:正确。这是反向传播算法的核心作用。

  • ​D. 预测未知数据的标签​​:不正确。预测是通过前向传播进行的,反向传播仅用于训练阶段。

因此,正确答案是 ​​C. 计算损失函数的梯度​​。

相关推荐
汉密士202401012 小时前
DeepSeek对数学工具的分类(2025.1.13)
人工智能·deepseek·数学工具·数学结构
北京地铁1号线2 小时前
计算机视觉笔试选择题:题组2
人工智能·计算机视觉
Lethehong2 小时前
本地AI部署成趋势:LocalAl+cpolar安全指南
人工智能·安全·内网穿透·cpolar
强化学习与机器人控制仿真3 小时前
LeRobot 入门教程(九)使用 Android、iOS 手机控制机械臂
开发语言·人工智能·stm32·深度学习·神经网络·算法·机器人
Phoenixtree_DongZhao3 小时前
《Nature》封面:DeepSeek-R1通过强化学习激发大语言模型的推理能力
人工智能·强化学习·混合专家
喜葵3 小时前
从x.ai到VSCode:一个AI编程助手的意外之旅
人工智能·vscode·ai编程
蒙帕智能运维3 小时前
FunASR:面向产业落地的端到端语音识别系统
人工智能·机器人·语音识别
机器之心3 小时前
大模型七连发,外国人馋透了!阿里云栖大会全栈升级够狠
人工智能·openai
zskj_zhyl3 小时前
七彩喜智慧养老:科技向善,让晚年生活绽放“喜”悦之光
人工智能·科技·物联网·机器人