sheng的学习笔记-【中文】【吴恩达课后测验】Course 2 - 改善深层神经网络 - 第一周测验

课程2_第1周_测验题

目录:目录

第一题

1.如果你有10,000,000个例子,你会如何划分训练/验证/测试集?

A. 【  】33%训练,33%验证,33%测试

B. 【  】60%训练,20%验证,20%测试

C. 【  】98%训练,1%验证,20%测试

答案:

C.【 √ 】98%训练,1%验证,20%测试

第二题

2.验证集和测试集应该:

A. 【  】来自同一分布

B. 【  】来自不同分布

C. 【  】完全相同(一样的(x, y)对)

D. 【  】数据数量应该相同

答案:

A.【 √ 】来自同一分布

第三题

3.如果你的神经网络方差很高,下列哪个尝试是可能解决问题的?

A. 【  】添加正则项

B. 【  】获取更多测试数据

C. 【  】增加每个隐藏层的神经元数量

D. 【  】用更深的神经网络

E. 【  】用更多的训练数据

答案:

A.【 √ 】添加正则项

E.【 √ 】用更多的训练数据

第四题

4.你正在为苹果,香蕉和橘子制作分类器。 假设您的分类器在训练集上有0.5%的错误,以及验证集上有7%的错误。 以下哪项尝试是有希望改善你的分类器的分类效果的?

A. 【  】增大正则化参数 λ \lambda λ

B. 【  】减小正则化参数 λ \lambda λ

C. 【  】获取更多训练数据

D. 【  】用更大的神经网络

答案:

A.【 √ 】增大正则化参数 λ \lambda λ

C.【 √ 】获取更多训练数据

第五题

5.什么是权重衰减?

A. 【  】正则化技术(例如L2正则化)导致梯度下降在每次迭代时权重收缩

B. 【  】在训练过程中逐渐降低学习率的过程

C. 【  】如果神经网络是在噪声数据下训练的,那么神经网络的权值会逐渐损坏

D. 【  】通过对权重值设置上限来避免梯度消失的技术

答案:

A.【 √ 】正则化技术(例如L2正则化)导致梯度下降在每次迭代时权重收缩

第六题

6.当你增大正则化的超参数 λ \lambda λ时会发生什么?

A. 【  】权重变小(接近0)

B. 【  】权重变大(远离0)

C. 【  】2倍的 λ \lambda λ导致2倍的权重

D. 【  】每次迭代,梯度下降采取更大的步距(与 λ \lambda λ成正比)

答案:

A.【 √ 】权重变小(接近0)

第七题

7.在测试时候使用dropout:

A. 【  】不随机关闭神经元,但在训练中使用的计算中保留1 / keep_prob因子

B. 【  】随机关闭神经元,在训练中使用的计算中保留1 / keep_prob因子

C. 【  】随机关闭神经元,但不要在训练中使用的计算中保留1 / keep_prob因子

D. 【  】不随机关闭神经元,也不要在训练中使用的计算中保留1 / keep_prob因子

答案:

D.【 √ 】不随机关闭神经元,也不要在训练中使用的计算中保留1 / keep_prob因子

第八题

8.将参数keep_prob从(比如说)0.5增加到0.6可能会导致以下情况(选出所有正确项):

A. 【  】正则化效应被增强

B. 【  】正则化效应被减弱

C. 【  】训练集的误差会增加

D. 【  】训练集的误差会减小

答案:

B.【 √ 】正则化效应被减弱

D.【 √ 】训练集的误差会减小

第九题

9.以下哪些技术可用于减少方差(减少过拟合)?(选出所有正确项)

A. 【  】梯度消失

B. 【  】数据扩充

C. 【  】Dropout

D. 【  】梯度检查

E. 【  】Xavier初始化

F. 【  】L2正则化

G. 【  】梯度爆炸

答案:

B.【 √ 】数据扩充

C.【 √ 】Dropout

F.【 √ 】L2正则化

第十题

10.为什么要对输入 x x x进行归一化?

A. 【  】让参数初始化更快

B. 【  】让代价函数更快地优化

C. 【  】更容易做数据可视化

D. 【  】是另一种正则化------有助减少方差

答案:

B.【 √ 】让代价函数更快地优化

相关推荐
牧歌悠悠5 小时前
【深度学习】Unet的基础介绍
人工智能·深度学习·u-net
Archie_IT6 小时前
DeepSeek R1/V3满血版——在线体验与API调用
人工智能·深度学习·ai·自然语言处理
大数据追光猿6 小时前
Python应用算法之贪心算法理解和实践
大数据·开发语言·人工智能·python·深度学习·算法·贪心算法
Watermelo6179 小时前
从DeepSeek大爆发看AI革命困局:大模型如何突破算力囚笼与信任危机?
人工智能·深度学习·神经网络·机器学习·ai·语言模型·自然语言处理
Donvink9 小时前
【DeepSeek-R1背后的技术】系列九:MLA(Multi-Head Latent Attention,多头潜在注意力)
人工智能·深度学习·语言模型·transformer
计算机软件程序设计9 小时前
深度学习在图像识别中的应用-以花卉分类系统为例
人工智能·深度学习·分类
終不似少年遊*12 小时前
词向量与词嵌入
人工智能·深度学习·nlp·机器翻译·词嵌入
夏莉莉iy15 小时前
[MDM 2024]Spatial-Temporal Large Language Model for Traffic Prediction
人工智能·笔记·深度学习·机器学习·语言模型·自然语言处理·transformer
pchmi15 小时前
CNN常用卷积核
深度学习·神经网络·机器学习·cnn·c#
pzx_00116 小时前
【机器学习】K折交叉验证(K-Fold Cross-Validation)
人工智能·深度学习·算法·机器学习