sheng的学习笔记-【中文】【吴恩达课后测验】Course 2 - 改善深层神经网络 - 第一周测验

课程2_第1周_测验题

目录:目录

第一题

1.如果你有10,000,000个例子,你会如何划分训练/验证/测试集?

A. 【  】33%训练,33%验证,33%测试

B. 【  】60%训练,20%验证,20%测试

C. 【  】98%训练,1%验证,20%测试

答案:

C.【 √ 】98%训练,1%验证,20%测试

第二题

2.验证集和测试集应该:

A. 【  】来自同一分布

B. 【  】来自不同分布

C. 【  】完全相同(一样的(x, y)对)

D. 【  】数据数量应该相同

答案:

A.【 √ 】来自同一分布

第三题

3.如果你的神经网络方差很高,下列哪个尝试是可能解决问题的?

A. 【  】添加正则项

B. 【  】获取更多测试数据

C. 【  】增加每个隐藏层的神经元数量

D. 【  】用更深的神经网络

E. 【  】用更多的训练数据

答案:

A.【 √ 】添加正则项

E.【 √ 】用更多的训练数据

第四题

4.你正在为苹果,香蕉和橘子制作分类器。 假设您的分类器在训练集上有0.5%的错误,以及验证集上有7%的错误。 以下哪项尝试是有希望改善你的分类器的分类效果的?

A. 【  】增大正则化参数 λ \lambda λ

B. 【  】减小正则化参数 λ \lambda λ

C. 【  】获取更多训练数据

D. 【  】用更大的神经网络

答案:

A.【 √ 】增大正则化参数 λ \lambda λ

C.【 √ 】获取更多训练数据

第五题

5.什么是权重衰减?

A. 【  】正则化技术(例如L2正则化)导致梯度下降在每次迭代时权重收缩

B. 【  】在训练过程中逐渐降低学习率的过程

C. 【  】如果神经网络是在噪声数据下训练的,那么神经网络的权值会逐渐损坏

D. 【  】通过对权重值设置上限来避免梯度消失的技术

答案:

A.【 √ 】正则化技术(例如L2正则化)导致梯度下降在每次迭代时权重收缩

第六题

6.当你增大正则化的超参数 λ \lambda λ时会发生什么?

A. 【  】权重变小(接近0)

B. 【  】权重变大(远离0)

C. 【  】2倍的 λ \lambda λ导致2倍的权重

D. 【  】每次迭代,梯度下降采取更大的步距(与 λ \lambda λ成正比)

答案:

A.【 √ 】权重变小(接近0)

第七题

7.在测试时候使用dropout:

A. 【  】不随机关闭神经元,但在训练中使用的计算中保留1 / keep_prob因子

B. 【  】随机关闭神经元,在训练中使用的计算中保留1 / keep_prob因子

C. 【  】随机关闭神经元,但不要在训练中使用的计算中保留1 / keep_prob因子

D. 【  】不随机关闭神经元,也不要在训练中使用的计算中保留1 / keep_prob因子

答案:

D.【 √ 】不随机关闭神经元,也不要在训练中使用的计算中保留1 / keep_prob因子

第八题

8.将参数keep_prob从(比如说)0.5增加到0.6可能会导致以下情况(选出所有正确项):

A. 【  】正则化效应被增强

B. 【  】正则化效应被减弱

C. 【  】训练集的误差会增加

D. 【  】训练集的误差会减小

答案:

B.【 √ 】正则化效应被减弱

D.【 √ 】训练集的误差会减小

第九题

9.以下哪些技术可用于减少方差(减少过拟合)?(选出所有正确项)

A. 【  】梯度消失

B. 【  】数据扩充

C. 【  】Dropout

D. 【  】梯度检查

E. 【  】Xavier初始化

F. 【  】L2正则化

G. 【  】梯度爆炸

答案:

B.【 √ 】数据扩充

C.【 √ 】Dropout

F.【 √ 】L2正则化

第十题

10.为什么要对输入 x x x进行归一化?

A. 【  】让参数初始化更快

B. 【  】让代价函数更快地优化

C. 【  】更容易做数据可视化

D. 【  】是另一种正则化------有助减少方差

答案:

B.【 √ 】让代价函数更快地优化

相关推荐
浊酒南街12 分钟前
吴恩达深度学习笔记:卷积神经网络(Foundations of Convolutional Neural Networks)4.9-4.10
人工智能·深度学习·神经网络·cnn
懒惰才能让科技进步34 分钟前
从零学习大模型(十二)-----基于梯度的重要性剪枝(Gradient-based Pruning)
人工智能·深度学习·学习·算法·chatgpt·transformer·剪枝
没有不重的名么1 小时前
门控循环单元GRU
人工智能·深度学习·gru
love_and_hope1 小时前
Pytorch学习--神经网络--搭建小实战(手撕CIFAR 10 model structure)和 Sequential 的使用
人工智能·pytorch·python·深度学习·学习
Chef_Chen1 小时前
从0开始学习机器学习--Day14--如何优化神经网络的代价函数
神经网络·学习·机器学习
小码编匠1 小时前
一款 C# 编写的神经网络计算图框架
后端·神经网络·c#
学术头条1 小时前
AI 的「phone use」竟是这样练成的,清华、智谱团队发布 AutoGLM 技术报告
人工智能·科技·深度学习·语言模型
孙同学要努力2 小时前
《深度学习》——深度学习基础知识(全连接神经网络)
人工智能·深度学习·神经网络
喵~来学编程啦2 小时前
【论文精读】LPT: Long-tailed prompt tuning for image classification
人工智能·深度学习·机器学习·计算机视觉·论文笔记
Chef_Chen4 小时前
从0开始学习机器学习--Day13--神经网络如何处理复杂非线性函数
神经网络·学习·机器学习