sheng的学习笔记-【中文】【吴恩达课后测验】Course 2 - 改善深层神经网络 - 第一周测验

课程2_第1周_测验题

目录:目录

第一题

1.如果你有10,000,000个例子,你会如何划分训练/验证/测试集?

A. 【  】33%训练,33%验证,33%测试

B. 【  】60%训练,20%验证,20%测试

C. 【  】98%训练,1%验证,20%测试

答案:

C.【 √ 】98%训练,1%验证,20%测试

第二题

2.验证集和测试集应该:

A. 【  】来自同一分布

B. 【  】来自不同分布

C. 【  】完全相同(一样的(x, y)对)

D. 【  】数据数量应该相同

答案:

A.【 √ 】来自同一分布

第三题

3.如果你的神经网络方差很高,下列哪个尝试是可能解决问题的?

A. 【  】添加正则项

B. 【  】获取更多测试数据

C. 【  】增加每个隐藏层的神经元数量

D. 【  】用更深的神经网络

E. 【  】用更多的训练数据

答案:

A.【 √ 】添加正则项

E.【 √ 】用更多的训练数据

第四题

4.你正在为苹果,香蕉和橘子制作分类器。 假设您的分类器在训练集上有0.5%的错误,以及验证集上有7%的错误。 以下哪项尝试是有希望改善你的分类器的分类效果的?

A. 【  】增大正则化参数 λ \lambda λ

B. 【  】减小正则化参数 λ \lambda λ

C. 【  】获取更多训练数据

D. 【  】用更大的神经网络

答案:

A.【 √ 】增大正则化参数 λ \lambda λ

C.【 √ 】获取更多训练数据

第五题

5.什么是权重衰减?

A. 【  】正则化技术(例如L2正则化)导致梯度下降在每次迭代时权重收缩

B. 【  】在训练过程中逐渐降低学习率的过程

C. 【  】如果神经网络是在噪声数据下训练的,那么神经网络的权值会逐渐损坏

D. 【  】通过对权重值设置上限来避免梯度消失的技术

答案:

A.【 √ 】正则化技术(例如L2正则化)导致梯度下降在每次迭代时权重收缩

第六题

6.当你增大正则化的超参数 λ \lambda λ时会发生什么?

A. 【  】权重变小(接近0)

B. 【  】权重变大(远离0)

C. 【  】2倍的 λ \lambda λ导致2倍的权重

D. 【  】每次迭代,梯度下降采取更大的步距(与 λ \lambda λ成正比)

答案:

A.【 √ 】权重变小(接近0)

第七题

7.在测试时候使用dropout:

A. 【  】不随机关闭神经元,但在训练中使用的计算中保留1 / keep_prob因子

B. 【  】随机关闭神经元,在训练中使用的计算中保留1 / keep_prob因子

C. 【  】随机关闭神经元,但不要在训练中使用的计算中保留1 / keep_prob因子

D. 【  】不随机关闭神经元,也不要在训练中使用的计算中保留1 / keep_prob因子

答案:

D.【 √ 】不随机关闭神经元,也不要在训练中使用的计算中保留1 / keep_prob因子

第八题

8.将参数keep_prob从(比如说)0.5增加到0.6可能会导致以下情况(选出所有正确项):

A. 【  】正则化效应被增强

B. 【  】正则化效应被减弱

C. 【  】训练集的误差会增加

D. 【  】训练集的误差会减小

答案:

B.【 √ 】正则化效应被减弱

D.【 √ 】训练集的误差会减小

第九题

9.以下哪些技术可用于减少方差(减少过拟合)?(选出所有正确项)

A. 【  】梯度消失

B. 【  】数据扩充

C. 【  】Dropout

D. 【  】梯度检查

E. 【  】Xavier初始化

F. 【  】L2正则化

G. 【  】梯度爆炸

答案:

B.【 √ 】数据扩充

C.【 √ 】Dropout

F.【 √ 】L2正则化

第十题

10.为什么要对输入 x x x进行归一化?

A. 【  】让参数初始化更快

B. 【  】让代价函数更快地优化

C. 【  】更容易做数据可视化

D. 【  】是另一种正则化------有助减少方差

答案:

B.【 √ 】让代价函数更快地优化

相关推荐
cskywit20 分钟前
【BIBM2025】 MedMamba-YOLO:医疗目标检测,当 YOLO 遇见轻量级 Mamba
深度学习·yolo·目标检测
AI技术控30 分钟前
Prompt Engineering 在企业大模型应用中的实践:从提示词模板到可控输出
人工智能·python·深度学习·语言模型·自然语言处理·prompt
手写码匠1 小时前
手写 AI Prompt Injection 防护系统:从零实现 LLM 安全边界
人工智能·深度学习·算法·aigc
QBoson1 小时前
Cell :D-SPIN 从单细胞转录组构建调控网络,解析细胞扰动响应底层逻辑
人工智能·神经网络·机器学习
小何code2 小时前
人工智能【第31篇】生成对抗网络GAN入门:AI的创造力之源
深度学习·生成对抗网络·gan·图像生成
穗余2 小时前
大模型注意力机制(Attention)精讲总结
人工智能·深度学习·自然语言处理
晓蓝WQuiet2 小时前
GAN生成对抗网络
人工智能·神经网络·生成对抗网络
幻奏岚音2 小时前
AI时代生产力变革与高效使用
大数据·人工智能·深度学习
沪漂阿龙2 小时前
面试题:PEFT 参数高效微调详解——什么是 PEFT、为什么需要 PEFT、LoRA/QLoRA/Adapter 原理与优缺点全解析
人工智能·深度学习
Dontla2 小时前
RAG向量模型维度(向量维度)神经网络训练出来的隐式特征、同一个collection必须固定维度、维度灾难、隐藏层大小hidden size、语义坐标系
人工智能·神经网络·机器学习