吴恩达深度学习课程二: 改善深层神经网络 第一周:深度学习的实践(五)归一化

此分类用于记录吴恩达深度学习课程的学习笔记。

课程相关信息链接如下:

  1. 原课程视频链接:[双语字幕]吴恩达深度学习deeplearning.ai
  2. github课程资料,含课件与笔记:吴恩达深度学习教学资料
  3. 课程配套练习(中英)与答案:吴恩达深度学习课后习题与答案

本篇为第二课第一周的内容,1.9的内容。


本周为第二课的第一周内容,就像课题名称一样,本周更偏向于深度学习实践中出现的问题和概念,在有了第一课的机器学习和数学基础后,可以说,在理解上对本周的内容不会存在什么难度。

当然,我也会对一些新出现的概念补充一些基础内容来帮助理解,在有之前基础的情况下,按部就班即可对本周内容有较好的掌握。

在学习完一些缓解过拟合的方法后,我们便可以较好的训练神经网络,而不至于出现因为模型复杂度上升反而导致模型性能下降的情况

这样,神经网络就可以较好的拟合数据。

而这一部分的内容,就是在这个基础上如何加快神经网络的训练,实现更快,更稳定地收敛

1.归一化

还是先把概念摆出来:

归一化(Normalization)是指将数据按一定的比例或标准进行调整,使得数据的数值范围或分布符合某种特定的要求。通常,归一化的目标是将数据转化为统一的尺度,便于不同数据之间的比较或用于某些算法中。

要提前说明的是,下面的笔记内容介绍的只是归一化方法中最普适的一种,叫Z-Score标准化(标准差标准化),也可以直接叫标准化。

1.1 标准化的步骤

(1)计算样本的均值

对每一维特征,计算其均值 \(\mu\) 。

\[\mu = \frac{1}{N}\sum_{i=1}^{N} x_i \]

我们用一组数据在每一步进行相应处理来演示这个完整的过程:

原始样本:\([10, 12, 9, 15, 14]\),样本数 \(N=5\)

\[\mu = \frac{10 + 12 + 9 + 15 + 14}{5} = \frac{60}{5} = 12.0 \]

(2)计算每个样本与均值的差 \((x - \mu)\) 以及平方差

样本 \(x\) \(x - \mu\) \((x - \mu)^2\)
10 -2 4
12 0 0
9 -3 9
15 3 9
14 2 4

(3)计算方差与标准差

总体方差(分母使用 \(N\)):

\[\sigma^2 = \frac{1}{N}\sum_{i=1}^{N}(x_i-\mu)^2 = \frac{26}{5} = 5.2 \]

总体标准差:

\[\sigma = \sqrt{\sigma^2} = \sqrt{5.2} \approx 2.280351 \]

(4)执行标准化变换

每个样本的标准化结果:

\[z = \frac{x - \mu}{\sigma} \]

逐项计算:

\(x\) \(x-\mu\) \(z = \frac{x-\mu}{\sigma}\)
10 -2 -0.877058
12 0 0.000000
9 -3 -1.315587
15 3 1.315587
14 2 0.877058

因此标准化后的结果为:

\[[-0.877058,\ 0.0,\ -1.315587,\ 1.315587,\ 0.877058] \]

这样,我们就对数据完成了一次标准化,那进行这些步骤的作用又是什么呢?

1.2标准化的作用

我们来看一下各个步骤后,样本数据的变化:

这是未经处理的原始数据,现在,我们按照标准化公式一步步进行:

\[z = \frac{x - \mu}{\sigma} \]

将各数据减去均值,这一步也叫做中心化 ,此时数据分布如下:

可以发现,中心化后,数据的均值变为 0

\[ \frac{1}{N}\sum_{i=1}^{N} z_i = 0 \]

现在,我们再把中心化的数据除以标准差,此时数据分布如下:

经过这一步,标准化后数据的标准差为 1

\[\sqrt{\frac{1}{N}\sum_{i=1}^{N}(z_i - 0)^2} = 1 \]

也就是说,标准化后,数据的均值变为0,标准差变为1,这是它的作用,可这样的变换又是如何帮助训练的呢?

我们继续下一节。

1.3 标准化如何帮助训练?

(1)消除量纲差距的同时保持特征信息

在现实数据中,不同特征往往有不同的单位或数量级

例如,在一个房价预测模型中:

  • 房屋面积以"平方米"计,数值可能在几十到几百;
  • 房间数量只在"1~5"之间变化。
    如果不做标准化,面积特征的值远大于房间数,模型在更新参数时会更偏向面积,而忽视房间数量的影响。

对此,标准化这样解决这个问题:

  • 中心化 :将每个特征的均值移动到 0,使数据以 0 为中心,正负对称,方便神经网络处理。
  • 除以标准差 :标准差就像一个"伸缩尺",根据特征自身的波动范围对数据进行拉伸或压缩 ,波动大的特征被压缩幅度大,波动小的特征被压缩幅度小,从而统一特征尺度。
    要说明的是,除以标准差精妙的地方在于统一尺度的同时保留了同一特征内的差距

举个例子:

对于两个人的年龄,一个人20岁,一个人10岁。

压缩后,前一个人变成了2岁,后一个人变成了1岁。
但是他们之间的差别关系没有变化,前者仍比后者大,我们只是把跨度从10岁缩小从了1岁来减少波动性。模型依旧可以区分两个样本的差别。

我们再用房屋的实例说明来整体演示一下:

  1. 设房屋面积原始值:[50, 120, 200, 300, 400], 房间数原始值:[1, 2, 3, 4, 5]
  2. 中心化后:面积:[−167, −97, −17, 83, 183],房间数:[−2, −1, 0, 1, 2]
  3. 除以标准差 (面积 σ≈145.44,房间数 σ≈1.414)后: 面积标准化:[−1.15, −0.67, −0.12, 0.57, 1.26], 房间数标准化:[−1.41, −0.71, 0, 0.71, 1.41]
    这样,通过标准化,面积和房间数都被缩放到大致相似的范围,梯度更新时影响力平衡,同时保持了各房屋之间的相对差异。
    可以形象地理解为:每个特征都被配上了"统一的尺子",让它们在同一尺度下公平竞争,既消除了量纲差距,又保持原始信息。

(2)平衡含正负值的数据集

标准化后的数据以 0 为中心,分布更对称,特别适合使用如 tanh、ReLU 等激活函数的神经网络。

我们用tanh举例:

如果输入特征全是正数,tanh 的输出始终偏向 1 区域,梯度几乎为 0,学习停滞。

而经过标准化后,输入既有正又有负,输出能覆盖整个区间,梯度保持活跃,网络学习更充分。

这便是关于归一化的内容,下一篇便是本周理论部分的最后一篇,是关于网络运行中一些常见的梯度现象和其应对方法。

相关推荐
杭州杭州杭州8 小时前
深度学习(1)---基础概念扫盲
人工智能·深度学习
金智维科技官方8 小时前
破解流程内耗,金智维流程自动化平台如何激活企业效率?
人工智能·ai·自动化·数字化
Brsentibi8 小时前
深度学习—数据标注—label-studio
深度学习·数据标注·label-studio·yolo数据集自制
utmhikari8 小时前
【GitHub探索】代码开发AI辅助工具trae-agent
人工智能·ai·大模型·llm·github·agent·trae
亚里随笔10 小时前
ReSpec:突破RL训练瓶颈的推测解码优化系统
人工智能·深度学习·自然语言处理·大语言模型·rlhf
CoderJia程序员甲10 小时前
GitHub 热榜项目 - 日榜(2025-11-02)
ai·开源·大模型·github·ai教程
CoovallyAIHub11 小时前
视觉语言模型(VLM)深度解析:如何用它来处理文档?
深度学习·算法·计算机视觉
CoovallyAIHub11 小时前
估值百亿独角兽创始人硕士论文曝光!宇树科技王兴兴的“性价比”思维10年前就已注定
深度学习·算法·计算机视觉
盼哥PyAI实验室12 小时前
用 Trae AI 编程打造我的个人成长空间:旅行、相册、我的信息模块全上线!
人工智能·ai·ai编程