【漫话机器学习系列】229.特征缩放对梯度下降的影响(The Effect Of Feature Scaling Gradient Descent)

特征缩放对梯度下降的影响:为什么特征标准化如此重要?

在机器学习和深度学习中,梯度下降是最常用的优化算法之一。然而,很多人在训练模型时会遇到收敛速度慢训练不稳定 的问题,其中一个重要原因就是特征未进行适当的缩放

本文通过一张直观的图,详细讲解特征缩放对梯度下降路径的影响,并配合示例代码,帮助你彻底理解这个概念。


1. 什么是特征缩放?

特征缩放(Feature Scaling)是将数据的特征值统一到一定范围(如 [-1,1] 或 [0,1])的过程。

常见的方法有:

  • 归一化(Normalization) :把数据缩放到固定范围(通常是[0,1])。
  • 标准化(Standardization) :使特征数据的均值为0,标准差为1。

常见的公式:

归一化:

<math xmlns="http://www.w3.org/1998/Math/MathML"> x ′ = x − min ⁡ ( x ) max ⁡ ( x ) − min ⁡ ( x ) x' = \frac{x - \min(x)}{\max(x) - \min(x)} </math>x′=max(x)−min(x)x−min(x)

标准化:

<math xmlns="http://www.w3.org/1998/Math/MathML"> x ′ = x − μ σ x' = \frac{x - \mu}{\sigma} </math>x′=σx−μ

其中,μ 是均值,σ 是标准差。


2. 特征缩放对梯度下降的影响

看一下下面这张图(来源于 Chris Albon 的手绘):

图的左半部分展示了未进行特征缩放 的情况;右半部分展示了进行了特征缩放的情况。

2.1 未进行特征缩放

  • 损失函数的等高线呈现出拉长的椭圆形(特征尺度不一致,X1、X2维度变化范围不同)。
  • 梯度下降沿着最陡方向前进,但由于方向不正确,导致路径"之"字形前进。
  • 整个收敛过程非常缓慢 ,且容易震荡

图中左边橙色箭头清晰显示了这种曲折前进的轨迹。

总结

特征缩放不一致 → 梯度下降"拐弯抹角" → 训练慢且不稳定。


2.2 进行了特征缩放

  • 等高线接近圆形,各特征对损失的贡献在同一量纲。
  • 梯度下降可以直接朝着最优解方向快速前进
  • 收敛速度大幅提升。

图中右边箭头直线指向中心,非常干脆利落。

总结

特征缩放一致 → 梯度下降快速直奔最优解 → 训练稳定且高效。


3. 为什么会这样?------从数学角度理解

梯度下降更新公式:

<math xmlns="http://www.w3.org/1998/Math/MathML"> θ = θ − η ∇ J ( θ ) \theta = \theta - \eta \nabla J(\theta) </math>θ=θ−η∇J(θ)

其中:

  • θ:模型参数
  • η:学习率
  • ∇J(θ):损失函数关于参数的梯度

如果各个特征的尺度差异很大,某些方向(例如 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 x_1 </math>x1)的梯度变化非常快,而另一些方向(例如 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 2 x_2 </math>x2)的变化非常慢,导致梯度下降需要在各个方向上不断地调整,非常低效。

当特征缩放后,各方向上的变化速度均衡,梯度下降可以更稳定地朝着全局最优点前进。


4. 示例代码:如何在 PyTorch 中应用特征缩放

下面用一个小示例说明如何在实际训练中进行特征标准化。

ini 复制代码
import torch
from sklearn.preprocessing import StandardScaler

# 假设有一批特征数据
X = torch.tensor([
    [100.0, 1.0],
    [200.0, 2.0],
    [300.0, 3.0],
    [400.0, 4.0]
])

# 使用sklearn进行标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X.numpy())

print("原始数据:\n", X)
print("标准化后数据:\n", X_scaled)

# 将标准化后的数据转回Tensor用于后续训练
X_scaled = torch.tensor(X_scaled, dtype=torch.float32)

输出:

lua 复制代码
原始数据:
 tensor([[100.,   1.],
        [200.,   2.],
        [300.,   3.],
        [400.,   4.]])
标准化后数据:
 [[-1.3416408 -1.3416408]
 [ -0.4472136 -0.4472136]
 [  0.4472136  0.4472136]
 [  1.3416408  1.3416408]]

这样处理后的特征就不会因为数量级不同而影响梯度下降的速度和方向了!


5. 总结

  • 特征缩放是训练深度学习模型时非常重要的一步。
  • 特征未缩放时,梯度下降路径会变得弯曲,导致训练缓慢、不稳定。
  • 特征缩放后,可以显著加速收敛速度,提高训练稳定性。
  • 在实际建模中,始终推荐对输入特征进行标准化处理,尤其是在使用梯度下降优化器时。

建议:

今后在任何机器学习、深度学习项目中,在建模前加上特征缩放(尤其是标准化步骤)!这是最简单但效果最显著的性能提升方法之一!


如果你觉得这篇文章对你有帮助,别忘了点赞、收藏、关注哦!

未来我也会分享更多直观好懂的机器学习、深度学习知识!

如果你有其他想了解的内容,欢迎在评论区告诉我!

相关推荐
whabc1006 分钟前
和鲸社区深度学习基础训练营2025年关卡2(2)sklearn中的MLPClassifier
人工智能·深度学习·numpy
往日情怀酿做酒 V176392963829 分钟前
pytorch的介绍以及张量的创建
人工智能·pytorch·python
北辰alk41 分钟前
如何实现AI多轮对话功能及解决对话记忆持久化问题
人工智能
智驱力人工智能41 分钟前
极端高温下的智慧出行:危险检测与救援
人工智能·算法·安全·行为识别·智能巡航·高温预警·高温监测
Leo.yuan1 小时前
数据分析师如何构建自己的底层逻辑?
大数据·数据仓库·人工智能·数据挖掘·数据分析
笑稀了的野生俊1 小时前
ImportError: /lib/x86_64-linux-gnu/libc.so.6: version GLIBC_2.32‘ not found
linux·人工智能·ubuntu·大模型·glibc·flash-attn
吕永强1 小时前
意识边界的算法战争—脑机接口技术重构人类认知的颠覆性挑战
人工智能·科普
二二孚日1 小时前
自用华为ICT云赛道AI第三章知识点-昇腾芯片硬件架构,昇腾芯片软件架构
人工智能·华为
蹦蹦跳跳真可爱5892 小时前
Python----OpenCV(几何变换--图像平移、图像旋转、放射变换、图像缩放、透视变换)
开发语言·人工智能·python·opencv·计算机视觉
蹦蹦跳跳真可爱5892 小时前
Python----循环神经网络(Transformer ----Layer-Normalization(层归一化))
人工智能·python·rnn·transformer