【漫话机器学习系列】229.特征缩放对梯度下降的影响(The Effect Of Feature Scaling Gradient Descent)

特征缩放对梯度下降的影响:为什么特征标准化如此重要?

在机器学习和深度学习中,梯度下降是最常用的优化算法之一。然而,很多人在训练模型时会遇到收敛速度慢训练不稳定 的问题,其中一个重要原因就是特征未进行适当的缩放

本文通过一张直观的图,详细讲解特征缩放对梯度下降路径的影响,并配合示例代码,帮助你彻底理解这个概念。


1. 什么是特征缩放?

特征缩放(Feature Scaling)是将数据的特征值统一到一定范围(如 [-1,1] 或 [0,1])的过程。

常见的方法有:

  • 归一化(Normalization) :把数据缩放到固定范围(通常是[0,1])。
  • 标准化(Standardization) :使特征数据的均值为0,标准差为1。

常见的公式:

归一化:

<math xmlns="http://www.w3.org/1998/Math/MathML"> x ′ = x − min ⁡ ( x ) max ⁡ ( x ) − min ⁡ ( x ) x' = \frac{x - \min(x)}{\max(x) - \min(x)} </math>x′=max(x)−min(x)x−min(x)

标准化:

<math xmlns="http://www.w3.org/1998/Math/MathML"> x ′ = x − μ σ x' = \frac{x - \mu}{\sigma} </math>x′=σx−μ

其中,μ 是均值,σ 是标准差。


2. 特征缩放对梯度下降的影响

看一下下面这张图(来源于 Chris Albon 的手绘):

图的左半部分展示了未进行特征缩放 的情况;右半部分展示了进行了特征缩放的情况。

2.1 未进行特征缩放

  • 损失函数的等高线呈现出拉长的椭圆形(特征尺度不一致,X1、X2维度变化范围不同)。
  • 梯度下降沿着最陡方向前进,但由于方向不正确,导致路径"之"字形前进。
  • 整个收敛过程非常缓慢 ,且容易震荡

图中左边橙色箭头清晰显示了这种曲折前进的轨迹。

总结

特征缩放不一致 → 梯度下降"拐弯抹角" → 训练慢且不稳定。


2.2 进行了特征缩放

  • 等高线接近圆形,各特征对损失的贡献在同一量纲。
  • 梯度下降可以直接朝着最优解方向快速前进
  • 收敛速度大幅提升。

图中右边箭头直线指向中心,非常干脆利落。

总结

特征缩放一致 → 梯度下降快速直奔最优解 → 训练稳定且高效。


3. 为什么会这样?------从数学角度理解

梯度下降更新公式:

<math xmlns="http://www.w3.org/1998/Math/MathML"> θ = θ − η ∇ J ( θ ) \theta = \theta - \eta \nabla J(\theta) </math>θ=θ−η∇J(θ)

其中:

  • θ:模型参数
  • η:学习率
  • ∇J(θ):损失函数关于参数的梯度

如果各个特征的尺度差异很大,某些方向(例如 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 x_1 </math>x1)的梯度变化非常快,而另一些方向(例如 <math xmlns="http://www.w3.org/1998/Math/MathML"> x 2 x_2 </math>x2)的变化非常慢,导致梯度下降需要在各个方向上不断地调整,非常低效。

当特征缩放后,各方向上的变化速度均衡,梯度下降可以更稳定地朝着全局最优点前进。


4. 示例代码:如何在 PyTorch 中应用特征缩放

下面用一个小示例说明如何在实际训练中进行特征标准化。

ini 复制代码
import torch
from sklearn.preprocessing import StandardScaler

# 假设有一批特征数据
X = torch.tensor([
    [100.0, 1.0],
    [200.0, 2.0],
    [300.0, 3.0],
    [400.0, 4.0]
])

# 使用sklearn进行标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X.numpy())

print("原始数据:\n", X)
print("标准化后数据:\n", X_scaled)

# 将标准化后的数据转回Tensor用于后续训练
X_scaled = torch.tensor(X_scaled, dtype=torch.float32)

输出:

lua 复制代码
原始数据:
 tensor([[100.,   1.],
        [200.,   2.],
        [300.,   3.],
        [400.,   4.]])
标准化后数据:
 [[-1.3416408 -1.3416408]
 [ -0.4472136 -0.4472136]
 [  0.4472136  0.4472136]
 [  1.3416408  1.3416408]]

这样处理后的特征就不会因为数量级不同而影响梯度下降的速度和方向了!


5. 总结

  • 特征缩放是训练深度学习模型时非常重要的一步。
  • 特征未缩放时,梯度下降路径会变得弯曲,导致训练缓慢、不稳定。
  • 特征缩放后,可以显著加速收敛速度,提高训练稳定性。
  • 在实际建模中,始终推荐对输入特征进行标准化处理,尤其是在使用梯度下降优化器时。

建议:

今后在任何机器学习、深度学习项目中,在建模前加上特征缩放(尤其是标准化步骤)!这是最简单但效果最显著的性能提升方法之一!


如果你觉得这篇文章对你有帮助,别忘了点赞、收藏、关注哦!

未来我也会分享更多直观好懂的机器学习、深度学习知识!

如果你有其他想了解的内容,欢迎在评论区告诉我!

相关推荐
说私域12 分钟前
基于开源技术体系的品牌赛道力重构:AI智能名片与S2B2C商城小程序源码驱动的品类创新机制研究
人工智能·小程序·重构·开源·零售
智驱力人工智能19 分钟前
无感通行与精准管控:AI单元楼安全方案的技术融合实践
人工智能·安全·智慧城市·智慧园区
Chrome深度玩家26 分钟前
谷歌翻译安卓版拍照翻译精准度与语音识别评测【轻松交流】
android·人工智能·语音识别
机器之心39 分钟前
ICLR 2025 Oral|差分注意力机制引领变革,DIFF Transformer攻克长序列建模难题
人工智能
机器之心43 分钟前
字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题
人工智能
正宗咸豆花1 小时前
开源提示词管理平台PromptMinder使用体验
人工智能·开源·prompt
Lilith的AI学习日记1 小时前
AI提示词(Prompt)终极指南:从入门到精通(附实战案例)
大数据·人工智能·prompt·aigc·deepseek
夏之繁花1 小时前
AI图像编辑器 Luminar Neo 便携版 Win1.24.0.14794
人工智能
L2ncE1 小时前
【LanTech】DeepWiki 101 —— 以后不用自己写README了
人工智能·程序员·github
diygwcom1 小时前
nextjs整合快速整合市面上各种AI进行prompt连调测试
人工智能