神经网络之向量降维

一、为什么要进行向量降维

语义向量(如词向量、句向量)通常位于高维空间中。高维表示虽然能捕捉细微差别,但也带来几个问题:

  1. 数据冗余(Redundancy)

    • 语言中的许多特征是相关的。
      例如,"国王(king)"与"王后(queen)"在大多数语境中共现模式相似,它们的高维特征往往线性相关。
    • 这意味着空间中存在大量冗余维度,许多特征维度传递的是相似信息。
  2. 噪声干扰(Noise)

    • 高维数据中包含许多"偶然共现"或局部统计噪声,例如某个词偶然出现在不相关的语境中。
    • 这些随机因素会让语义空间变得稀疏且复杂,掩盖真正稳定的语义规律。
  3. 计算与存储成本高

    • 高维向量不仅占用更大的存储空间,也使得相似度计算、聚类、可视化等操作更加困难。

因此,我们希望通过向量降维(Dimensionality Reduction)

  • 去除冗余与噪声;
  • 压缩信息以便计算;
  • 同时保留语义结构的核心规律。

二、为什么降维后仍能保留数据的分布规律

降维的关键思想是:

数据虽然位于高维空间中,但真正有意义的变化往往集中在少数几个方向上。

PCASVD 这样的线性降维方法,会通过数学手段找到这些方向------

也就是数据方差最大的主方向(principal directions)

1. 方差大的方向代表主要结构

  • 方差表示数据在某个方向上的"变化程度"。

  • 若方差大,说明数据在该方向上分布得最开,能揭示出全局的规律性变化。

  • 在语义空间中,这些方向往往对应于稳定的语义模式,例如:

    • 性别(man--woman)
    • 地位(king--servant)
    • 地理(Paris--Tokyo)
    • 语法类别(noun--verb)

2. 方差小的方向多为噪声

  • 若在某个方向上,词向量几乎重叠(方差小),说明该方向不能区分词语间差异;
  • 这些微弱波动往往源于偶然共现或数据偏差;
  • 因此降维会压缩掉这些噪声维度

3. 保留主要方差方向 = 保留语义结构

降维后,词向量虽然变成低维的,但它们在这些主方向上的相对位置关系(距离、方向)依然保持一致。

换句话说:

  • 语义相近的词依然彼此靠近;
  • 语义变化(如 king → queen)依然沿着相同的方向变化。

这就是为什么降维能在压缩数据的同时,保留语义分布规律与几何结构


✅ 总结一句话

我们进行向量降维,是为了去冗余、降噪声、提取主要语义模式。

而之所以能保留语义结构,是因为降维方法抓住了数据中方差最大、最稳定的变化方向

这些方向恰好对应于语言的主要语义规律。

相关推荐
AI_小站4 小时前
6个GitHub爆火的免费大模型教程,助你快速进阶AI编程
人工智能·langchain·github·知识图谱·agent·llama·rag
xindoo4 小时前
GitHub Trending霸榜!深度解析AI Coding辅助神器 Superpowers
人工智能·github
时间之里5 小时前
【深度学习】:RF-DETR与yolo对比
人工智能·深度学习·yolo
北京阿法龙科技有限公司5 小时前
数智化升级:AR 智能眼镜驱动工业运维效能革新
人工智能
风落无尘5 小时前
《智能重生:从垃圾堆到AI工程师》——第二章 概率与生存
大数据·人工智能
j_xxx404_5 小时前
Linux:静态链接与动态链接深度解析
linux·运维·服务器·c++·人工智能
收获不止数据库5 小时前
达梦9发布会归来:AI 时代,我们需要一款什么样的数据库?
数据库·人工智能·ai·语言模型·数据分析
hhb_6185 小时前
AI全栈编程生存指南
人工智能
AI-Frontiers5 小时前
transformer进阶之路:#2 工作原理详解
人工智能·深度学习·transformer
科研前沿5 小时前
2026 数字孪生前沿科技:全景迭代报告 —— 镜像视界生成式孪生(Generative DT)技术白皮书
大数据·人工智能·科技·算法·音视频·空间计算