神经网络之向量降维

一、为什么要进行向量降维

语义向量(如词向量、句向量)通常位于高维空间中。高维表示虽然能捕捉细微差别,但也带来几个问题:

  1. 数据冗余(Redundancy)

    • 语言中的许多特征是相关的。
      例如,"国王(king)"与"王后(queen)"在大多数语境中共现模式相似,它们的高维特征往往线性相关。
    • 这意味着空间中存在大量冗余维度,许多特征维度传递的是相似信息。
  2. 噪声干扰(Noise)

    • 高维数据中包含许多"偶然共现"或局部统计噪声,例如某个词偶然出现在不相关的语境中。
    • 这些随机因素会让语义空间变得稀疏且复杂,掩盖真正稳定的语义规律。
  3. 计算与存储成本高

    • 高维向量不仅占用更大的存储空间,也使得相似度计算、聚类、可视化等操作更加困难。

因此,我们希望通过向量降维(Dimensionality Reduction)

  • 去除冗余与噪声;
  • 压缩信息以便计算;
  • 同时保留语义结构的核心规律。

二、为什么降维后仍能保留数据的分布规律

降维的关键思想是:

数据虽然位于高维空间中,但真正有意义的变化往往集中在少数几个方向上。

PCASVD 这样的线性降维方法,会通过数学手段找到这些方向------

也就是数据方差最大的主方向(principal directions)

1. 方差大的方向代表主要结构

  • 方差表示数据在某个方向上的"变化程度"。

  • 若方差大,说明数据在该方向上分布得最开,能揭示出全局的规律性变化。

  • 在语义空间中,这些方向往往对应于稳定的语义模式,例如:

    • 性别(man--woman)
    • 地位(king--servant)
    • 地理(Paris--Tokyo)
    • 语法类别(noun--verb)

2. 方差小的方向多为噪声

  • 若在某个方向上,词向量几乎重叠(方差小),说明该方向不能区分词语间差异;
  • 这些微弱波动往往源于偶然共现或数据偏差;
  • 因此降维会压缩掉这些噪声维度

3. 保留主要方差方向 = 保留语义结构

降维后,词向量虽然变成低维的,但它们在这些主方向上的相对位置关系(距离、方向)依然保持一致。

换句话说:

  • 语义相近的词依然彼此靠近;
  • 语义变化(如 king → queen)依然沿着相同的方向变化。

这就是为什么降维能在压缩数据的同时,保留语义分布规律与几何结构


✅ 总结一句话

我们进行向量降维,是为了去冗余、降噪声、提取主要语义模式。

而之所以能保留语义结构,是因为降维方法抓住了数据中方差最大、最稳定的变化方向

这些方向恰好对应于语言的主要语义规律。

相关推荐
mqiqe2 分钟前
【Spring AI MCP】六、SpringAI MCP 服务端 STDIO & SSE
java·人工智能·spring
飞哥数智坊10 分钟前
两天一首歌,这个UP主是怎么做到的?
人工智能·aigc
草莓熊Lotso24 分钟前
红黑树从入门到进阶:4 条规则如何筑牢 O (logN) 效率根基?
服务器·开发语言·c++·人工智能·经验分享·笔记·后端
云雾J视界38 分钟前
AI芯片设计实战:用Verilog高级综合技术优化神经网络加速器功耗与性能
深度学习·神经网络·verilog·nvidia·ai芯片·卷积加速器
IT_陈寒44 分钟前
Python 3.12新特性解析:10个让你代码效率提升30%的实用技巧
前端·人工智能·后端
澜舟孟子开源社区1 小时前
开源技术驱动与架构创新:AI领域的破局之道
人工智能·agi
Baihai_IDP1 小时前
上下文管理策略综述
人工智能·llm
aneasystone本尊1 小时前
学习 LiteLLM 的路由和回退策略
人工智能
Mrliu__1 小时前
Opencv(十六) : 图像边缘检测
人工智能·opencv·计算机视觉