神经网络之向量降维

一、为什么要进行向量降维

语义向量(如词向量、句向量)通常位于高维空间中。高维表示虽然能捕捉细微差别,但也带来几个问题:

  1. 数据冗余(Redundancy)

    • 语言中的许多特征是相关的。
      例如,"国王(king)"与"王后(queen)"在大多数语境中共现模式相似,它们的高维特征往往线性相关。
    • 这意味着空间中存在大量冗余维度,许多特征维度传递的是相似信息。
  2. 噪声干扰(Noise)

    • 高维数据中包含许多"偶然共现"或局部统计噪声,例如某个词偶然出现在不相关的语境中。
    • 这些随机因素会让语义空间变得稀疏且复杂,掩盖真正稳定的语义规律。
  3. 计算与存储成本高

    • 高维向量不仅占用更大的存储空间,也使得相似度计算、聚类、可视化等操作更加困难。

因此,我们希望通过向量降维(Dimensionality Reduction)

  • 去除冗余与噪声;
  • 压缩信息以便计算;
  • 同时保留语义结构的核心规律。

二、为什么降维后仍能保留数据的分布规律

降维的关键思想是:

数据虽然位于高维空间中,但真正有意义的变化往往集中在少数几个方向上。

PCASVD 这样的线性降维方法,会通过数学手段找到这些方向------

也就是数据方差最大的主方向(principal directions)

1. 方差大的方向代表主要结构

  • 方差表示数据在某个方向上的"变化程度"。

  • 若方差大,说明数据在该方向上分布得最开,能揭示出全局的规律性变化。

  • 在语义空间中,这些方向往往对应于稳定的语义模式,例如:

    • 性别(man--woman)
    • 地位(king--servant)
    • 地理(Paris--Tokyo)
    • 语法类别(noun--verb)

2. 方差小的方向多为噪声

  • 若在某个方向上,词向量几乎重叠(方差小),说明该方向不能区分词语间差异;
  • 这些微弱波动往往源于偶然共现或数据偏差;
  • 因此降维会压缩掉这些噪声维度

3. 保留主要方差方向 = 保留语义结构

降维后,词向量虽然变成低维的,但它们在这些主方向上的相对位置关系(距离、方向)依然保持一致。

换句话说:

  • 语义相近的词依然彼此靠近;
  • 语义变化(如 king → queen)依然沿着相同的方向变化。

这就是为什么降维能在压缩数据的同时,保留语义分布规律与几何结构


✅ 总结一句话

我们进行向量降维,是为了去冗余、降噪声、提取主要语义模式。

而之所以能保留语义结构,是因为降维方法抓住了数据中方差最大、最稳定的变化方向

这些方向恰好对应于语言的主要语义规律。

相关推荐
哥布林学者26 分钟前
高光谱成像(二)光谱角映射 SAM
机器学习·高光谱成像
中杯可乐多加冰1 小时前
OpenClaw到底能做什么?有什么用?先装这几个实用的Skills
人工智能
千寻girling1 小时前
一份不可多得的 《 Python 》语言教程
人工智能·后端·python
aircrushin3 小时前
从春晚看分布式实时协同算法与灵巧手工程实现
人工智能·机器人
恋猫de小郭3 小时前
Apple 的 ANE 被挖掘,AI 硬件公开,宣传的 38 TOPS 居然是"数字游戏"?
前端·人工智能·ios
银河系搭车客指南3 小时前
AI Agent 的失忆症:我是怎么给它装上"第二个大脑"的
人工智能
张拭心3 小时前
春节后,有些公司明确要求 AI 经验了
android·前端·人工智能
我的username4 小时前
极致简单的openclaw安装教程
人工智能
小锋java12344 小时前
【技术专题】嵌入模型与Chroma向量数据库 - Chroma 集合操作
人工智能
七月丶4 小时前
别再手动凑 PR 了:这个 AI Skill 会按仓库习惯自动建分支、拆提交、提 PR
人工智能·设计模式·程序员