神经网络之向量降维

一、为什么要进行向量降维

语义向量(如词向量、句向量)通常位于高维空间中。高维表示虽然能捕捉细微差别,但也带来几个问题:

  1. 数据冗余(Redundancy)

    • 语言中的许多特征是相关的。
      例如,"国王(king)"与"王后(queen)"在大多数语境中共现模式相似,它们的高维特征往往线性相关。
    • 这意味着空间中存在大量冗余维度,许多特征维度传递的是相似信息。
  2. 噪声干扰(Noise)

    • 高维数据中包含许多"偶然共现"或局部统计噪声,例如某个词偶然出现在不相关的语境中。
    • 这些随机因素会让语义空间变得稀疏且复杂,掩盖真正稳定的语义规律。
  3. 计算与存储成本高

    • 高维向量不仅占用更大的存储空间,也使得相似度计算、聚类、可视化等操作更加困难。

因此,我们希望通过向量降维(Dimensionality Reduction)

  • 去除冗余与噪声;
  • 压缩信息以便计算;
  • 同时保留语义结构的核心规律。

二、为什么降维后仍能保留数据的分布规律

降维的关键思想是:

数据虽然位于高维空间中,但真正有意义的变化往往集中在少数几个方向上。

PCASVD 这样的线性降维方法,会通过数学手段找到这些方向------

也就是数据方差最大的主方向(principal directions)

1. 方差大的方向代表主要结构

  • 方差表示数据在某个方向上的"变化程度"。

  • 若方差大,说明数据在该方向上分布得最开,能揭示出全局的规律性变化。

  • 在语义空间中,这些方向往往对应于稳定的语义模式,例如:

    • 性别(man--woman)
    • 地位(king--servant)
    • 地理(Paris--Tokyo)
    • 语法类别(noun--verb)

2. 方差小的方向多为噪声

  • 若在某个方向上,词向量几乎重叠(方差小),说明该方向不能区分词语间差异;
  • 这些微弱波动往往源于偶然共现或数据偏差;
  • 因此降维会压缩掉这些噪声维度

3. 保留主要方差方向 = 保留语义结构

降维后,词向量虽然变成低维的,但它们在这些主方向上的相对位置关系(距离、方向)依然保持一致。

换句话说:

  • 语义相近的词依然彼此靠近;
  • 语义变化(如 king → queen)依然沿着相同的方向变化。

这就是为什么降维能在压缩数据的同时,保留语义分布规律与几何结构


✅ 总结一句话

我们进行向量降维,是为了去冗余、降噪声、提取主要语义模式。

而之所以能保留语义结构,是因为降维方法抓住了数据中方差最大、最稳定的变化方向

这些方向恰好对应于语言的主要语义规律。

相关推荐
十铭忘12 分钟前
SAM2跟踪的理解6——mask decoder
人工智能·计算机视觉
不会计算机的g_c__b19 分钟前
AI Agent 三大核心组件解析:规划、记忆与工具使用,构建真正智能体
人工智能
听风吹等浪起21 分钟前
机器学习算法:随机梯度下降算法
人工智能·深度学习·算法·机器学习
Yuner200022 分钟前
Python机器学习:从零基础到深度实战
人工智能·python·机器学习
落羽的落羽23 分钟前
【C++】哈希扩展——位图和布隆过滤器的介绍与实现
linux·服务器·开发语言·c++·人工智能·算法·机器学习
拉姆哥的小屋23 分钟前
【深度学习实战】基于CyclePatch框架的电池寿命预测:从NASA数据集到Transformer模型的完整实现
人工智能·深度学习·transformer
speop26 分钟前
【datawhale组队学习】TASK01|课程导论:站在认知范式的临界点
人工智能·学习
普密斯科技29 分钟前
从点测量到解决方案:光谱共焦技术如何集成于运动平台,实现3D轮廓扫描与透明物体测厚?
人工智能·算法·计算机视觉·3d·集成测试·测量
音视频牛哥33 分钟前
SmartMediakit技术白皮书:与主流云厂商(PaaS)的技术定位对比与选型指南
人工智能·深度学习·机器学习·音视频·gb28181对接·rtsp服务器·rtsp播放器rtmp播放器