【NLP】 5. Word Analogy Task(词类比任务)与 Intrinsic Metric(内在度量)

Word Analogy Task(词类比任务)

定义:Word Analogy Task 是用于评估词向量质量的内在指标(Intrinsic Metric)。该任务基于这样的假设:如果词向量能够捕捉单词之间的语义关系,那么这些关系应该能够在向量空间中保持一定的结构。

示例

在一个理想的词向量空间中,单词之间的关系应该满足如下等式:

k i n g − m a n + w o m a n ≈ q u e e n king−man+woman≈queen king−man+woman≈queen

即,如果你用向量 king 减去 man(表示去掉"男性"这个概念),再加上 woman(加入"女性"这个概念),那么你应该接近 queen(女王)的向量

计算方法

给定一个类比问题 A:B::C:D,即"A 之于 B,如同 C 之于 D",则计算:D=B−A+C

然后,在词汇表中找到与 D 最接近的词向量,作为预测的答案。

应用

  • 评估词向量的质量,验证其是否能有效捕捉语义和句法关系。
  • 在训练 word embeddings(如 Word2Vec, GloVe, FastText)时常用此方法进行测试。

Intrinsic Metric(内在度量)

定义:Intrinsic Metric 是衡量 NLP 模型(如词向量模型)质量的一类指标,通常基于特定的语言学任务,如 Word Analogy Task、Word Similarity Task 和 Clustering Coherence。

特点

  • 快速计算:不需要依赖下游任务,只基于词向量本身计算指标。
  • 独立于具体应用:不同于 Extrinsic Metric(外在度量,依赖于特定 NLP 任务的表现),Intrinsic Metric 更关注词向量本身的质量。

常见的 Intrinsic Metric

  1. Word Similarity Task:通过计算词向量的余弦相似度,评估模型对同义词、近义词的表现。
  2. Word Analogy Task:评估词向量是否能正确表示语义关系(如 "Paris" : "France" :: "Berlin" : "Germany")。
  3. Clustering Coherence:测试词向量在类别划分上的表现,如同义词是否聚集在一起。

优缺点

优点

  • 计算成本低,适用于快速测试词向量质量。
  • 提供模型的直观解释性(可以通过类比关系检查向量的语义质量)。

缺点

  • 不能直接反映模型在实际 NLP 任务中的表现。
  • 可能对训练数据敏感,不一定能泛化到真实任务。
相关推荐
lihuayong18 分钟前
RAG的工作原理以及案例列举
人工智能·rag·文本向量化·检索增强生成·语义相似度
果冻人工智能24 分钟前
Google 发布 Gemma 3 —— 你需要了解的内容
人工智能
-一杯为品-38 分钟前
【动手学深度学习】#2线性神经网络
人工智能·深度学习·神经网络
SZ1701102311 小时前
语音识别 FireRedASR-AED模型主要特点
人工智能·语音识别
@黄色海岸1 小时前
【sklearn 05】sklearn功能模块
人工智能·python·sklearn
@黄色海岸1 小时前
【sklearn 02】监督学习、非监督下学习、强化学习
人工智能·学习·sklearn
境心镜1 小时前
(下一个更新)PATNAS: A Path-Based Training-Free NeuralArchitecture Search
人工智能·深度学习·nas·免训练
智驱力人工智能1 小时前
AI赋能实时安全背带监测解决方案
人工智能·安全·计算机视觉·智慧城市·智慧工地·智能巡检·安全背带识别
Elastic 中国社区官方博客1 小时前
拆解 “ES 已死“ 伪命题:Agentic RAG 时代搜索引擎的终极形态
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
Conqueror7121 小时前
机器学习丨八股学习分享 EP1
人工智能·机器学习