【NLP】 5. Word Analogy Task(词类比任务)与 Intrinsic Metric(内在度量)

Word Analogy Task(词类比任务)

定义:Word Analogy Task 是用于评估词向量质量的内在指标(Intrinsic Metric)。该任务基于这样的假设:如果词向量能够捕捉单词之间的语义关系,那么这些关系应该能够在向量空间中保持一定的结构。

示例

在一个理想的词向量空间中,单词之间的关系应该满足如下等式:

k i n g − m a n + w o m a n ≈ q u e e n king−man+woman≈queen king−man+woman≈queen

即,如果你用向量 king 减去 man(表示去掉"男性"这个概念),再加上 woman(加入"女性"这个概念),那么你应该接近 queen(女王)的向量

计算方法

给定一个类比问题 A:B::C:D,即"A 之于 B,如同 C 之于 D",则计算:D=B−A+C

然后,在词汇表中找到与 D 最接近的词向量,作为预测的答案。

应用

  • 评估词向量的质量,验证其是否能有效捕捉语义和句法关系。
  • 在训练 word embeddings(如 Word2Vec, GloVe, FastText)时常用此方法进行测试。

Intrinsic Metric(内在度量)

定义:Intrinsic Metric 是衡量 NLP 模型(如词向量模型)质量的一类指标,通常基于特定的语言学任务,如 Word Analogy Task、Word Similarity Task 和 Clustering Coherence。

特点

  • 快速计算:不需要依赖下游任务,只基于词向量本身计算指标。
  • 独立于具体应用:不同于 Extrinsic Metric(外在度量,依赖于特定 NLP 任务的表现),Intrinsic Metric 更关注词向量本身的质量。

常见的 Intrinsic Metric

  1. Word Similarity Task:通过计算词向量的余弦相似度,评估模型对同义词、近义词的表现。
  2. Word Analogy Task:评估词向量是否能正确表示语义关系(如 "Paris" : "France" :: "Berlin" : "Germany")。
  3. Clustering Coherence:测试词向量在类别划分上的表现,如同义词是否聚集在一起。

优缺点

优点

  • 计算成本低,适用于快速测试词向量质量。
  • 提供模型的直观解释性(可以通过类比关系检查向量的语义质量)。

缺点

  • 不能直接反映模型在实际 NLP 任务中的表现。
  • 可能对训练数据敏感,不一定能泛化到真实任务。
相关推荐
2401_897930069 分钟前
tensorflow常用使用场景
人工智能·python·tensorflow
deepdata_cn1 小时前
开源混合专家大语言模型(DBRX)
人工智能·语言模型
deepdata_cn1 小时前
开源本地LLM推理引擎(Cortex AI)
人工智能·推理引擎
说私域2 小时前
“互联网 +”时代商业生态变革:以开源 AI 智能名片链动 2+1 模式 S2B2C 商城小程序为例
人工智能·小程序·开源
stbomei2 小时前
AI大模型如何重塑日常?从智能办公到生活服务的5个核心改变
人工智能
酷飞飞2 小时前
错误是ModuleNotFoundError: No module named ‘pip‘解决“找不到 pip”
人工智能·python·pip
会飞的小菠菜3 小时前
如何根据Excel数据表生成多个合同、工作证、录取通知书等word文件?
word·excel·模板·数据表·生成文件
点云SLAM3 小时前
PyTorch 中.backward() 详解使用
人工智能·pytorch·python·深度学习·算法·机器学习·机器人
androidstarjack3 小时前
波士顿动力给机器人装上AI大脑,人类故意使绊子也不怕了!
人工智能·机器人
Learn Beyond Limits4 小时前
Transfer Learning|迁移学习
人工智能·python·深度学习·神经网络·机器学习·ai·吴恩达