Self-attention与Word2Vec

Self-attention (自注意力)和 Word2Vec 是两种不同的词嵌入技术,用于将单词映射到低维向量空间。它们之间的区别:

  1. Word2Vec

    • Word2Vec 是一种传统的词嵌入(word embedding)方法,旨在为每个单词学习一个全局的向量表示。
    • 它通过分析大量文本数据,将单词映射到一个连续的向量空间中,使得相似的单词在向量空间中距离较近。
    • Word2Vec 忽略了单词在不同上下文中的含义,因此对于多义词(例如,"left"在不同语境中有不同含义)只学习了一个表示。
  2. Self-attention

    • Self-attention 是一种用于序列数据的机制,特别在 Transformer,BERT, GPT模型中广泛应用。
    • 它允许模型根据输入序列的上下文动态调整不同元素的影响。
    • Self-attention 考虑了每个输入元素与其他元素之间的关联度,从而生成不同的表示。
    • 在自然语言处理中,Self-attention 可以根据单词在句子中的上下文生成不同的表示(contextual embedding),解决了多义词的问题。

总之,Word2Vec 是一种全局的词嵌入方法,而Self-attention 允许根据上下文动态生成不同的表示,更适合处理多义词和序列数据。

相关推荐
量子-Alex13 小时前
【大模型思维链】Reasoning with Language Model is Planning with World Model
人工智能·语言模型·自然语言处理
换个名字就很好1 天前
windows系统ollama安装和使用
自然语言处理
gorgeous(๑>؂<๑)1 天前
【ICLR26-Oral Paper-Meta】DepthLM:基于视觉语言模型的度量深度
人工智能·计算机视觉·语言模型·自然语言处理
一个向上的运维者1 天前
基于k8s的KServe 控制平面生产级部署最佳实践:基于 Gateway API 的标准化流量管理方案
llm·gateway·istio·kserve
山顶夕景1 天前
【MLLM】Qwen3.5模型
大模型·llm·多模态·infra
陈天伟教授1 天前
人工智能应用- 搜索引擎:04. 网页重要性评估
人工智能·神经网络·搜索引擎·语言模型·自然语言处理
XLYcmy1 天前
智能体大赛 技术架构 数据根基层
数据库·ai·llm·api·agent·幻觉·万方
HaiLang_IT1 天前
计算机科学与技术专业优质选题推荐 选题合集 | 人工智能/自然语言处理/计算机视觉
人工智能·自然语言处理·课程设计
XLYcmy1 天前
智能体大赛 核心功能 可信文献检索与系统性知识梳理
数据库·ai·llm·prompt·知识图谱·agent·检索
gorgeous(๑>؂<๑)1 天前
【ICLR26-Oral Paper】透过对比的视角:视觉语言模型中的自改进视觉推理
人工智能·算法·语言模型·自然语言处理