Self-attention与Word2Vec

Self-attention (自注意力)和 Word2Vec 是两种不同的词嵌入技术,用于将单词映射到低维向量空间。它们之间的区别:

  1. Word2Vec

    • Word2Vec 是一种传统的词嵌入(word embedding)方法,旨在为每个单词学习一个全局的向量表示。
    • 它通过分析大量文本数据,将单词映射到一个连续的向量空间中,使得相似的单词在向量空间中距离较近。
    • Word2Vec 忽略了单词在不同上下文中的含义,因此对于多义词(例如,"left"在不同语境中有不同含义)只学习了一个表示。
  2. Self-attention

    • Self-attention 是一种用于序列数据的机制,特别在 Transformer,BERT, GPT模型中广泛应用。
    • 它允许模型根据输入序列的上下文动态调整不同元素的影响。
    • Self-attention 考虑了每个输入元素与其他元素之间的关联度,从而生成不同的表示。
    • 在自然语言处理中,Self-attention 可以根据单词在句子中的上下文生成不同的表示(contextual embedding),解决了多义词的问题。

总之,Word2Vec 是一种全局的词嵌入方法,而Self-attention 允许根据上下文动态生成不同的表示,更适合处理多义词和序列数据。

相关推荐
Bruce-XIAO3 分钟前
ReasoningBank论文代码解读
llm·agent·记忆
沪漂阿龙41 分钟前
从“火星文”到语义理解:破解NLP中的OOV未登录词难题
人工智能·自然语言处理
咚咚王者44 分钟前
人工智能之语言领域 自然语言处理 第十二章 Transformer架构
人工智能·自然语言处理·transformer
Flying pigs~~1 小时前
自然语言处理(NLP)开胃小菜
人工智能·算法·自然语言处理·大模型·文本分析处理
我材不敲代码1 小时前
Python 实战——红楼梦文本分析全流程:从分卷处理到分词再到TF-IDF 提取核心关键词
人工智能·自然语言处理·tf-idf
arvin_xiaoting2 小时前
三角协作架构:从问题发现到验证完成
架构·系统架构·llm·claude·ai agent·openclaw·多代理协作
小陈phd3 小时前
多模态大模型学习笔记(十七)——基于 BGE+DeepSeek+Qdrant 的 RAG 文档问答系统实战与优化
自然语言处理·transformer
前端付豪3 小时前
AI知识库 + RAG数学解析增强
前端·python·llm
用什么都重名3 小时前
大模型微调框架 LLaMA-Factory 实战指南
lora·llm·llama_factory
半夏之沫4 小时前
✨陈千语✨都懂的自注意力机制
人工智能·机器学习·llm