Self-attention与Word2Vec

Self-attention (自注意力)和 Word2Vec 是两种不同的词嵌入技术,用于将单词映射到低维向量空间。它们之间的区别:

  1. Word2Vec

    • Word2Vec 是一种传统的词嵌入(word embedding)方法,旨在为每个单词学习一个全局的向量表示。
    • 它通过分析大量文本数据,将单词映射到一个连续的向量空间中,使得相似的单词在向量空间中距离较近。
    • Word2Vec 忽略了单词在不同上下文中的含义,因此对于多义词(例如,"left"在不同语境中有不同含义)只学习了一个表示。
  2. Self-attention

    • Self-attention 是一种用于序列数据的机制,特别在 Transformer,BERT, GPT模型中广泛应用。
    • 它允许模型根据输入序列的上下文动态调整不同元素的影响。
    • Self-attention 考虑了每个输入元素与其他元素之间的关联度,从而生成不同的表示。
    • 在自然语言处理中,Self-attention 可以根据单词在句子中的上下文生成不同的表示(contextual embedding),解决了多义词的问题。

总之,Word2Vec 是一种全局的词嵌入方法,而Self-attention 允许根据上下文动态生成不同的表示,更适合处理多义词和序列数据。

相关推荐
188_djh4 小时前
# 10分钟了解DeepSeek,保姆级部署DeepSeek到WPS,实现AI赋能
人工智能·大语言模型·wps·ai技术·ai应用·deepseek·ai知识
Kai HVZ7 小时前
《深度学习》——自然语言处理(NLP)
人工智能·深度学习·自然语言处理
North_D9 小时前
ML.NET库学习008:使用ML.NET进行心脏疾病预测模型开发
人工智能·深度学习·神经网络·目标检测·机器学习·自然语言处理·数据挖掘
一 铭9 小时前
dify实现分析-rag-关键词索引的实现
人工智能·语言模型·大模型·llm
没枕头我咋睡觉12 小时前
【大语言模型_2】mindie部署deepseek模型
人工智能·语言模型·自然语言处理
仙人掌_lz12 小时前
【再读】2501.12948/DeepSeek-R1通过强化学习提升大型语言模型(LLMs)的推理能力
人工智能·语言模型·自然语言处理
tangjunjun-owen12 小时前
LLaVA-CoT: Let Vision Language Models Reason Step-by-Step论文解读
人工智能·语言模型·自然语言处理·llava-cot论文
FserSuN14 小时前
大语言模型Agent
人工智能·语言模型·自然语言处理
真上帝的左手15 小时前
23. AI-大语言模型-DeepSeek赋能开发-Spring AI集成
spring boot·ai·语言模型·自然语言处理·ai编程
过期动态16 小时前
【DeepSeek服务器部署全攻略】Linux服务器部署DeepSeek R1模型、实现API调用、搭建Web页面以及专属知识库
linux·服务器·人工智能·深度学习·机器学习·自然语言处理