Self-attention与Word2Vec

Self-attention (自注意力)和 Word2Vec 是两种不同的词嵌入技术,用于将单词映射到低维向量空间。它们之间的区别:

  1. Word2Vec

    • Word2Vec 是一种传统的词嵌入(word embedding)方法,旨在为每个单词学习一个全局的向量表示。
    • 它通过分析大量文本数据,将单词映射到一个连续的向量空间中,使得相似的单词在向量空间中距离较近。
    • Word2Vec 忽略了单词在不同上下文中的含义,因此对于多义词(例如,"left"在不同语境中有不同含义)只学习了一个表示。
  2. Self-attention

    • Self-attention 是一种用于序列数据的机制,特别在 Transformer,BERT, GPT模型中广泛应用。
    • 它允许模型根据输入序列的上下文动态调整不同元素的影响。
    • Self-attention 考虑了每个输入元素与其他元素之间的关联度,从而生成不同的表示。
    • 在自然语言处理中,Self-attention 可以根据单词在句子中的上下文生成不同的表示(contextual embedding),解决了多义词的问题。

总之,Word2Vec 是一种全局的词嵌入方法,而Self-attention 允许根据上下文动态生成不同的表示,更适合处理多义词和序列数据。

相关推荐
韩曙亮2 小时前
【AI 大模型】LangChain 框架 ① ( LangChain 简介 | LangChain 模块 | LangChain 文档 )
人工智能·ai·langchain·llm·大语言模型·prompts·agents
MobotStone2 小时前
一文看懂AI智能体架构:工程师依赖的8种LLM,到底怎么分工?
后端·算法·llm
16324015413 小时前
回顾-OLMo3[1]-->“ 一句话概括论文核心+技术亮点总结”
llm
大模型教程3 小时前
构建自己的Agent——最佳开源 RAG 框架选型指南
程序员·llm·agent
大模型教程3 小时前
小猫都能懂的大模型原理 1 - 深度学习基础
程序员·llm·agent
重铸码农荣光4 小时前
AI First + Mobile First:用大模型重构下一代应用开发范式
前端·架构·llm
钛投标免费AI标书工具5 小时前
银奖·钛投标荣获华为技术有限公司主办昇腾AI大赛华中区决赛银奖
人工智能·深度学习·自然语言处理·知识图谱
AI大模型5 小时前
大模型从入门到实践,最被读者认可的几本书就在这里!
程序员·llm·agent
AI大模型5 小时前
AI大模型·白皮书 | AI 智能体手册-谷歌
程序员·llm·agent
tiger1195 小时前
DeepSeek V3.1 的推理解析
人工智能·llm·推理·moe·decode·deepseek·prefill