Self-attention与Word2Vec

Self-attention (自注意力)和 Word2Vec 是两种不同的词嵌入技术,用于将单词映射到低维向量空间。它们之间的区别:

  1. Word2Vec

    • Word2Vec 是一种传统的词嵌入(word embedding)方法,旨在为每个单词学习一个全局的向量表示。
    • 它通过分析大量文本数据,将单词映射到一个连续的向量空间中,使得相似的单词在向量空间中距离较近。
    • Word2Vec 忽略了单词在不同上下文中的含义,因此对于多义词(例如,"left"在不同语境中有不同含义)只学习了一个表示。
  2. Self-attention

    • Self-attention 是一种用于序列数据的机制,特别在 Transformer,BERT, GPT模型中广泛应用。
    • 它允许模型根据输入序列的上下文动态调整不同元素的影响。
    • Self-attention 考虑了每个输入元素与其他元素之间的关联度,从而生成不同的表示。
    • 在自然语言处理中,Self-attention 可以根据单词在句子中的上下文生成不同的表示(contextual embedding),解决了多义词的问题。

总之,Word2Vec 是一种全局的词嵌入方法,而Self-attention 允许根据上下文动态生成不同的表示,更适合处理多义词和序列数据。

相关推荐
Johnny.Cheung19 分钟前
面试:LLM RAG的三种算法和使用场景Reranking
llm·向量检索·rag
XLYcmy1 小时前
智能体大赛 目录
数据库·ai·llm·prompt·agent·检索·万方
山顶夕景2 小时前
【VLM】Qwen3-VL-SFT微调简要流程
llm·多模态大模型·vlm
Loo国昌3 小时前
【AI应用开发实战】 03_LangGraph运行时与状态图编排:从直接执行到图编排的演进之路
人工智能·后端·python·自然语言处理·prompt
狮子座明仔4 小时前
体验式强化学习:让模型学会“吃一堑长一智“
人工智能·深度学习·自然语言处理
XLYcmy5 小时前
智能体大赛 总结与展望 未来展望
ai·llm·app·prompt·agent·检索·万方数据库
Jason_Honey28 小时前
【蚂蚁金服Agent算法岗一面】
人工智能·算法·自然语言处理·面试
狮子座明仔9 小时前
REDSearcher:如何用30B参数的小模型,在深度搜索上击败GPT-o3和Gemini?
人工智能·gpt·深度学习·microsoft·语言模型·自然语言处理
大模型任我行10 小时前
华为:CLI任务自动生成新范式
人工智能·语言模型·自然语言处理·论文笔记
nopSled10 小时前
在 AlphaAvatar 中接入 MCP:统一工具入口 + 并行调度的工程实践
人工智能·语言模型·自然语言处理