Self-attention与Word2Vec

Self-attention (自注意力)和 Word2Vec 是两种不同的词嵌入技术,用于将单词映射到低维向量空间。它们之间的区别:

  1. Word2Vec

    • Word2Vec 是一种传统的词嵌入(word embedding)方法,旨在为每个单词学习一个全局的向量表示。
    • 它通过分析大量文本数据,将单词映射到一个连续的向量空间中,使得相似的单词在向量空间中距离较近。
    • Word2Vec 忽略了单词在不同上下文中的含义,因此对于多义词(例如,"left"在不同语境中有不同含义)只学习了一个表示。
  2. Self-attention

    • Self-attention 是一种用于序列数据的机制,特别在 Transformer,BERT, GPT模型中广泛应用。
    • 它允许模型根据输入序列的上下文动态调整不同元素的影响。
    • Self-attention 考虑了每个输入元素与其他元素之间的关联度,从而生成不同的表示。
    • 在自然语言处理中,Self-attention 可以根据单词在句子中的上下文生成不同的表示(contextual embedding),解决了多义词的问题。

总之,Word2Vec 是一种全局的词嵌入方法,而Self-attention 允许根据上下文动态生成不同的表示,更适合处理多义词和序列数据。

相关推荐
无风听海6 小时前
Milvus单机模式安装和试用
大模型·llm·milvus·向量数据库
一个处女座的程序猿7 小时前
LLMs之MCP:如何使用 Gradio 构建 MCP 服务器
llm·mcp
zstar-_9 小时前
【Ragflow】24.Ragflow-plus开发日志:增加分词逻辑,修复关键词检索失效问题
人工智能·python·llm
东临碣石829 小时前
【AI论文】推理语言模型的强化学习熵机制
人工智能·语言模型·自然语言处理
WK-Q9 小时前
【笔记】MLA矩阵吸收分析
人工智能·深度学习·语言模型·自然语言处理·transformer
Tadas-Gao11 小时前
从 GPT 的发展看大模型的演进
人工智能·gpt·机器学习·大模型·llm
yaocheng的ai分身13 小时前
🧠 Andrew Ng 最新访谈:AI Agent的现在与未来,创业者别错过的10点洞察
llm·ai编程
聚客AI14 小时前
企业RAG架构师指南:双阶段处理流程、HNSW索引与性能优化秘籍
人工智能·llm·掘金·日新计划
商汤万象开发者14 小时前
LlamaFactory × 多模态RAG × Chat-BI,万字长文揭秘RAG进化迷踪,打造专业AI助手!
llm
数据智能老司机14 小时前
因果人工智能——因果关系与深度学习的连接
深度学习·llm