Self-attention与Word2Vec

Self-attention (自注意力)和 Word2Vec 是两种不同的词嵌入技术,用于将单词映射到低维向量空间。它们之间的区别:

  1. Word2Vec

    • Word2Vec 是一种传统的词嵌入(word embedding)方法,旨在为每个单词学习一个全局的向量表示。
    • 它通过分析大量文本数据,将单词映射到一个连续的向量空间中,使得相似的单词在向量空间中距离较近。
    • Word2Vec 忽略了单词在不同上下文中的含义,因此对于多义词(例如,"left"在不同语境中有不同含义)只学习了一个表示。
  2. Self-attention

    • Self-attention 是一种用于序列数据的机制,特别在 Transformer,BERT, GPT模型中广泛应用。
    • 它允许模型根据输入序列的上下文动态调整不同元素的影响。
    • Self-attention 考虑了每个输入元素与其他元素之间的关联度,从而生成不同的表示。
    • 在自然语言处理中,Self-attention 可以根据单词在句子中的上下文生成不同的表示(contextual embedding),解决了多义词的问题。

总之,Word2Vec 是一种全局的词嵌入方法,而Self-attention 允许根据上下文动态生成不同的表示,更适合处理多义词和序列数据。

相关推荐
shenxianasi37 分钟前
【论文精读】Flamingo: a Visual Language Model for Few-Shot Learning
人工智能·深度学习·机器学习·计算机视觉·语言模型·自然语言处理
学生高德1 小时前
Perplexity AI 团队以 扩散预训练语言模型
人工智能·语言模型·自然语言处理
阿杰学AI2 小时前
AI核心知识101——大语言模型之 Cherry Studio(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·cherry studio·ai 桌面客户端
羊羊小栈2 小时前
基于YOLO26和多模态大语言模型的路面缺陷智能监控预警系统
人工智能·语言模型·自然语言处理·毕业设计·创业创新·大作业
阿杰学AI2 小时前
AI核心知识102——大语言模型之 AIHubMix(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·aihubmix·推理时代
文艺小码农2 小时前
Hugging Face微调语言模型:问答任务
人工智能·语言模型·自然语言处理
shenxianasi2 小时前
【论文精读】Florence: A New Foundation Model for Computer Vision
人工智能·机器学习·计算机视觉·自然语言处理·transformer
EdisonZhou12 小时前
MAF快速入门(16)用户智能体交互协议AG-UI(上)
llm·aigc·agent·.net core
大模型最新论文速读12 小时前
NAtS-L: 自适应融合多种注意力架构,推理能力提高 36%
人工智能·深度学习·机器学习·语言模型·自然语言处理
XX12312217 小时前
数据处理与转换|基于 data_engineering_book 玩转 ETL/ELT 核心流程
llm