NV-Embed论文阅读笔记

  • 这是NVIDIA的一篇论文,LLM通常使用的是GPT的decoder范式作为一个生成模型,文章探讨如何利用这样的decoder生成模型来实现BERT这样的encoder的功能,即提取有效的embedding。
  • 现有的方法提取embedding的方式无非是 1 mean pooling; 2 the last token embedding。前者是encoder-like的model用得多,后者是decoder-like的model用得多。然而这两者都有问题。
  • 文章提出的方法是,decoder模型正常是会通过循环的方式生成一段序列嘛,最后一个time step的一层的Q就是 l × d l\times d l×d的, l l l个token每个 d d d维,然后我预定义一个latent array,是 r × d r\times d r×d的,它作为 r r r个token的K和V,用来和Q算attention(实际上做的是多头注意力,这里简单起见按单头注意力讲解),得到 O O O是 l × d l\times d l×d的,再接MLP GELU MLP,再过一个mean pooling,得到最终的embedding。
  • 文章一边说train from scratch,又说用LoRA,就很奇怪。
  • 另外呢,文章把mask去掉了,之前的GPT,每个token做注意力只能看到前面的token,但文章发现直接全都看得到在提取embedding方面效果更好:
  • 文章试验了bidirect attention/causal attention的对比,EOS Mean latent-attention self-attention的对比:
相关推荐
天云数据7 小时前
神经网络,人类表达的革命
人工智能·深度学习·神经网络·机器学习
半壶清水7 小时前
[软考网规考点笔记]-OSI参考模型与TCP/IP体系结构
网络·笔记·tcp/ip
独自归家的兔7 小时前
深度学习之 CNN:如何在图像数据的海洋中精准 “捕捞” 特征?
人工智能·深度学习·cnn
deephub9 小时前
RAG 文本分块:七种主流策略的原理与适用场景
人工智能·深度学习·大语言模型·rag·检索
newBorn_19919 小时前
ops-transformer RoPE位置编码 复数旋转硬件加速实战
人工智能·深度学习·transformer·cann
龙腾AI白云9 小时前
大模型架构演进:从Transformer到MoE
深度学习·知识图谱
宁远x9 小时前
Flash Attention原理介绍与使用方法
人工智能·深度学习·机器学习
琅琊榜首202010 小时前
AI+编程思维:高质量短剧脚本高效撰写实操指南
大数据·人工智能·深度学习
浅念-11 小时前
C++ :类和对象(4)
c语言·开发语言·c++·经验分享·笔记·学习·算法
时代的凡人12 小时前
0213晨间笔记
笔记