NV-Embed论文阅读笔记

  • 这是NVIDIA的一篇论文,LLM通常使用的是GPT的decoder范式作为一个生成模型,文章探讨如何利用这样的decoder生成模型来实现BERT这样的encoder的功能,即提取有效的embedding。
  • 现有的方法提取embedding的方式无非是 1 mean pooling; 2 the last token embedding。前者是encoder-like的model用得多,后者是decoder-like的model用得多。然而这两者都有问题。
  • 文章提出的方法是,decoder模型正常是会通过循环的方式生成一段序列嘛,最后一个time step的一层的Q就是 l × d l\times d l×d的, l l l个token每个 d d d维,然后我预定义一个latent array,是 r × d r\times d r×d的,它作为 r r r个token的K和V,用来和Q算attention(实际上做的是多头注意力,这里简单起见按单头注意力讲解),得到 O O O是 l × d l\times d l×d的,再接MLP GELU MLP,再过一个mean pooling,得到最终的embedding。
  • 文章一边说train from scratch,又说用LoRA,就很奇怪。
  • 另外呢,文章把mask去掉了,之前的GPT,每个token做注意力只能看到前面的token,但文章发现直接全都看得到在提取embedding方面效果更好:
  • 文章试验了bidirect attention/causal attention的对比,EOS Mean latent-attention self-attention的对比:
相关推荐
June bug22 分钟前
【实习笔记】客户端基础技术
笔记·macos·cocoa
laplace012323 分钟前
第八章 agent记忆与检索 下
数据库·人工智能·笔记·agent·rag
狐571 小时前
2026-01-19-牛客每日一题-阅读理解
笔记·算法·牛客
不会代码的小猴1 小时前
Linux环境编程第一天笔记
linux·笔记
航行的pig1 小时前
Python基础学习笔记
笔记·python
狐571 小时前
2026-01-19-论文阅读-AgiBot-1
论文阅读·笔记·具身智能
五羟基己醛2 小时前
【半小时入门深度学习】从零开始的Pytorch入门指南
人工智能·深度学习
北京地铁1号线2 小时前
BERT(Bidirectional Encoder Representations from Transformers)架构详解
人工智能·深度学习·bert
DO_Community3 小时前
技术解码:Character.ai 如何实现大模型实时推理性能 2 倍提升
人工智能·算法·llm·aigc·moe·aiter
LDG_AGI3 小时前
【机器学习】深度学习推荐系统(三十):X 推荐算法Phoenix rerank机制
人工智能·分布式·深度学习·算法·机器学习·推荐算法