NV-Embed论文阅读笔记

  • 这是NVIDIA的一篇论文,LLM通常使用的是GPT的decoder范式作为一个生成模型,文章探讨如何利用这样的decoder生成模型来实现BERT这样的encoder的功能,即提取有效的embedding。
  • 现有的方法提取embedding的方式无非是 1 mean pooling; 2 the last token embedding。前者是encoder-like的model用得多,后者是decoder-like的model用得多。然而这两者都有问题。
  • 文章提出的方法是,decoder模型正常是会通过循环的方式生成一段序列嘛,最后一个time step的一层的Q就是 l × d l\times d l×d的, l l l个token每个 d d d维,然后我预定义一个latent array,是 r × d r\times d r×d的,它作为 r r r个token的K和V,用来和Q算attention(实际上做的是多头注意力,这里简单起见按单头注意力讲解),得到 O O O是 l × d l\times d l×d的,再接MLP GELU MLP,再过一个mean pooling,得到最终的embedding。
  • 文章一边说train from scratch,又说用LoRA,就很奇怪。
  • 另外呢,文章把mask去掉了,之前的GPT,每个token做注意力只能看到前面的token,但文章发现直接全都看得到在提取embedding方面效果更好:
  • 文章试验了bidirect attention/causal attention的对比,EOS Mean latent-attention self-attention的对比:
相关推荐
程序员Linc14 分钟前
计算机视觉 vs 机器视觉 | 机器学习 vs 深度学习:核心差异与行业启示
深度学习·机器学习·计算机视觉·机器视觉
zy_destiny31 分钟前
【YOLOv12改进trick】三重注意力TripletAttention引入YOLOv12中,实现遮挡目标检测涨点,含创新点Python代码,方便发论文
网络·人工智能·python·深度学习·yolo·计算机视觉·三重注意力
自由的晚风32 分钟前
深度学习在SSVEP信号分类中的应用分析
人工智能·深度学习·分类
剑走偏锋o.O1 小时前
Jenkins学习笔记
笔记·学习·jenkins
Panesle2 小时前
bert模型笔记
人工智能·笔记·bert
胡耀超2 小时前
5.训练策略:优化深度学习训练过程的实践指南——大模型开发深度学习理论基础
人工智能·python·深度学习·大模型
xiao--xin2 小时前
计算机网络笔记(二)——1.2互联网概述
笔记·计算机网络·rfc·isp·ixp
m0_748229992 小时前
Java 进阶笔记
java·开发语言·笔记
潘达斯奈基~2 小时前
机器学习4-PCA降维
人工智能·深度学习·机器学习
世味煮成茶.3 小时前
DeepSeek + 沉浸式翻译 打造智能翻译助手
java·大数据·linux·数据库·笔记·ai·软件需求