NV-Embed论文阅读笔记

  • 这是NVIDIA的一篇论文,LLM通常使用的是GPT的decoder范式作为一个生成模型,文章探讨如何利用这样的decoder生成模型来实现BERT这样的encoder的功能,即提取有效的embedding。
  • 现有的方法提取embedding的方式无非是 1 mean pooling; 2 the last token embedding。前者是encoder-like的model用得多,后者是decoder-like的model用得多。然而这两者都有问题。
  • 文章提出的方法是,decoder模型正常是会通过循环的方式生成一段序列嘛,最后一个time step的一层的Q就是 l × d l\times d l×d的, l l l个token每个 d d d维,然后我预定义一个latent array,是 r × d r\times d r×d的,它作为 r r r个token的K和V,用来和Q算attention(实际上做的是多头注意力,这里简单起见按单头注意力讲解),得到 O O O是 l × d l\times d l×d的,再接MLP GELU MLP,再过一个mean pooling,得到最终的embedding。
  • 文章一边说train from scratch,又说用LoRA,就很奇怪。
  • 另外呢,文章把mask去掉了,之前的GPT,每个token做注意力只能看到前面的token,但文章发现直接全都看得到在提取embedding方面效果更好:
  • 文章试验了bidirect attention/causal attention的对比,EOS Mean latent-attention self-attention的对比:
相关推荐
LO嘉嘉VE2 分钟前
学习笔记二十四:支持向量机-对偶问题
笔记·学习·支持向量机
爱凤的小光4 分钟前
Git自我学习笔记
笔记·git·学习
带刺的坐椅6 分钟前
Solon AI 开发学习11 - chat - 工具调用与定制(Tool Call)
java·ai·llm·solon
大千AI助手9 分钟前
马哈拉诺比斯距离:理解数据间的“真实”距离
人工智能·深度学习·机器学习·距离度量·大千ai助手·马氏距离·马哈拉诺比斯距离
森林小狗1 小时前
0基础快速入门SEO笔记
笔记
其美杰布-富贵-李1 小时前
SpaceClaim 流体域建模学习笔记
笔记·学习
shayudiandian2 小时前
用深度学习实现语音识别系统
人工智能·深度学习·语音识别
铅笔侠_小龙虾9 小时前
深度学习理论推导--梯度下降法
人工智能·深度学习
遇到困难睡大觉哈哈10 小时前
Harmony os——ArkTS 语言笔记(四):类、对象、接口和抽象类
java·笔记·spring·harmonyos·鸿蒙
程序员东岸10 小时前
《数据结构——排序(中)》选择与交换的艺术:从直接选择到堆排序的性能跃迁
数据结构·笔记·算法·leetcode·排序算法