Repetition Improves Language Model Embeddings论文阅读笔记

  • 文章提出了一种提高decoder-only LLM的embedding能力的方法,叫echo embeddings
  • last-token pooling(即直接选最后一个token作为句子的embedding)和直接mean pooling都不如文章提出的echo embedding,做法是把句子重复两次,然后取第二次的token是的mean pooling。mean pooling的缺点是太强调句子的前面部分,last-token pooling是太强调句子的后面部分,而重复两次后,第二次的句子的起始token也包含了完整句子的语义,从而不会出现直接mean pooling的问题。
  • 另外一点是,输入要添加一些instruction以鼓励第二次的句子编码包含完整句子信息,如下:
相关推荐
周杰伦_Jay2 分钟前
【OpenManus深度解析】MetaGPT团队打造的开源AI智能体框架,打破Manus闭源壁垒。包括架构分层、关键技术特点等内容
人工智能·深度学习·opencv·架构·开源
John.Lewis8 分钟前
C++初阶(14)list
开发语言·c++·笔记
_李小白8 分钟前
【OPENGL ES 3.0 学习笔记】第九天:缓存、顶点和顶点数组
笔记·学习·elasticsearch
AIGC_北苏43 分钟前
大语言模型,一个巨大的矩阵
人工智能·语言模型·矩阵
DuHz2 小时前
基于频率分集阵列的MIMO雷达联合距离角度估计——论文阅读
论文阅读·算法·汽车·信息与通信·毫米波雷达
hunteritself2 小时前
阿里千问上线记忆,Manus 1.5 全栈升级,ChatGPT 将推成人模式!| AI Weekly 10.13-10.19
大数据·人工智能·深度学习·机器学习·chatgpt
DKunYu3 小时前
PyTorch入门
人工智能·pytorch·python·深度学习
技术闲聊DD3 小时前
深度学习(8)- PyTorch 数据处理与加载
人工智能·pytorch·深度学习
哈基鑫3 小时前
YOLOv3 核心笔记
笔记·yolo·目标跟踪
可触的未来,发芽的智生3 小时前
一万个为什么:汉语词性对NLP的作用
python·神经网络·程序人生·自然语言处理