Repetition Improves Language Model Embeddings论文阅读笔记

  • 文章提出了一种提高decoder-only LLM的embedding能力的方法,叫echo embeddings
  • last-token pooling(即直接选最后一个token作为句子的embedding)和直接mean pooling都不如文章提出的echo embedding,做法是把句子重复两次,然后取第二次的token是的mean pooling。mean pooling的缺点是太强调句子的前面部分,last-token pooling是太强调句子的后面部分,而重复两次后,第二次的句子的起始token也包含了完整句子的语义,从而不会出现直接mean pooling的问题。
  • 另外一点是,输入要添加一些instruction以鼓励第二次的句子编码包含完整句子信息,如下:
相关推荐
蹦蹦跳跳真可爱5898 分钟前
Python----NLP自然语言处理(中文分词器--jieba分词器)
开发语言·人工智能·python·自然语言处理·中文分词
饕餮争锋1 小时前
设计模式笔记_结构型_代理模式
笔记·设计模式·代理模式
序属秋秋秋1 小时前
《C++初阶之STL》【泛型编程 + STL简介】
开发语言·c++·笔记·学习
特种加菲猫2 小时前
构建完整工具链:GCC/G++ + Makefile + Git 自动化开发流程
linux·笔记·git·自动化
Chef_Chen2 小时前
从0开始学习计算机视觉--Day09--卷积与池化
深度学习·学习·计算机视觉
Jackyzhe9 小时前
Flink学习笔记:整体架构
笔记·flink
想成为风筝9 小时前
从零开始学习深度学习—水果分类之PyQt5App
人工智能·深度学习·计算机视觉·pyqt
F_D_Z9 小时前
MMaDA:多模态大型扩散语言模型
人工智能·语言模型·自然语言处理
徒 花9 小时前
初级网安作业笔记1
笔记
kfepiza9 小时前
Debian-10编译安装Mysql-5.7.44 笔记250706
linux·数据库·笔记·mysql·debian·bash