Repetition Improves Language Model Embeddings论文阅读笔记

  • 文章提出了一种提高decoder-only LLM的embedding能力的方法,叫echo embeddings
  • last-token pooling(即直接选最后一个token作为句子的embedding)和直接mean pooling都不如文章提出的echo embedding,做法是把句子重复两次,然后取第二次的token是的mean pooling。mean pooling的缺点是太强调句子的前面部分,last-token pooling是太强调句子的后面部分,而重复两次后,第二次的句子的起始token也包含了完整句子的语义,从而不会出现直接mean pooling的问题。
  • 另外一点是,输入要添加一些instruction以鼓励第二次的句子编码包含完整句子信息,如下:
相关推荐
智者知已应修善业7 小时前
【输入两个数字,判断两数相乘是否等于各自逆序数相乘】2023-10-24
c语言·c++·经验分享·笔记·算法·1024程序员节
集3047 小时前
C++多线程学习笔记
c++·笔记·学习
YJlio7 小时前
Active Directory 工具学习笔记(10.0):AdExplorer / AdInsight / AdRestore 导读与场景地图
网络·笔记·学习
背心2块钱包邮8 小时前
第7节——积分技巧(Integration Techniques)-代换积分法
人工智能·python·深度学习·matplotlib
广东数字化转型8 小时前
工作备注笔记
笔记
超高校级的作者8 小时前
博客摘录「 CentOS7 Fail2ban安装使用」2024年4月15日
笔记
PixelMind8 小时前
【超分辨率专题】FlashVSR:单步Diffusion的再次提速,实时视频超分不是梦!
深度学习·音视频·超分辨率·vsr
噜~噜~噜~8 小时前
偏导数和全导数的个人理解
深度学习·偏导数·梯度·全导数
万变不离其宗_89 小时前
http学习笔记
笔记·学习
lx7416026989 小时前
change-detection关于llm方向的任务与优化
深度学习