Repetition Improves Language Model Embeddings论文阅读笔记

  • 文章提出了一种提高decoder-only LLM的embedding能力的方法,叫echo embeddings
  • last-token pooling(即直接选最后一个token作为句子的embedding)和直接mean pooling都不如文章提出的echo embedding,做法是把句子重复两次,然后取第二次的token是的mean pooling。mean pooling的缺点是太强调句子的前面部分,last-token pooling是太强调句子的后面部分,而重复两次后,第二次的句子的起始token也包含了完整句子的语义,从而不会出现直接mean pooling的问题。
  • 另外一点是,输入要添加一些instruction以鼓励第二次的句子编码包含完整句子信息,如下:
相关推荐
万里鹏程转瞬至1 小时前
论文简读:Kwai Keye-VL Technical Report
论文阅读·多模态
Geoffwo1 小时前
归一化简单案例
算法·语言模型
北岛寒沫1 小时前
北京大学国家发展研究院 经济学辅修 经济学原理课程笔记(第十五章 劳动力市场)
经验分享·笔记·学习
万俟淋曦1 小时前
【论文速递】2025年第44周(Oct-26-Nov-01)(Robotics/Embodied AI/LLM)
人工智能·深度学习·ai·机器人·论文·具身智能·robotic
丝斯20111 小时前
AI学习笔记整理(37)——自然语言处理的基本任务
人工智能·笔记·学习
亚里随笔2 小时前
偏离主路径:RLVR在参数空间中的非主方向学习机制
人工智能·深度学习·学习
鲨莎分不晴2 小时前
深度学习轻量化算子:从公式证明到数值计算
人工智能·深度学习
Java后端的Ai之路3 小时前
【神经网络基础】-激活函数详解
人工智能·深度学习·神经网络·激活函数
代码游侠3 小时前
复习——网络基础知识
网络·笔记·网络协议·算法·http
我命由我123453 小时前
Photoshop - Photoshop 工具栏(46)渐变工具
经验分享·笔记·学习·ui·职场和发展·学习方法·photoshop