Repetition Improves Language Model Embeddings论文阅读笔记

  • 文章提出了一种提高decoder-only LLM的embedding能力的方法,叫echo embeddings
  • last-token pooling(即直接选最后一个token作为句子的embedding)和直接mean pooling都不如文章提出的echo embedding,做法是把句子重复两次,然后取第二次的token是的mean pooling。mean pooling的缺点是太强调句子的前面部分,last-token pooling是太强调句子的后面部分,而重复两次后,第二次的句子的起始token也包含了完整句子的语义,从而不会出现直接mean pooling的问题。
  • 另外一点是,输入要添加一些instruction以鼓励第二次的句子编码包含完整句子信息,如下:
相关推荐
木木阳8 分钟前
ICCV2023单目摄像头相关论文速览
论文阅读·iccv·深度估计·单目摄像头
智驱力人工智能17 分钟前
现代工作场所中的睡岗检测算法应用
人工智能·深度学习·目标检测·计算机视觉·边缘计算·行为识别·睡岗检测
HZ3557228 分钟前
智谱AI: ChatGLM API的使用
python·自然语言处理
学不完了是吧1 小时前
GitHub使用教程(小白版)
笔记·学习·github
鑫仔_要变强1 小时前
C语言快速学习笔记
笔记·学习
MUKAMO2 小时前
【深度学习】图形模型基础(2):概率机器学习模型与人工智能
人工智能·深度学习·机器学习
BABA88912 小时前
Transformer模型学习
深度学习·学习·transformer
1234567今天你有没有摸鱼2 小时前
《昇思25天学习打卡营第02天|快速入门》
深度学习·学习·机器学习·mindspore
小白探索世界欧耶!~3 小时前
使用patch-package自动修改node_modules中的内容/打补丁
前端·经验分享·笔记
云起无垠3 小时前
【论文速读】|MEDFUZZ:探索大语言模型在医学问题回答中的鲁棒性
人工智能·语言模型·自然语言处理