Repetition Improves Language Model Embeddings论文阅读笔记

  • 文章提出了一种提高decoder-only LLM的embedding能力的方法,叫echo embeddings
  • last-token pooling(即直接选最后一个token作为句子的embedding)和直接mean pooling都不如文章提出的echo embedding,做法是把句子重复两次,然后取第二次的token是的mean pooling。mean pooling的缺点是太强调句子的前面部分,last-token pooling是太强调句子的后面部分,而重复两次后,第二次的句子的起始token也包含了完整句子的语义,从而不会出现直接mean pooling的问题。
  • 另外一点是,输入要添加一些instruction以鼓励第二次的句子编码包含完整句子信息,如下:
相关推荐
阿群今天学习了吗2 小时前
“鱼书”深度学习进阶笔记(3)第四章
人工智能·笔记·python·深度学习·算法
AI模块工坊2 小时前
IEEE 2025 | 重磅开源!SLAM框架用“法向量+LRU缓存”,将三维重建效率飙升72%!
人工智能·深度学习·神经网络·机器学习·计算机视觉
菜菜子爱学习2 小时前
Nginx学习笔记(二)——环境准备(VMware CentOS版)
笔记·学习·nginx·centos·运维开发
Pi_Qiu_3 小时前
Python初学者笔记第二十二期 -- (JSON数据解析)
笔记·python·json
fulangxisikexi4 小时前
bgp笔记
服务器·网络·笔记
Hcoco_me4 小时前
【4】Transformers快速入门:自然语言模型 vs 统计语言模型
人工智能·语言模型·自然语言处理
洛华3635 小时前
初识神经网络04——构建神经网络2
人工智能·深度学习·神经网络
BarbaraChow6 小时前
Seed-VC:零样本语音转换与扩散transformer
人工智能·深度学习·transformer
ChironW7 小时前
Ubuntu 22.04 离线环境下完整安装 Anaconda、CUDA 12.1、NVIDIA 驱动及 cuDNN 8.9.3 教程
linux·运维·人工智能·深度学习·yolo·ubuntu
我们从未走散7 小时前
JVM学习笔记-----图解方法执行流程
笔记·学习