SGPT: GPT Sentence Embeddings for Semantic Search

简介

语义搜索分为两个部分:

1.搜索和query 相关的topk文档。

2.理解文档和query后面隐藏的语义信息,而不是字面含义。

这篇论文提出了SGPT模型,只用decoder-only的transformer来进行语义搜索和sentence向量的提取。

1.SGPT-BE:来对文档和query进行粗略的相关度计算,由于可以对文档的向量进行缓存,所以计算量和文档的数量线性相关,SGPT使用了BitFit的方式只对模型bias等少部分参数进行微调,大部分模型参数在微调的过程中是被冻结的,所以能够大大提升模型的训练效率。

2.SGPT-CE:对文档和query进行concat拼接,拼接后输入到gpt模型中去,对模型输出的query token的概率进行sum pooling的方式,作为文档的得分。由于CE的方式每一个query都需要重复计算很多次,所以计算量比较大,所以一般是在BE之后,对top的文档进行encoder概率计算。

SGPT Cross-Encoder


SGPT Bi-Encoder

相关推荐
AI前沿技术追踪7 分钟前
OpenAI 12天发布会:AI革命的里程碑@附35页PDF文件下载
人工智能
余~~1853816280013 分钟前
稳定的碰一碰发视频、碰一碰矩阵源码技术开发,支持OEM
开发语言·人工智能·python·音视频
天冬忘忧33 分钟前
Flink优化----数据倾斜
大数据·flink
李昊哲小课34 分钟前
deepin 安装 zookeeper
大数据·运维·zookeeper·debian·hbase
galileo20161 小时前
LLM与金融
人工智能
筒栗子1 小时前
复习打卡大数据篇——Hadoop MapReduce
大数据·hadoop·mapreduce
金州饿霸1 小时前
Hadoop集群(HDFS集群、YARN集群、MapReduce计算框架)
大数据·hadoop·hdfs
DREAM依旧1 小时前
隐马尔科夫模型|前向算法|Viterbi 算法
人工智能
GocNeverGiveUp1 小时前
机器学习2-NumPy
人工智能·机器学习·numpy
lucky_syq1 小时前
Spark和MapReduce之间的区别?
大数据·spark·mapreduce