Embedding,rerank,lora区别

人工智能中rag+llm大模型学习,经常听到有些名词,其中embedding ,rerank,lora容易混淆。

embedding啥作用【转换文本为向量】,

rerank啥作用【接受embedding向量然后重排】

lora啥作用【用低秩矩阵来完成模型微调】

低秩矩阵啥意思?【有专门的转换论文】就是多维的矩阵变成低维,减少输入参数,从而达到不增加硬件就提高查询效率

lora属于embedding么?不属于

lora属于rerank么?不属于

embedding ,rerank,lora属于大模型组件么

embedding ,rerank,lora是rag中的重要组件,不属于llm组件

Embedding、Rerank和LoRA是人工智能和自然语言处理中的三个不同概念,分别对应模型功能、任务阶段和参数高效微调技术。

‌**Embedding模型的核心功能是将文本转换为向量表示。**‌ 它将输入文本(如句子或文档)映射到固定维度的向量空间,使语义相似的文本在向量空间中距离更近,主要用于语义相似度计算和粗粒度召回,例如在信息检索中快速从大规模文档库中筛选相关片段;这类模型通常基于Transformer架构(如BERT变体),但参数量较小(如all-MiniLM-L6-v2约2200万参数),并采用双塔结构以支持高效向量检索,适合在线系统实时处理。‌12

‌**Rerank模型专注于对初步结果进行精排序。**‌ 它接收Embedding模型返回的候选文档列表,通过交叉编码器结构对查询与每个文档进行细粒度匹配,输出相关性分数以优化排序;其目标是提升检索精度,尤其在RAG系统中能捕捉上下文细微差异,但计算成本较高,因此通常应用于小规模候选集(如前100个文档)的后处理阶段。‌13

‌**LoRA是一种参数高效微调技术,与模型功能无关。**‌ 它通过引入低秩矩阵来微调大型模型(如LLM),仅更新少量参数即可适应新任务,显著降低计算和存储开销;LoRA可应用于Embedding或Rerank模型的微调过程,例如在Rerank阶段使用LoRA优化模型对特定领域数据的适应性,但其本质是训练方法而非独立模型类型。‌4

‌**三者在典型工作流中的关系如下:**‌ 在检索系统(如RAG)中,Embedding模型首先将文档和查询转换为向量,进行快速粗召回;随后Rerank模型对召回的候选集进行精细排序,提升相关性;而LoRA作为一种微调技术,可在此流程的任意阶段使用,例如用LoRA优化Embedding模型的语义表示能力或Rerank模型的相关性判断,以适应特定应用场景

与LLM的关联‌:Embedding和Rerank模型虽可能基于LLM架构(如Qwen系列)训练,但它们功能独立于LLM的生成任务;LLM在RAG中仅承担生成阶段的角色,而Embedding、Rerank和LoRA均服务于检索流程,共同构成RAG的检索增强机制

相关推荐
大傻^21 小时前
LangChain4j RAG 核心:Document、Embedding 与向量存储抽象
开发语言·人工智能·python·embedding·langchain4j
青火coding1 天前
Embedding是什么?从文本转向量
java·机器学习·ai·embedding
L-影2 天前
下篇:从静态到动态,Embedding的进化之路
人工智能·ai·embedding
ん贤4 天前
一文读懂 Go-Eino 的 Embedding
开发语言·golang·embedding
智慧地球(AI·Earth)4 天前
谷歌发布 Gemini Embedding 2:首个原生全模态向量模型,打通音视频与图文!
音视频·语音识别·embedding
小蜗牛~向前冲6 天前
大模型学习系列-Embedding与向量数据库
人工智能·python·神经网络·学习·机器学习·embedding
新缸中之脑6 天前
Gemini Embedding 2
embedding
大傻^7 天前
【OpenClaw -07】OpenClaw 记忆系统:三层记忆架构与 Daily Notes 机制
embedding·rag·长期记忆·上下文管理·openclaw·记忆架构
自传丶7 天前
【学习笔记】大模型应用开发系列(二)Embedding 模型
笔记·学习·embedding
武汉知识图谱科技8 天前
超越预测性维护:基于知识超图与根因推理的能源电力“免疫系统”构建
人工智能·物联网·langchain·能源·知识图谱·embedding