Embedding,rerank,lora区别

人工智能中rag+llm大模型学习,经常听到有些名词,其中embedding ,rerank,lora容易混淆。

embedding啥作用【转换文本为向量】,

rerank啥作用【接受embedding向量然后重排】

lora啥作用【用低秩矩阵来完成模型微调】

低秩矩阵啥意思?【有专门的转换论文】就是多维的矩阵变成低维,减少输入参数,从而达到不增加硬件就提高查询效率

lora属于embedding么?不属于

lora属于rerank么?不属于

embedding ,rerank,lora属于大模型组件么

embedding ,rerank,lora是rag中的重要组件,不属于llm组件

Embedding、Rerank和LoRA是人工智能和自然语言处理中的三个不同概念,分别对应模型功能、任务阶段和参数高效微调技术。

‌**Embedding模型的核心功能是将文本转换为向量表示。**‌ 它将输入文本(如句子或文档)映射到固定维度的向量空间,使语义相似的文本在向量空间中距离更近,主要用于语义相似度计算和粗粒度召回,例如在信息检索中快速从大规模文档库中筛选相关片段;这类模型通常基于Transformer架构(如BERT变体),但参数量较小(如all-MiniLM-L6-v2约2200万参数),并采用双塔结构以支持高效向量检索,适合在线系统实时处理。‌12

‌**Rerank模型专注于对初步结果进行精排序。**‌ 它接收Embedding模型返回的候选文档列表,通过交叉编码器结构对查询与每个文档进行细粒度匹配,输出相关性分数以优化排序;其目标是提升检索精度,尤其在RAG系统中能捕捉上下文细微差异,但计算成本较高,因此通常应用于小规模候选集(如前100个文档)的后处理阶段。‌13

‌**LoRA是一种参数高效微调技术,与模型功能无关。**‌ 它通过引入低秩矩阵来微调大型模型(如LLM),仅更新少量参数即可适应新任务,显著降低计算和存储开销;LoRA可应用于Embedding或Rerank模型的微调过程,例如在Rerank阶段使用LoRA优化模型对特定领域数据的适应性,但其本质是训练方法而非独立模型类型。‌4

‌**三者在典型工作流中的关系如下:**‌ 在检索系统(如RAG)中,Embedding模型首先将文档和查询转换为向量,进行快速粗召回;随后Rerank模型对召回的候选集进行精细排序,提升相关性;而LoRA作为一种微调技术,可在此流程的任意阶段使用,例如用LoRA优化Embedding模型的语义表示能力或Rerank模型的相关性判断,以适应特定应用场景

与LLM的关联‌:Embedding和Rerank模型虽可能基于LLM架构(如Qwen系列)训练,但它们功能独立于LLM的生成任务;LLM在RAG中仅承担生成阶段的角色,而Embedding、Rerank和LoRA均服务于检索流程,共同构成RAG的检索增强机制

相关推荐
rrrjqy8 小时前
深入浅出 RAG:万物皆可向量化 (Embedding) 与 Spring AI + pgvector 实战
人工智能·spring·embedding
deephub2 天前
向量数据库对比:Pinecone、Chroma、Weaviate 的架构与适用场景
人工智能·python·大语言模型·embedding·向量检索
F_D_Z3 天前
Word Embedding :从分布式假设到神经网络语言模型
分布式·word·embedding
pzx_0014 天前
【Pytorch】nn.Embedding函数详解
人工智能·pytorch·embedding
Anastasiozzzz4 天前
深入研究RAG: 在线阶段-查询&问答
数据库·人工智能·ai·embedding
laufing4 天前
RAG 基础版 -- 基于langchain框架
langchain·embedding·rag
热爱生活的猴子7 天前
Tokenizer 与 Embedding 核心笔记
笔记·embedding
boonya7 天前
Embedding模型与向量维度动态切换完整方案
java·数据库·embedding·动态切换大模型
小驴程序源7 天前
【OpenClaw 完整安装实施教程(Windows + Ollama 本地模型)】
gpt·langchain·aigc·embedding·ai编程·llama·gpu算力
deephub8 天前
多 Aspect Embedding:将上下文信号编入向量相似性计算的检索架构
人工智能·大语言模型·embedding·rag