RAG基础介绍

引言:

在项目开发中,我经常会用到大模型,但是模型回答很通用,无法针对我的私有代码库。这是几乎所有大模型的痛点:知识截止到训练数据 ,且**无法访问私有/实时信息。**那么有没有一种方法可以解决这个痛点呢?答案是rag------检索增强生成

什么是RAG?

RAG就是拿着资料找答案

想象一下一个考试场景,使用LLM/RAG的人作为出题者,而LLM和RAG则是考生,但是LLM参加的是闭卷考,知识储备是考试前的记忆,而RAG则是开卷考,提前知道了考试的范围,知识储备是考试时带的相关资料;显而易见,RAG相比LLM更适合开卷考试(个性化问题)

RAG 的核心流程

RAG 的核心流程=(分片+索引)+(召回+重排+生成答案),可以简单地分为准备阶段和生成答案的阶段,也可以再细分为以下三个阶段

rag流程示意图:https://excalidraw.com/#json=VQCvUuoxWxwJYr4L4GGa9,xce_iqT4shKuqA04ijfdow
阶段一:索引 (Indexing) ------ 准备参考书

把文档切分成小块 (Chunking) -> 用 Embedding 模型转为向量(语义坐标) -> 存入向量数据库 (如 Chroma, Milvus, Qdrant)

阶段二:检索(Retrieval)------翻到相关章节

把用户问题也变成向量->在向量数据库里找最相似的 top-k 个文档块->取回这些文档块作为"参考资料"

阶段三:增强与生成(Augmentation & Generation)------开卷作答

让LLM根据top-k文档块总结出最合适的回答

复制代码
# Indexing:离线准备
chunks = split(documents)          # 文档切块
vectors = embed(chunks)            # 每块转向量
store(vectors, chunks)             # 存入向量库(向量 -> 文本块)

# Retrieval + Generation:在线问答
q_vec = embed(question)            # 问题转向量
top_chunks = search_similar(q_vec, k=3)  # 相似度检索 top-k
prompt = "参考资料:\n" + top_chunks + "\n\n问题:" + question
answer = llm(prompt)               # 大模型基于资料生成答案

总结:

RAG 的本质是: 检索把相关内容找出来,生成负责把内容说清楚 。

当你希望 AI 回答"可追溯、更可靠、能用你的私有知识"时,RAG 往往是最简单、最实用的方案。

使用LLM的小tips:

在问问题之前加上下面的prompt,可以避免LLM乱编

你只能基于"参考资料"回答;如果资料不足,请回答"资料不足,无法确定"。

相关推荐
夜影风2 小时前
RAG入门:用LangChain搭建你的第一个知识库问答系统
人工智能·langchain·rag
木子七16 小时前
Llamaindex框架
ai·rag·llamaindex
冲上云霄的Jayden21 小时前
RAG:文档与 TextSegment 的编码和更新:把“分块身份稳定性”设计对
chunk·rag·textsegment
wuxinyan1231 天前
大模型学习之路010:RAG 零基础入门教程(第六篇):重排序技术
人工智能·学习·rag
程序员老邢1 天前
【技术底稿 31】Milvus 2.5.14 实战避坑实录:字段缺失、行数不匹配、Metadata JSON 类型三连坑完整解法
milvus·向量数据库·rag·技术底稿·踩坑实录·37岁老码农
Mr_pyx1 天前
RAG知识库从零到一:简单搭建教程(java版)
java·spring·ai·rag
冲上云霄的Jayden1 天前
面向 FAQ、流程文档、规则文档的 RAG 处理方案
metadata·chunk·rag·语义搜索·向量化·faq·langchain4j
打小就很皮...1 天前
基于 Python + LangChain + RAG 的知识检索系统实战
前端·langchain·embedding·rag
wuxinyan1232 天前
大模型学习之路009:问题解决-RAG 知识库系统能上传文档,但检索不到内容
人工智能·学习·rag