检索增强生成(RAG)入门指南:构建知识库与LLM协同系统

检索增强生成(RAG)初学者指南

大语言模型(LLM)使我们能够高效、可靠且快速地处理大量文本数据。过去两年最流行的应用场景之一就是检索增强生成(Retrieval-Augmented Generation, RAG)。

RAG允许我们获取若干文档(从几个到数十万个),创建文档知识库,然后进行查询并基于文档获得带有相关来源的答案。相比需要耗时数小时甚至数天的手动搜索,我们只需几秒延迟就能让LLM完成搜索。

云端部署 vs 本地部署

构建RAG系统包含两个核心部分:知识数据库和LLM。前者如同图书馆,后者则像高效的图书管理员。

创建此类系统的首要决策是选择云端还是本地部署。本地部署在大规模时具有成本优势,同时能更好保障隐私;而云端方案则启动成本低且几乎无需维护。为清晰演示RAG概念,本指南将采用云端部署方案,但文末会补充本地部署的注意事项。

知识(向量)数据库

首先需要创建知识数据库(技术上称为向量数据库)。具体方法是通过嵌入模型处理文档,为每个文档生成向量。嵌入模型擅长理解文本,生成的向量在向量空间中会使相似文档彼此靠近。

这种特性极其便利,我们通过一个假设组织的四份文档在二维向量空间中的分布来说明:

如图所示,两份人力资源文档被归为一组,且远离其他类型文档。当收到HR相关问题时,我们可以计算该问题的嵌入向量,其结果也会靠近这两份HR文档。

通过简单的欧几里得距离计算,就能匹配最相关的文档提供给LLM回答问题。MTEB排行榜比较了各种嵌入算法,值得注意的是许多开源模型已超越OpenAI等专有供应商。

选择模型时需关注三个指标:总体评分、模型大小和最大token数。模型大小决定加载所需显存和嵌入计算速度;最大token数限制单次嵌入的文本量,大文件可能需要分割处理。注意嵌入模型仅处理文本,PDF需转换格式,图像等富媒体内容需要添加描述(使用AI图像标注模型)或舍弃。

开源本地嵌入模型可通过transformers库运行,OpenAI嵌入模型则需要API密钥。以下是使用OpenAI API创建嵌入和简易基于pickle文件系统的向量数据库的Python代码:

python 复制代码
import os
from openai import OpenAI
import pickle

# 配置OpenAI API密钥
openai = OpenAI(api_key="your_openai_api_key")

# 存放.txt文件的目录
directory = "doc1"
embeddings_store = {}

def embed_text(text):
    """使用OpenAI嵌入模型处理文本"""
    response = openai.embeddings.create(
        input=text,
        model="text-embedding-3-large"  # 成本考量可使用text-embedding-3-small
    )
    return response.data[0].embedding

# 后续文件处理、存储和加载函数...(完整代码见原文)

大语言模型(LLM)集成

构建文档数据库后,创建函数获取查询最相关的3个文档:

python 复制代码
import numpy as np

def get_top_k_relevant(query, embeddings_store, top_k=3):
    """基于欧几里得距离返回最相关的top_k文档"""
    query_embedding = embed_text(query)
    distances = []
    for doc_id, doc_embedding in embeddings_store.items():
        dist = np.linalg.norm(np.array(query_embedding) - np.array(doc_embedding))
        distances.append((doc_id, dist))
    distances.sort(key=lambda x: x[1])
    return distances[:top_k]

最后使用GPT-4o基于检索到的文档生成答案:

python 复制代码
def answer_query_with_context(query, doc_store, embeddings_store, top_k=3):
    """使用GPT-4o基于上下文回答问题"""
    best_matches = get_top_k_relevant(query, embeddings_store, top_k)
    context = ""
    for doc_id, distance in best_matches:
        doc_content = doc_store.get(doc_id, "")
        context += f"--- 文档: {doc_id} (距离: {distance:.4f}) ---\n{doc_content}\n\n"
    
    completion = openai.chat.completions.create(
        model="gpt-4o",
        messages=[...],  # 完整提示工程配置见原文
        temperature=0.7
    )
    return completion.choices[0].message.content

进阶方向

这个直观的RAG实现还有很大优化空间:

  • 使用本地LLM并添加语音支持
  • 采用直接偏好优化(DPO)微调LLM
  • 针对医疗/法律等专业领域微调嵌入模型
  • 大规模应用时选用Pinecone或Milvus等企业级向量数据库
  • 当默认结果不满意时,微调LLM的应答方式
相关推荐
天天写点代码2 分钟前
大模型面试
人工智能
XDevelop AI智能应用软件开发3 分钟前
从“代码中心”到“设计中心”:重新定义 AI 时代的下一代 IDE
ide·人工智能
未来之窗软件服务4 分钟前
SenseVoicecpp ggml-cann.cpp大模型[AI人工智能(七十六)]—东方仙盟
人工智能·算法·sensevoice·仙盟创梦ide·东方仙盟
KC2705 分钟前
Claude Code源码泄露事件深度解析:一次低级失误引发的AI安全地震
人工智能·安全·ai编程
m0_738120725 分钟前
AI 安全——Gandalf靶场 Prompt Injection全关卡绕过讲解
人工智能·安全·web安全·网络安全·prompt
云安全助手5 分钟前
AI安全进入深水区:智能体风险爆发
人工智能
拓端研究室6 分钟前
2026年智能网联汽车(车联网)蓝皮书:渠道整合、新能源出海与市场分化|附200+份报告PDF、数据、可视化模板汇总下载
大数据·人工智能
LittroInno6 分钟前
TVMSTofu Video Management System综合视频管理平台
人工智能·计算机视觉·音视频·无人机·低小慢目标
AI自动化工坊6 分钟前
微软Agent Framework实战指南:统一Python和.NET的AI开发体验
人工智能·python·microsoft·.net·agent
区块block8 分钟前
连接人类算力与 AI 智能体:Aethr Protocol 正为 Web4.0 构建“能源网络”
网络·人工智能·能源