LangChain开发智能问答(RAG)系统实战教程:从零构建知识驱动型AI助手

LangChain开发智能问答(RAG)系统实战教程:从零构建知识驱动型AI助手

一、RAG技术解析与LangChain简介

1.1 RAG架构核心原理

Retrieval-Augmented Generation(检索增强生成)通过结合信息检索与文本生成的优势:

复制代码
[用户问题] → [向量检索] → [相关文档] → [上下文增强] → [LLM生成] → [精准回答]

与传统问答系统相比,RAG具有:

  • 知识可更新:只需更新文档库,无需重新训练模型
  • 来源可追溯:每个回答都能关联参考文档
  • 成本更低:相比微调大模型,资源消耗大幅降低

1.2 LangChain核心组件

python 复制代码
from langchain_community.document_loaders import WebBaseLoader
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_community.vectorstores import FAISS
from langchain_core.prompts import ChatPromptTemplate
from langchain.chains import RetrievalQA

二、环境配置与数据准备

2.1 快速安装指南

bash 复制代码
# 创建conda环境
conda create -n rag python=3.10
conda activate rag

# 安装核心依赖
pip install langchain langchain-community langchain-openai faiss-cpu tiktoken

2.2 知识库构建实战

python 复制代码
# 从网页加载数据
loader = WebBaseLoader(["https://example.com/doc1", "https://example.com/doc2"])
documents = loader.load()

# 文档分块处理
text_splitter = RecursiveCharacterTextSplitter(
    chunk_size=500,
    chunk_overlap=50,
    length_function=len
)
docs = text_splitter.split_documents(documents)

三、向量检索系统搭建

3.1 向量库构建与持久化

python 复制代码
from langchain_openai import OpenAIEmbeddings

# 使用OpenAI嵌入模型
embeddings = OpenAIEmbeddings(model="text-embedding-3-small")

# 创建FAISS向量库
vectorstore = FAISS.from_documents(docs, embeddings)
vectorstore.save_local("faiss_index")  # 保存到本地

# 加载已有索引
loaded_vectorstore = FAISS.load_local("faiss_index", embeddings)

3.2 检索优化技巧

python 复制代码
# 混合检索策略
retriever = vectorstore.as_retriever(
    search_type="mmr",  # 最大边际相关性
    search_kwargs={"k": 5, "lambda_mult": 0.25}
)

# 分数阈值过滤
retriever = vectorstore.as_retriever(
    search_kwargs={"score_threshold": 0.7}
)

四、问答链集成与优化

4.1 基础问答链实现

python 复制代码
from langchain_openai import ChatOpenAI

llm = ChatOpenAI(model="gpt-3.5-turbo", temperature=0)

qa_chain = RetrievalQA.from_chain_type(
    llm=llm,
    retriever=retriever,
    chain_type="stuff"  # 简单文档拼接
)

response = qa_chain.invoke({"query": "如何申请休假?"})
print(response["result"])

4.2 高级Prompt工程

python 复制代码
from langchain_core.prompts import PromptTemplate

custom_prompt = PromptTemplate(
    input_variables=["context", "question"],
    template="""
    你是一个专业客服助手,请根据以下上下文回答问题:
    {context}
    
    问题:{question}
    回答要求:
    1. 如果信息不完整,明确告知用户
    2. 引用文档中的具体条款
    3. 使用中文简洁回答
    """
)

qa_chain = RetrievalQA.from_chain_type(
    llm=llm,
    retriever=retriever,
    chain_type_kwargs={"prompt": custom_prompt}
)

五、生产级优化方案

5.1 性能提升技巧

python 复制代码
# 异步处理提升吞吐量
async def async_query(question):
    return await qa_chain.ainvoke({"query": question})

# 缓存机制
from langchain.cache import SQLiteCache
import langchain
langchain.llm_cache = SQLiteCache(database_path=".langchain.db")

5.2 监控与评估

python 复制代码
# 记录问答历史
from langchain.callbacks import FileCallbackHandler
handler = FileCallbackHandler('logs.json')

qa_chain.invoke(
    {"query": "年度奖金如何计算?"}, 
    config={"callbacks": [handler]}
)

# 评估检索质量
from langchain.evaluation import load_evaluator
evaluator = load_evaluator("context_qa")
eval_result = evaluator.evaluate(
    examples=[...],
    predictions=[...]
)

六、完整项目示例:企业知识问答系统

6.1 项目结构

复制代码
/project
  /data
    policies.pdf
    handbook.docx
  /vector_store
    faiss_index
  app.py
  config.py

6.2 可部署的FastAPI服务

python 复制代码
from fastapi import FastAPI
from pydantic import BaseModel

app = FastAPI()

class Query(BaseModel):
    question: str

@app.post("/ask")
async def ask_question(query: Query):
    result = qa_chain.invoke({"query": query.question})
    return {
        "answer": result["result"],
        "sources": [doc.metadata["source"] for doc in result["source_documents"]]
    }

七、常见问题解决方案

7.1 高频问题排查

  1. 检索结果不相关

    • 调整chunk_size(300-1000之间)
    • 尝试不同的embedding模型
    • 添加元数据过滤
  2. 回答质量差

    • 优化prompt模板
    • 限制回答长度 max_tokens=500
    • 添加few-shot示例
  3. 处理长文档

    • 使用chain_type="map_reduce"
    • 实现分级检索(先检索章节,再检索内容)

7.2 扩展方向

  • 多模态RAG:支持图片/表格检索
  • 实时知识更新:自动同步最新文档
  • 多轮对话:结合对话历史优化检索
  • 权限控制:基于用户角色的知识过滤

最佳实践建议

  1. 从少量高质量文档开始验证流程
  2. 构建评估集量化系统表现
  3. 实现自动化知识库更新机制
  4. 添加用户反馈收集环节

完整代码示例可参考:[GitHub仓库链接](此处替换为实际仓库地址)

相关推荐
vlln22 分钟前
【论文解读】OmegaPRM:MCTS驱动的自动化过程监督,赋能LLM数学推理新高度
人工智能·深度学习·神经网络·搜索引擎·transformer
2501_9153743522 分钟前
LangChain自动化工作流实战教程:从任务编排到智能决策
python·langchain·自动化
sky丶Mamba44 分钟前
如何编写高效的Prompt:从入门到精通
人工智能·prompt
chilavert3182 小时前
深入剖析AI大模型:Prompt 开发工具与Python API 调用与技术融合
人工智能·python·prompt
囚生CY2 小时前
【学习笔记】Langchain基础(二)
笔记·学习·langchain
科技林总3 小时前
支持向量机:在混沌中划出最强边界
人工智能
陈佬昔没带相机3 小时前
基于 open-webui 搭建企业级知识库
人工智能·ollama·deepseek
Mallow Flowers3 小时前
Python训练营-Day31-文件的拆分和使用
开发语言·人工智能·python·算法·机器学习
AntBlack4 小时前
Python : AI 太牛了 ,撸了两个 Markdown 阅读器 ,谈谈使用感受
前端·人工智能·后端
leo__5205 小时前
matlab实现非线性Granger因果检验
人工智能·算法·matlab