什么是RAG(Retrieval-Augmented Generation)?一文读懂检索增强生成

什么是RAG?

RAG是一种结合文档检索(Retrieval)与语言模型生成(Generation)的技术,它的核心思想是:先查资料,再作答

RAG是"知识"和"大模型"的桥梁。

与传统LLM(Large language model,大型语言模型,如chartgpt)不同,RAG不完全依赖模型内部知识,而是将用户的问题与一个外部知识库结合,通过检索获取相关文档,再交由语言模型生成回答。

为什么会有RAG?

RAG的出现,是为了解决传统打语言模型(LLM)在真实应用中的三大痛点:

  1. 知识截止问题:LLM的知识固定在训练时的数据(如GPT-3.5截止到2021年),无法回答新的事实、最新的政策、技术文档更新等问题
  2. 幻觉(Hallucination):LLM可能编造事实,当模型遇到知识空白时,它会"自洽的胡说八道",表面看似合理,实则错误
  3. 无法访问私有知识:无法访问公司内部知识、专属文档、个人数据等非公开内容

RAG的优势

功能 说明
外部知识接入 实时连接知识库,让模型不止靠记忆
提升问答可信度 基于真实内容作答,减少幻觉
支持复杂问答 多文档融合后,能支持长文档或跨文档问答
可快速迭代 只需要更新知识库,无需重复训练模型
企业智能化 支撑内部问答、助手、客服等应用场景

RAG的典型应用场景

  • 客户服务助手
  • 金融文档的自动文档
  • 企业文档助手,客服机器人
  • 医学指南、病例支持

RAG工作流程

如何搭建一个简单的RAG系统

工具选型(可用):

  • 文档向量化:OpenAI Embedding API
  • 向量数据库:FAISS
  • 生成模型(选择已有模型):OpenAI GPT
  • 框架推荐:LangChain、LlamIndex、Haystack

步骤概览:

  1. 文档预处理(切片、清洗)
  2. 文本向量化并存入数据库
  3. 接收用户问题 -> 转成向量 -> 检索相似片段
  4. 将检索内容 + 问题作为Prompt输出LLM生成回答

参考文章

下一步计划

搭建一个软考相关RAG系统。

相关推荐
猿代码_xiao4 分钟前
大模型微调完整步骤( LLama-Factory)
人工智能·深度学习·自然语言处理·chatgpt·llama·集成学习
文火冰糖的硅基工坊8 分钟前
[创业之路-708]:华为不仅仅是传统的通信设备提供商
人工智能·华为
CIO4010 分钟前
AI未来--零售行业“AI赋能,价值提升”
人工智能·零售
江塘17 分钟前
机器学习-KNN算法实战及模型评估可视化(C++/Python实现)
开发语言·c++·人工智能·python·算法·机器学习
koo36417 分钟前
李宏毅机器学习笔记34
人工智能·笔记·机器学习
长桥夜波18 分钟前
机器学习日报06
人工智能·机器学习
CClaris18 分钟前
机器学习中的数学——线性空间与基
人工智能·机器学习
电商API_1800790524737 分钟前
微店常用API:获取商品详情接口|关键字搜索商品接口|获取快递费接口-打通商品运营与用户体验的技术桥梁
大数据·服务器·人工智能·爬虫·数据挖掘
视***间40 分钟前
AI智能相机未来应用
人工智能·数码相机
优秘UMI43 分钟前
智能科技的附加特性:提升用户体验的多样选择
python·科技·其他·ai