聊聊最近“大火”的RAG

背景

LLM支持的最强大的应用程序之一是复杂的问答(Q&A)聊天机器人。这些应用程序(聊天机器人)可以回答有关特定来源信息的问题。其中使用的技术就是一种称为检索增强生成(RAG)的技术。

本文不涉及代码输出,纯概念解释说明。文末会贴出另一篇文章的地址,里面有代码。

什么是RAG

RAG是一种利用检索技术来增强大语言模型(LLM)的技术。它通过从某些数据源检索信息,并将这些信息作为上下文提供给LLM,从而改进生成的答案。

RAG的基本流程包括:

  1. 分块与向量化:将文本数据分割成块,并使用transformer编码器模型将这些块编码为向量,以便于搜索。

  2. 搜索索引:为这些向量建立索引,以便于快速检索。

  3. 重排和过滤:对检索到的信息进行排序和过滤,以提供最相关的上下文给LLM。

  4. 查询转换:将用户查询转换为模型可以理解的格式。

  5. 聊天引擎:用于与用户进行交互,接收用户输入并返回回答。

  6. 查询路由:决定哪些查询应该被发送到LLM进行回答。

  7. 智能体:负责协调各个组件,确保系统的顺畅运行。

  8. 响应合成:将LLM的输出与检索到的上下文合并,生成最终的回答。

RAG的优点在于它能够结合检索技术的准确性和LLM的生成能力,提供更加准确和丰富的回答。然而,它也面临一些挑战,如知识的局限性和数据安全性问题。知识的局限性意味着模型的知识仅限于其训练数据,可能无法覆盖所有领域的知识。数据安全性问题则涉及到将私域数据上传到第三方平台的风险,这对于注重数据安全的企业来说是一个重要的考虑因素。

简单来说就是:大模型对于没有学习过的知识是回答不了的,或者说回答不准确,不相关,利用RAG技术就可以很好的解决这种问题。

RAG架构

典型的RAG应用程序有两个主要组件:

  1. 索引:从外部数据源引入数据并制作索引。通常我们会预先处理好数据。

  2. 检索和生成:它需要用户在运行时查询并从索引中检索相关数据,然后将其传递给模型。

从原始数据到答案最常见的完整序列如下所示:

索引(Indexing)

  1. 加载(Load):首先我们需要加载数据。这是使用DocumentLoaders完成的。

  2. 切片(Split):文本 分离器将大块分成更小的块。这对于以下方面都很有用 索引数据并将其传递到模型,因为大块更难搜索,并且不适合模型有限的上下文窗口。

  3. 存储(Store):我们需要某个地方来存储和索引我们的拆分,以便以后可以搜索它们。这通常是使用VectorStore(向量数据库)和Embeddings(词嵌入)模型完成的。

检索和生成(Retrieval and generation)

  1. 检索(Retrieve):给定用户输入,使用Retriever从存储中检索相关切片。

  2. 生成(Generate):ChatModel / LLM使用包含问题和检索数据的提示。

实现自己的RAG应用

"智能客服"是RAG的典型应用之一,这块实际上已经介绍过了,看下面这篇文章就行。

【可能是全网最丝滑的LangChain教程】四、快速入门Retrieval Chain

相关推荐
千寻girling3 小时前
Python 是用来做 AI 人工智能 的 , 不适合开发 Web 网站 | 《Web框架》
人工智能·后端·算法
AI攻城狮3 小时前
OpenClaw 里 TAVILY_API_KEY 明明写在 ~/.bashrc,为什么还是失效?一次完整排查与修复
人工智能·云原生·aigc
stark张宇4 小时前
构建第一个AI聊天机器人:Flask+DeepSeek+Postgres实战
人工智能·postgresql·flask
yiyu07165 小时前
3分钟搞懂深度学习AI:自我进化的最简五步法
人工智能·深度学习
浪浪山_大橙子7 小时前
OpenClaw 十分钟快速,安装与接入完全指南 - 推荐使用trae 官方 skills 安装
前端·人工智能
火山引擎开发者社区7 小时前
OpenClaw 快速上手:把云手机变成你的 7×24 小时 AI 手机助手
人工智能
Qlly7 小时前
DDD 架构为什么适合 MCP Server 开发?
人工智能·后端·架构
Lee川7 小时前
从零构建智能对话系统:AI Agent 实战指南
人工智能
冬奇Lab8 小时前
一天一个开源项目(第43篇):Star-Office-UI - 像素风格的 AI 办公室看板,让 AI 助手的工作状态可视化
人工智能·开源·资讯
风象南8 小时前
纯文本模型竟然也能直接“画图”,而且还很好用
前端·人工智能·后端