rag

.唉9 小时前
大模型·知识图谱·rag
03. GraphRAG:当知识图谱遇见大语言模型摘要:本文先简短回顾上篇RAG分块的内容,然后深入解析了GraphRAG的核心原理与应用场景,从知识图谱构建到社区检测算法,再到多级检索策略,带你全面理解这一大语言模型增强技术。作为AI学习者,掌握GraphRAG将为你打开复杂推理应用的大门。
Irissgwe11 小时前
人工智能·ai·langchain·llm·rag·langgraph·文档加载器
LangChain之核心组件(文档加载器Document loaders)我们将重点放在 RAG 阶段(Retrieval-Augmented Generation,检索增强生成)。 这是当前大语言模型应用的核心模式。RAG 的流程相对复杂,为了更好的理解 RAG,我们先用 AI 搜索来引出 RAG。 • 对于【AI 大模型】来说,它最擅长的是语义理解和文本总结,最不擅长的就是获取实时的信息。因为大模型的训练数据是有截止日期的! • 对于【搜索引擎】来说,它最擅长的就是获取实时的信息,缺点是信息分散,每次都需要人为进行 总结。 • 大模型与搜索引擎的结合,就是给 AI 配备了一
.唉15 小时前
大模型·rag·llamaindex
05. 从入门到实践: LlamaIndex与 RAG 应用构建摘要:本文聚焦LlamaIndex,作为LLM应用的核心数据框架,它搭建起通用大模型与私有数据的桥梁。文章系统拆解其四大核心流程:Loading完成文档加载与节点分割,Indexing构建向量索引实现语义检索,Storing借助StorageContext实现数据持久化,Querying提供自然语言查询接口。同时深入解析Workflows模块,涵盖事件驱动的控制流、状态管理与可视化调试能力。全文帮助开发者掌握从数据接入到复杂AI代理编排的完整路径,助力构建高效RAG应用。
梦想画家1 天前
rag·智能体·agentic rag
Agentic RAG:从“被动检索”到“主动决策”的架构演进随着大语言模型(LLM)应用的深入,传统的检索增强生成(RAG)系统在处理复杂、多跳推理任务时逐渐显露出局限性。本文深入探讨了Agentic RAG这一新兴范式,解析其如何通过引入“智能体”概念,将静态的检索管道升级为具备规划、决策与反思能力的动态系统。我们将详细拆解其三大核心组件——检索智能体、检索路由器与答案评论家,并通过实战案例展示其工作流程,为构建下一代企业级AI应用提供实用指南。
wuxinyan1231 天前
人工智能·学习·rag
大模型学习之路006:RAG 零基础入门教程(第三篇):BM25 关键词检索与混合检索实战在上篇中,我们实现了基于 BGE+Chroma 的语义检索系统,它能很好地理解文本的语义,解决了传统检索 "字面匹配、语义不匹配" 的问题。但单一的语义检索存在致命短板:
deephub2 天前
人工智能·大语言模型·向量检索·rag·bm25
BM25 + Vectors:为什么真实 RAG 系统通常两者都需要RAG 是一个先选内容再做生成的系统;retriever 不搜索文档,它搜索 chunks。 chunks 有问题了那么检索还没开始就已经完蛋了,所以我们可以用结构感知切分修这一点,把标题、代码块、警告框保持在一起。
哥本哈士奇2 天前
rag
详解传统RAG、Text2SQL、Graph RAG:适用场景与问题示例汇总在AI问答与数据查询领域,传统RAG、Text2SQL、Graph RAG是三种核心的技术路径,它们各自有明确的定位、独特的特点,适配不同类型的查询需求。很多开发者在实际项目中会混淆三者的适用场景,本文将详细拆解每个系统的核心特点,明确其适合回答的问题类型,并搭配10个具体示例,帮助大家快速区分、精准选型。
AI精钢2 天前
llm·向量检索·rag·ai工程·chunking
RAG 的 Chunking 有什么好方案?从原理到实战选型Reddit 上有一个观点说得很直接:“Chunking 优化的是 embedding 的便利性,不是文档被使用的方式。”
AI精钢2 天前
大模型·llm·向量检索·rag·ai工程
如何提高 RAG 的检索质量?这才是真正的瓶颈所在有一句在 AI 工程圈流传的话:“RAG 没问题,问题出在你的检索层。”大多数开发者遇到 RAG 效果差时,第一反应是换更大的模型、调 temperature、改 prompt。折腾一圈发现没用——因为根本没对症。
庞轩px2 天前
人工智能·自然语言处理·embedding·向量检索·余弦相似度·rag·高维向量空间
Embedding与向量语义——大模型是怎样“理解”文字的?在面试中,如果你在简历上写了“RAG”、“向量检索”,面试官几乎一定会追问一句:“你用了 Embedding,那你说说它的原理是什么?为什么两个词的向量相似,就代表它们语义相近?”
Arhero2 天前
动态规划·embedding·rag·文本切分·语义分块
Semantic Chunk 为什么需要 Embedding API固定长度分块不需要任何外部服务,语义分块却必须调用 Embedding API——这背后的原因是什么?
庞轩px3 天前
人工智能·prompt·rag·大模型幻觉·engineering·训练方式
大模型为什么会有“幻觉”——从训练方式到推理局限如果你用过ChatGPT或任何大模型,你一定遇到过这种情况:你问:“深度求索公司是哪一年成立的?” 大模型答:“深度求索公司成立于2019年,总部位于深圳……”(一本正经、语气肯定、完全是编的)
new【一个】对象3 天前
python·llm·agent·rag
RAG详解原理:在构建大语言模型智能体时,有时需要给大模型提供外部文本资料。需要将待查询文本,切片后存储进向量数据库。通过余弦相似度匹配,找到与用户问题语义最接近的文本片段。
Joseph Cooper3 天前
数据库·人工智能·ai·agent·rag·上下文工程
RAG 与 AI Agent:智能体真的需要检索增强生成吗?很多企业做 AI 应用时,第一反应都是上 RAG:把内部文档切片、向量化、放进向量库,然后让大模型基于检索结果回答问题。
给自己做减法3 天前
人工智能·python·rag
rag混合检索入库需要注意的是混合检索不能直接采用并集, 错误代码如下,不可用于实际生产环境,(最优解应该使用加权融合)
wuxinyan1233 天前
人工智能·学习·rag
大模型学习之路004:RAG 零基础入门教程(第一篇):基础理论与文档处理流水线在学习 RAG 之前,我们必须先搞清楚:RAG 是为了解决什么问题而诞生的?所有的大语言模型(GPT、Claude、LLaMA、Qwen 等)都有三个无法通过自身优化彻底解决的原生缺陷:
狐狐生风4 天前
人工智能·python·学习·langchain·rag·agentai
LangChain RAG 基础基于你已经学习完:检索增强生成大白话:这就叫 RAG。这就是 最简单、最标准的 RAG 结构!==================================分隔符==================================
qq_283720055 天前
人工智能·langchain·agent·rag
Python+LangChain 调用大模型全方案深度实战:原生调用、统一接口、流式输出、异步、自定义模型全解析在大语言模型(LLM)应用开发领域,LangChain 已成为 Python 生态中最主流的应用开发框架,其核心价值之一是屏蔽不同大模型的 API 差异,提供标准化的调用、编排、扩展能力。无论是 OpenAI、Anthropic、通义千问、文心一言、讯飞星火,还是本地部署的 Llama、ChatGLM,LangChain 都能通过统一的接口实现调用,大幅降低多模型适配、切换的开发成本。
Flying pigs~~5 天前
数据库·人工智能·缓存·微调·知识库·rag
RAG智慧问答项目核心技术:Python+LangChain+Milvus+BGE-M3+BGE-Reranker-Large+bert-base-chinese微调+Qwen2.5-14B (INT8)+光明AI大模型+PaddleOCR+MySQL+Redis+FastAPI+Docker+Vue3+Typescript
无籽西瓜a5 天前
人工智能·ai·rag
RAG 中的幻觉是什么?原因分析与防范措施在学习 RAG 的时候,经常会听到一个词:幻觉。简单说,幻觉就是:AI 一本正经地说错话。它可能回答得很流畅、很自信,甚至格式也很专业,但内容其实并不来自你的知识库,或者和真实资料不一致。