rag

deephub36 分钟前
人工智能·python·大语言模型·rag
深入RAG架构:分块策略、混合检索与重排序的工程实现把一个RAG系统从Demo做到生产,中间要解决5个问题。最初的版本就是标准版:全量文档 embedding,向量检索,LLM生成。演示没出过问题,但是翻车发生在数据留存政策的时候,因为系统召回了两段2废弃条款和一段聊"员工留存"的HR文档,然后把这三段内容揉成了一个看似完整实则全错的回答。
芒果不茫QAQ2 小时前
python·aigc·embedding·rag·upstash
Upstash Vector 免费版完整使用指南upstash vector官网地址Upstash Vector 是一个托管式向量数据库服务,专为 AI 应用提供高性能的向量存储和相似性搜索能力。
XLYcmy1 天前
数据库·ai·llm·prompt·agent·rag·万方
智能体大赛 实现逻辑 “检索先行”的闭环工作流在“智研星图”智能体的整体架构中,“检索先行,生成在后”并非一个简单的功能选项,而是贯穿系统始终、不容妥协的核心设计原则与基础工作流逻辑。这一机制从根本上确立了LLM与传统学术数据库的协作范式,确保智能体输出的每一个学术论断都根植于真实、新鲜、可验证的外部证据,从而系统性地构建起一个高效、可信且负责任的学术辅助系统。
@atweiwei1 天前
开发语言·算法·rust·langchain·llm·agent·rag
Rust 实现 LangChain在大语言模型(LLM)应用开发领域,LangChain 已经成为 Python 生态中最流行的框架之一。但对于追求高性能和内存安全的开发者来说,Rust 语言的魅力不言而喻。今天给大家介绍一个用 Rust 实现的 LangChain 风格框架——langchainrust,它提供了构建 LLM 应用所需的核心组件,同时保持了 Rust 语言的零成本抽象和内存安全特性。
华农DrLai3 天前
大数据·人工智能·ai·llm·rag
向量嵌入入门:给每个词分配一个“数字指纹“🚀 本文收录于 AI-From-Zero 项目 —— 一个从零开始系统学习 AI 的知识库。如果觉得有帮助,欢迎 ⭐ Star 支持!
叶庭云5 天前
rag·企业级·ai agent·上下文工程·ai 知识库问答·agent 工作流编排·智能知识库管理
AI 知识库与 Agent 能力构建工具全景调研报告本报告对当前 AI 知识库与 Agent 能力构建工具市场进行了系统性调研,覆盖多个主流产品与平台。AI Agent 正从 “概念验证” 全面迈入 “生产级应用” 阶段,2026 年被业界认定为 “企业级多智能体元年”。市场格局形成三大类型分化:流量生态型平台(如字节扣子、腾讯元器、阿里 AgentScope 等)侧重占据互联网流量入口;企业级底座型平台(如金智维 Ki-AgentS)专注一站式企业级智能体解决方案以及安全合规业务;RAGFlow、Dify、MaxKB、WeKnora 等开源平台以及 im
Beth_Chan5 天前
ai·aigc·agent·rag·genai·mcp·generative ai
Generative AI: RAG, AI Agents & Deployment目录Useful linksTypes and Application of Gen AIMarketing
董厂长6 天前
人工智能·算法·rag
用 LangGraph 实现 Small-to-Big 分块检索策略在构建企业级 RAG(检索增强生成)系统时,分块策略(Chunking Strategy)是决定检索质量与生成效果的关键一环。传统单粒度分块往往需要在“精确检索”与“上下文完整”之间做出取舍:小块检索精准但上下文孤立,大块信息丰富但噪声多、召回难。为了突破这一困境,Small-to-Big(父文档检索) 策略应运而生,它通过两级分块与递归检索,实现了“鱼与熊掌兼得”的效果。
董厂长6 天前
人工智能·llm·rag·分块策略
RAG 中的分块策略(Chunking Strategy)检索增强生成(Retrieval-Augmented Generation, RAG)已经成为大语言模型应用中不可或缺的范式。它通过从外部知识库检索相关信息,辅助模型生成更准确、更及时的答案。然而,RAG 系统的性能高度依赖于一个关键步骤:如何将原始文档分割成合适的片段(chunks)以供检索。这就是“分块策略”(Chunking Strategy)要解决的问题。
deephub7 天前
人工智能·深度学习·大语言模型·rag·检索
RAG 文本分块:七种主流策略的原理与适用场景检索是 RAG 系统的搜索引擎,分块则是这个搜索引擎的基础。分块太长、太短、有噪声、切错了位置——随便犯哪个错LLM 都会有问题。行业里有句话流传很广:“分块决定了 RAG 质量的 70%。”
laplace01237 天前
agent·claude·rag·mcp·skills
temperature定义与使用简单来说,Temperature(温度) 是控制模型回答时“自由度”或“随机性”的一个参数(范围通常在 0 到 1 之间,甚至更高)。
laplace01237 天前
人工智能·笔记·python·agent·rag
deque+yield+next语法deque(发音类似 “deck”)是 Python 标准库 collections 模块中的一个双端队列数据结构。 它的最大特点是:在两端添加或删除元素的速度非常快,比普通列表 list 快得多。
OPEN-Source7 天前
人工智能·python·agent·rag·deepseek
大模型 Agent 实战:多 Agent 太贵太慢?一套系统性的性能与成本优化方案前面的 Agent 系列,已经解决了几个大问题:但只要你一把 Agent 放进真实业务,迟早会面对两个现实问题:
OPEN-Source7 天前
人工智能·python·agent·rag·deepseek
别为多 Agent 而多 Agent:一套实用的 Agent 架构选型指南什么时候该用多 Agent?什么时候老老实实用一个强单体 Agent + 好的工具/工作流就够了?也就是:多 Agent 选型与落地决策篇。
laplace01237 天前
人工智能·agent·claude·rag·skills
Kv cacheKV Cache(Key-Value Cache,键值缓存)是大模型推理过程中为了加速生成和节省计算量而设计的一种核心技术。 为了让你直观理解,我们需要先回顾一下 Transformer 生成文本的过程。
kalvin_y_liu7 天前
人工智能·rag
RAG 应用的经典架构与流程关于 RAG 数据索引阶段 的描述是完全正确且专业的,我来为您系统梳理这四个关键阶段,并结合烹饪场景给出具体示例和优化建议。
AI-Frontiers8 天前
rag
收藏!RAG核心工具大全: 7大解析工具+向量模型+数据库+检索排序原文: https://mp.weixin.qq.com/s/5XAWHqjZspU9xtC_CckV3w
feasibility.8 天前
人工智能·docker·多模态·教育电商·dify·rag·智能体/工作流
基于Qwen3-VL多模态嵌入/重排序模型+Dify(docker)工作流的电商图文检索系统打开终端,选择一个目录,执行git clone https://github.com/langgenius/dify.git克隆dify项目
OPEN-Source8 天前
人工智能·python·agent·rag·deepseek
给 Agent 安装技能:工具抽象、自动选工具与安全边界我们已经搞定了:这一篇,我们专门盯住其中最关键、也最容易踩坑的一层:工具层(Tools / Actions) —— 也就是「给 Agent 安装技能」的地方。
AlfredZhao8 天前
ai·rag·docling
RAG 时代的“破壁人”:为什么你的大模型应用急需 Docling?在 RAG(检索增强生成)的开发圈子里,有一句流传甚广的“黑话”:“垃圾进,垃圾出(Garbage In, Garbage Out)。” 无论你的向量数据库有多快,大模型(LLM)的推理能力有多强,如果最开始喂给它的文档数据是一团乱麻,那最终的回答效果一定不尽如人意。正是在这种背景下,IBM 开源的 Docling 像一匹黑马,迅速成为了 RAG 领域的“新宠”。