【由浅入深探究langchain】第四集-(RAG)语义搜索-数据入库

前言

既然是学习langchain,那么最好的学习路径就是按照官方文档上开始学,后续文章也会按照这里学习下去。

本文从Semantic search 语义搜索开始学习。

编码

本文主要阐释了经典的 RAG(检索增强生成)架构中的"数据入库"部分,找个比较简单的PDF来测试,我这里找了我自己的一份体检报告PDF来用。放到了项目中,目录结构如下图

先安装pdf处理的插件pypdf,它提供了pdf文件的解析功能。

pip install pypdf

代码:

1.读取pdf

from langchain_community.document_loaders import PyPDFLoader

file_path = 'test4/tjbg.pdf'

loader = PyPDFLoader(file_path)

docs =loader.load()

2.分割文本

from langchain_text_splitters import RecursiveCharacterTextSplitter

text_splitter = RecursiveCharacterTextSplitter(

chunk_size = 300, #每块token/chunk size越小,块越多

chunk_overlap = 50, #重叠部分

separators = ["\n\n", "\n", "。"], # 强制按行切分

add_start_index = True

)

all_splits = text_splitter.split_documents(docs)

3.向量化

from langchain_ollama import OllamaEmbeddings

embeddings = OllamaEmbeddings(

model="qwen3-embedding:4b",

base_url="http://172.23.2.18:11434")

4.向量库存储

from langchain_chroma import Chroma

vector_store=Chroma(

collection_name="test",

embedding_function=embeddings,

persist_directory="./chroma_langchain_db"

)

ids = vector_store.add_documents(documents=all_splits)

print(f"成功保存 {len(ids)} 个文档分片到 Chroma。")

运行结果:

解释

说说这段代码干了什么:

1.加载阶段

loader = PyPDFLoader(file_path)

docs =loader.load()

PyPDFLoader 像是一个扫描仪。它打开 PDF,读取每一页的内容、字体和元数据,并将其转化为 LangChain 能够理解的 Document 对象。

原始 PDF 是二进制格式,计算机很难直接"阅读"其中的语义。这一步将其提取为纯文本。

  1. 切分阶段

text_splitter = RecursiveCharacterTextSplitter(

chunk_size = 300,

chunk_overlap = 50,

separators = ["\n\n", "\n", "。"]

)

把长篇大论的文档切成 300 字左右的小段(Chunks)

chunk_overlap (50):每一段都会包含上一段末尾的 50 个字。这非常重要,它可以防止上下文在切分点被强行切断(比如一句话断成两半,AI 就看不懂了)。

separators:因为我的文档是体检报告,所以优先按段落切,其次按行切,最后按句号切,保证语义完整。

  1. 向量化阶段

embeding = OllamaEmbeddings(model="qwen3-embedding:4b")

这里是最重要的一步。Embedding 模型会将每一段文字转化成一串数字列表(向量)。

它把文字投影到一个高维空间中。意思相近的句子(例如"心率偏快"和"脉搏跳动迅速"),在这个空间里的距离会非常接近。

因为电脑不认识汉字,但擅长算数。有了坐标,我们就能通过数学计算找到"最相关"的内容。

  1. 存储阶段

vector_store = Chroma(

collection_name="test",

embedding_function=embeding,

persist_directory="./chroma_langchain_db"

)

ids = vector_store.add_documents(documents=all_splits)

Chroma 是一个专门存储向量的数据库。不仅存下了你切好的文字,还存下了对应的"坐标"(向量)。

为了实现快速检索。当你问"这份报告的心率正常吗?"时,程序会把你的问题也变成坐标,然后在数据库里瞬间找出离这个坐标最近的几个文本块。

相关推荐
ryrhhhh2 小时前
AI流量闭环搭建指南:矩阵跃动龙虾机器人+GEO,从占位到转化全自动化
人工智能·矩阵·机器人
YOLO视觉与编程2 小时前
一文读懂-yolo26如何预测识别图片|视频|摄像头|文件夹检测适用v8v11
人工智能·深度学习·yolo·目标检测·机器学习
互联网江湖2 小时前
阅文集团站在旧时代里,迎接IP+AI的新春天
人工智能
新缸中之脑2 小时前
mflux:Mac本地生图AI工具
人工智能·macos
本是少年2 小时前
# Qwen3.5在Transformers库部署推理及ReAct智能体
人工智能·深度学习·transformer
柯儿的天空2 小时前
【OpenClaw 全面解析:从零到精通】第003篇:OpenClaw 技术依赖与生态栈详解
人工智能·ai作画·腾讯云ai代码助手
workflower2 小时前
需求-用例格式
人工智能·机器人·集成测试·软件需求
SuniaWang2 小时前
《Spring AI + 大模型全栈实战》学习手册系列·专题一:《RAG技术全景解析:从原理到架构设计》
java·javascript·人工智能·spring boot·后端·spring·架构
ECT-OS-JiuHuaShan2 小时前
整体是函数,部分是子函数——范畴论框架下的严格证明
人工智能