【由浅入深探究langchain】第四集-(RAG)语义搜索-数据入库

前言

既然是学习langchain,那么最好的学习路径就是按照官方文档上开始学,后续文章也会按照这里学习下去。

本文从Semantic search 语义搜索开始学习。

编码

本文主要阐释了经典的 RAG(检索增强生成)架构中的"数据入库"部分,找个比较简单的PDF来测试,我这里找了我自己的一份体检报告PDF来用。放到了项目中,目录结构如下图

先安装pdf处理的插件pypdf,它提供了pdf文件的解析功能。

pip install pypdf

代码:

1.读取pdf

from langchain_community.document_loaders import PyPDFLoader

file_path = 'test4/tjbg.pdf'

loader = PyPDFLoader(file_path)

docs =loader.load()

2.分割文本

from langchain_text_splitters import RecursiveCharacterTextSplitter

text_splitter = RecursiveCharacterTextSplitter(

chunk_size = 300, #每块token/chunk size越小,块越多

chunk_overlap = 50, #重叠部分

separators = ["\n\n", "\n", "。"], # 强制按行切分

add_start_index = True

)

all_splits = text_splitter.split_documents(docs)

3.向量化

from langchain_ollama import OllamaEmbeddings

embeddings = OllamaEmbeddings(

model="qwen3-embedding:4b",

base_url="http://172.23.2.18:11434")

4.向量库存储

from langchain_chroma import Chroma

vector_store=Chroma(

collection_name="test",

embedding_function=embeddings,

persist_directory="./chroma_langchain_db"

)

ids = vector_store.add_documents(documents=all_splits)

print(f"成功保存 {len(ids)} 个文档分片到 Chroma。")

运行结果:

解释

说说这段代码干了什么:

1.加载阶段

loader = PyPDFLoader(file_path)

docs =loader.load()

PyPDFLoader 像是一个扫描仪。它打开 PDF,读取每一页的内容、字体和元数据,并将其转化为 LangChain 能够理解的 Document 对象。

原始 PDF 是二进制格式,计算机很难直接"阅读"其中的语义。这一步将其提取为纯文本。

  1. 切分阶段

text_splitter = RecursiveCharacterTextSplitter(

chunk_size = 300,

chunk_overlap = 50,

separators = ["\n\n", "\n", "。"]

)

把长篇大论的文档切成 300 字左右的小段(Chunks)

chunk_overlap (50):每一段都会包含上一段末尾的 50 个字。这非常重要,它可以防止上下文在切分点被强行切断(比如一句话断成两半,AI 就看不懂了)。

separators:因为我的文档是体检报告,所以优先按段落切,其次按行切,最后按句号切,保证语义完整。

  1. 向量化阶段

embeding = OllamaEmbeddings(model="qwen3-embedding:4b")

这里是最重要的一步。Embedding 模型会将每一段文字转化成一串数字列表(向量)。

它把文字投影到一个高维空间中。意思相近的句子(例如"心率偏快"和"脉搏跳动迅速"),在这个空间里的距离会非常接近。

因为电脑不认识汉字,但擅长算数。有了坐标,我们就能通过数学计算找到"最相关"的内容。

  1. 存储阶段

vector_store = Chroma(

collection_name="test",

embedding_function=embeding,

persist_directory="./chroma_langchain_db"

)

ids = vector_store.add_documents(documents=all_splits)

Chroma 是一个专门存储向量的数据库。不仅存下了你切好的文字,还存下了对应的"坐标"(向量)。

为了实现快速检索。当你问"这份报告的心率正常吗?"时,程序会把你的问题也变成坐标,然后在数据库里瞬间找出离这个坐标最近的几个文本块。

相关推荐
科技小花2 小时前
全球化深水区,数据治理成为企业出海 “核心竞争力”
大数据·数据库·人工智能·数据治理·数据中台·全球化
zhuiyisuifeng3 小时前
2026前瞻:GPTimage2镜像官网或将颠覆视觉创作
人工智能·gpt
徐健峰3 小时前
GPT-image-2 热门玩法实战(一):AI 看手相 — 一张手掌照片生成专业手相分析图
人工智能·gpt
weixin_370976353 小时前
AI的终极赛跑:进入AGI,还是泡沫破灭?
大数据·人工智能·agi
Slow菜鸟4 小时前
AI学习篇(五) | awesome-design-md 使用说明
人工智能·学习
冬奇Lab4 小时前
RAG 系列(五):Embedding 模型——语义理解的核心
人工智能·llm·aigc
深小乐4 小时前
AI 周刊【2026.04.27-05.03】:Anthropic 9000亿美元估值、英伟达死磕智能体、中央重磅定调AI
人工智能
码点滴4 小时前
什么时候用 DeepSeek V4,而不是 GPT-5/Claude/Gemini?
人工智能·gpt·架构·大模型·deepseek
狐狐生风4 小时前
LangChain 向量存储:Chroma、FAISS
人工智能·python·学习·langchain·faiss·agentai
波动几何4 小时前
CDA架构代码工坊技能cda-code-lab
人工智能