LangChain:与RAG相关的模块

写在最前

本篇博客主要整理LangChain中与RAG(Retrieval-Augmented Generation,即检索增强生成)相关的模块。但这部分内容不会详细介绍,原因主要有以下几点:

  • LangChain中数据处理与RAG相关的工具相对而言比较粗糙;
  • 这一类模块集成了太多第三方工具,无法一一详细介绍其用法;
  • LlamaIndex在数据处理上的工具会更丰富。

1. documents相关模块

LangChain中的langchain_community包的document_loadersdocument_compressorsdocument_transformers模块封装了很多文件处理工具。但目前使用下来效果没有那么惊艳,所以这里不会特别详细的介绍该模块。

1.1 document_loaders模块

document_loaders负责加载外部数据源中的数据(比如PDF、Word、Html页面),将其转换为内部可处理的文档格式。该模块下的类主要包括以下两大类别:

  • Loader读取器: Loader类都继承自BaseLoader类(该类的定义在langchain_core.document_loaders中),这一大类别一般可以直接接收文件的路径来读取文件内容。
  • Parser解析器:Parser继承BaseBlobParser(该类的定义在langchain_core.document_loaders中),这一个类别可以直接解析二进制数据Blob

这里仅以pdf文件的读取为例进行说明:

python 复制代码
from langchain_community.document_loaders import PDFMinerLoader
from langchain_community.document_loaders.parsers import PDFMinerParser
from langchain_core.documents.base import Blob

loader = PDFMinerLoader("llama2.pdf")
pages=loader.load_and_split()
print(pages[0])
print('===============')
blob=Blob.from_path("llama2.pdf")
parser=PDFMinerParser().parse(blob)
print(parser[0])

关于上述代码,有以下几点需要说明:

  • 这些文件读取器、解析器的都依赖其它专门的python包,比如上述代码中用到的PDFMinerLoader, 其背后使用的包为pdfminer.six。在运行代码之前,要先完成该包的安装。
  • 上述代码中Blob包的引用方法与当前LangChain官方案例中的引用方法不同(官方案例中的引用方法为from langchain_core.documents import Blob ),原因暂时不明。
1.2 document_compressors模块

从名称上看,该模块好像是对documents进行压缩,但从各个类的源代码中可以发现,该模块的主要完成对documents的重排。该模块中的类都继承自BaseDocumentCompressor类,有两个基本的方法:compress_documentsacompress_documents

目前document_compressors模块中的类主要有以下几种:DashScopeRerankFlashrankRerankJinaRerank等。不同的类方法会有些差异。这里仅以阿里的DashScopeRerank为例进行说明,具体如下

python 复制代码
from langchain_community.document_compressors import DashScopeRerank
from dotenv import load_dotenv,find_dotenv
from langchain_core.documents import Document
_=load_dotenv(find_dotenv())
docs=[
    Document(page_content="今天天气很好"),
    Document(page_content="今天星期一"),
    Document(page_content="今天将会有新人加入我们"),
]
new_docs=DashScopeRerank().compress_documents(docs,query="今天是周几")
print(new_docs)

其运行结果如下:

bash 复制代码
[Document(metadata={'relevance_score': 0.5411219497495873}, page_content='今天星期一'), 
Document(metadata={'relevance_score': 0.2763095655416217}, page_content='今天将会有新人加入我们'),
Document(metadata={'relevance_score': 0.1740313260790499}, page_content='今天天气很好')]
1.3 document_transformers模块

顾名思义,使用document_transformers中的类可以对文档进行转换,比如将文档转换成embedding向量,从文档中抽取问题对等。该模块中的类都继承虚拟类BaseDocumentTransforme,这里仅以EmbeddingsRedundantFilter为例进行说明(结果将展示出具体的embedding向量,这里不展示):

python 复制代码
from langchain_community.document_transformers import EmbeddingsRedundantFilter
from langchain_core.documents import Document
from langchain_community.embeddings import HuggingFaceBgeEmbeddings
model_name = "BAAI/bge-large-en"
model_kwargs = {'device': 'cpu'}
encode_kwargs = {'normalize_embeddings': True}
hf = HuggingFaceBgeEmbeddings(
    model_name=model_name,
    model_kwargs=model_kwargs,
    encode_kwargs=encode_kwargs
)
docs=[
    Document(page_content="早上好"),
    Document(page_content="你好"),
    Document(page_content="hello"),
]
new_docs=EmbeddingsRedundantFilter(
    embeddings=hf).transform_documents(docs)
print(new_docs)

2. embeddings模块

LangChain中的langchain_community.embedddings模块中集成了当下比较流行的embedding模型。在document_transformers模块中已经展示了embedding模型的使用,这里就不再赘述了。

3. retrievers模块

LangChain中的langchain_community.retrievers模块可以实现信息检索功能,即依据查询返回最相关的文档。langchain_community.retrievers模块中的类都继承自langchain_core.retrievers.BaseRetriever类,而BaseRetriever类实现了Runnable接口,因此该模块中的类可以集成到LCEL中。

这里仅以SVMRetriever为例来说明其用法。具体如下:

python 复制代码
from langchain_community.retrievers.svm import SVMRetriever
from langchain_community.embeddings import HuggingFaceBgeEmbeddings
model_name = "BAAI/bge-large-en"
model_kwargs = {'device': 'cpu'}
encode_kwargs = {'normalize_embeddings': True}
hf = HuggingFaceBgeEmbeddings(
    model_name=model_name,
    model_kwargs=model_kwargs,
    encode_kwargs=encode_kwargs
)
docs=["What is the capital of France?",
      "today is a good day",
      "this code is running well",
      "this code is not working"]
svm_retriever = SVMRetriever.from_texts(embeddings=hf,
                             texts=docs,k=2)
rel_docs=svm_retriever.invoke("the result of code")
print(rel_docs)

其结果如下:

bash 复制代码
[Document(page_content='this code is not working'), Document(page_content='this code is running well')]

4. vectorstores模块

LangChain中的langchain_community.vectorstores模块主要负责保存embedding向量及向量检索。

相关推荐
大模型铲屎官1 天前
玩转 LangChain:从文档加载到高效问答系统构建的全程实战
人工智能·python·ai·langchain·nlp·文档加载·问答系统构建
玩电脑的辣条哥3 天前
怎么使用langchain和ollama自己简单开发搭建一个本地有记忆的大模型?
langchain·flask·数字人管家·ai管家·大模型记忆
for627 天前
langchain4j执行源码分析
java·langchain
冻感糕人~11 天前
使用LangChain、CrewAI、AutoGen搭建数据分析Agent
人工智能·windows·ai·数据分析·langchain·大模型·agent
weixin_3077791311 天前
Python的Langchain库的功能及实现代码
人工智能·python·langchain
CJenny13 天前
LangChain 学习笔记
笔记·学习·langchain
背太阳的牧羊人13 天前
用于与多个数据库聊天的智能 SQL 代理问答和 RAG 系统(2) —— 从 PDF 文档生成矢量数据库 (VectorDB),然后存储文本的嵌入向量
数据库·人工智能·sql·langchain·pdf
小码农叔叔13 天前
【大模型】百度千帆大模型对接LangChain使用详解
langchain·langchain使用详解·langchain对接千帆·langchain组件使用详解·langchain使用·langchain组件使用·langchain组件
背太阳的牧羊人14 天前
使用 SQL 和表格数据进行问答和 RAG(7)—将表格数据(CSV 或 Excel 文件)加载到向量数据库(ChromaDB)中
数据库·sql·langchain·excel
背太阳的牧羊人14 天前
使用 SQL 和表格数据进行问答和 RAG(6)—将指定目录下的 CSV 或 Excel 文件导入 SQLite 数据库
数据库·sql·langchain·sqlite·excel