LangChain篇-自定义RAG加载器

一、概述

基于 LLM 的应用程序通常涉及从数据库或文件(如 PDF)中提取数据,并将其转换为LLM可以利用的格式。在 LangChain 中,这通常涉及创建Document对象,该对象封装了提取的文本(page_content)以及元数据 - 包含有关文档的详细信息的字典,例如作者姓名或出版日期。Document 对象通常被格式化为提示,然后输入 LLM,以便 LLM 可以使用 Document 中的信息生成所需的响应(例如,对文档进行摘要)。Documents 可以立即使用,也可以索引到向量存储中以供将来检索和使用。 文档加载的主要抽象为:

组件 描述
Document 包含 text 和 metadata 的内容
BaseLoader 用于将原始数据转换为 Documents
Blob 二进制数据的表示,可以位于文件或内存中
BaseBlobParser 解析 Blob 以生成 Document 对象的逻辑

下面将演示如何编写自定义文档加载和文件解析逻辑;具体而言,我们将看到如何:

  1. 通过从 BaseLoader 进行子类化来创建标准文档加载器。

  2. 使用 BaseBlobParser 创建解析器,并将其与 BlobBlobLoaders 结合使用。这在处理文件时非常有用。

二、标准文档加载器

可以通过从 BaseLoader 进行子类化来实现文档加载器,BaseLoader 提供了用于加载文档的标准接口。

接口

方法名 说明
lazy_load 用于惰性逐个加载文档。用于生产代码。
alazy_load lazy_load的异步变体
load 用于急切将所有文档加载到内存中。用于交互式工作。
aload 用于急切将所有文档加载到内存中。用于交互式工作。在2024-04添加到LangChain。
  • load 方法是一个方便的方法,仅用于交互式工作 - 它只是调用 list(self.lazy_load())

  • alazy_load 具有默认实现,将委托给 lazy_load。如果您使用异步操作,建议覆盖默认实现并提供本机异步实现。 {.callout-important} 在实现文档加载器时,不要 通过 lazy_loadalazy_load 方法传递参数。 所有配置都应通过初始化器(init)传递。这是 LangChain 的设计选择,以确保一旦实例化了文档加载器,它就具有加载文档所需的所有信息。

实现

让我们创建一个标准文档加载器的示例,该加载器从文件中加载数据,并从文件的每一行创建一个文档。

python 复制代码
 #示例:doc_loader_custom.py
from typing import AsyncIterator, Iterator
from langchain_core.document_loaders import BaseLoader
from langchain_core.documents import Document
class CustomDocumentLoader(BaseLoader):
    """一个从文件逐行读取的示例文档加载器。"""
    def init(self, file_path: str) -> None:
        """使用文件路径初始化加载器。
        Args:
            file_path: 要加载的文件的路径。
        """
        self.file_path = file_path
   
    def lazy_load(self) -> Iterator[Document]:   # <-- 不接受任何参数
        """逐行读取文件的惰性加载器。
        当您实现惰性加载方法时,应使用生成器逐个生成文档。
        """
        with open(self.file_path, encoding="utf-8") as f:
            line_number = 0for line in f:
                yield Document(
                    page_content=line,
                    metadata={"line_number": line_number, "source": self.file_path},
                )
                line_number += 1          
    # alazy_load是可选的。 
    # 如果您省略了实现,将使用默认实现,该实现将委托给lazy_load! 
   async def alazy_load(
        self,
   ) -> AsyncIterator[Document]:   # <-- 不接受任何参数
       """逐行读取文件的异步惰性加载器。"""
        # 需要aiofiles
        # 使用`pip install aiofiles`安装
        # https://github.com/Tinche/aiofiles
       import aiofiles
       async with aiofiles.open(self.file_path, encoding="utf-8") as f:
            line_number = 0
            async for line in f:
                yield Document(
                    page_content=line,
                    metadata={"line_number": line_number, "source": self.file_path},
                )
                line_number += 1

测试

为了测试文档加载器,我们需要一个包含一些优质内容的文件。

ini 复制代码
with open("./meow.txt", "w", encoding="utf-8") as f:
    quality_content = "喵喵🐱 \n 喵喵🐱 \n 喵😻😻"
    f.write(quality_content)
loader = CustomDocumentLoader("./meow.txt")
bash 复制代码
 # 测试延迟加载接口
for doc in loader.lazy_load():
    print()
    print(type(doc))
    print(doc)
arduino 复制代码
<class 'langchain_core.documents.base.Document'>
page_content='喵喵🐱 
' metadata={'line_number': 0, 'source': './meow.txt'}

<class 'langchain_core.documents.base.Document'>
page_content=' 喵喵🐱 
' metadata={'line_number': 1, 'source': './meow.txt'}

<class 'langchain_core.documents.base.Document'>
page_content=' 喵😻😻' metadata={'line_number': 2, 'source': './meow.txt'}
python 复制代码
 # 测试异步实现
async for doc in loader.alazy_load():
    print()
    print(type(doc))
    print(doc)
arduino 复制代码
<class 'langchain_core.documents.base.Document'>
page_content='喵喵🐱 
' metadata={'line_number': 0, 'source': './meow.txt'}

<class 'langchain_core.documents.base.Document'>
page_content=' 喵喵🐱 
' metadata={'line_number': 1, 'source': './meow.txt'}

<class 'langchain_core.documents.base.Document'>
page_content=' 喵😻😻' metadata={'line_number': 2, 'source': './meow.txt'}

{.callout-tip} load() 在诸如 Jupyter Notebook 之类的交互式环境中很有用。 在生产代码中避免使用它,因为急切加载假定所有内容都可以放入内存中,而这并不总是成立,特别是对于企业数据而言。

lua 复制代码
loader.load()
css 复制代码
[Document(metadata={'line_number': 0, 'source': './meow.txt'}, page_content='喵喵🐱 \n'), Document(metadata={'line_number': 1, 'source': './meow.txt'}, page_content=' 喵喵🐱 \n'), Document(metadata={'line_number': 2, 'source': './meow.txt'}, page_content=' 喵😻😻')]

三、文件处理

许多文档加载器涉及解析文件。这些加载器之间的区别通常在于文件的解析方式,而不是文件的加载方式。例如,您可以使用 <font style="color:rgb(28, 30, 33);">open</font> 来读取 PDF 或 markdown 文件的二进制内容,但您需要不同的解析逻辑来将该二进制数据转换为文本。 因此,将解析逻辑与加载逻辑分离可能会很有帮助,这样无论数据如何加载,都更容易重用给定的解析器。

BaseBlobParser

BaseBlobParser 是一个接口,接受一个 blob 并输出一个 Document 对象列表。blob 是一个表示数据的对象,可以存在于内存中或文件中。LangChain Python 具有受 Blob WebAPI 规范 启发的 Blob 原语。

python 复制代码
 # 示例:doc_blob_parser.py
from langchain_core.document_loaders import BaseBlobParser, Blob
class MyParser(BaseBlobParser):
    """一个简单的解析器,每行创建一个文档。"""
    def lazy_parse(self, blob: Blob) -> Iterator[Document]:
        """逐行将 blob 解析为文档。"""
        line_number = 0
        with blob.as_bytes_io() as f:
            for line in f:
                line_number += 1yield Document(
                    page_content=line,
                    metadata={"line_number": line_number, "source": blob.source},
                )
ini 复制代码
blob = Blob.from_path("./meow.txt")
parser = MyParser()
scss 复制代码
list(parser.lazy_parse(blob))
css 复制代码
[Document(page_content='喵喵🐱 \n', metadata={'line_number': 1, 'source': './meow.txt'}), Document(page_content=' 喵喵🐱 \n', metadata={'line_number': 2, 'source': './meow.txt'}), Document(page_content=' 喵😻😻', metadata={'line_number': 3, 'source': './meow.txt'})]

使用 blob API 还允许直接从内存加载内容,而无需从文件中读取!

ini 复制代码
 # 示例:doc_blob_parser.py
blob = Blob(data=b"来自内存的一些数据\n喵")
list(parser.lazy_parse(blob))
python 复制代码
[Document(page_content='来自内存的一些数据\n', metadata={'line_number': 1, 'source': None}),
 Document(page_content='喵', metadata={'line_number': 2, 'source': None})]

Blob

让我们快速浏览一下 Blob API 的一些内容。

ini 复制代码
 # 示例:doc_blob_api.py
blob = Blob.from_path("./meow.txt", metadata={"foo": "bar"})
复制代码
blob.encoding
arduino 复制代码
'utf-8'
scss 复制代码
blob.as_bytes()
bash 复制代码
b'\xe5\x96\xb5\xe5\x96\xb5\xf0\x9f\x90\xb1 \r\n \xe5\x96\xb5\xe5\x96\xb5\xf0\x9f\x90\xb1 \r\n \xe5\x96\xb5\xf0\x9f\x98\xbb\xf0\x9f\x98\xbb'
scss 复制代码
blob.as_string()
复制代码
喵喵🐱
 喵喵🐱
 喵😻😻
scss 复制代码
blob.as_bytes_io()
csharp 复制代码
<contextlib._GeneratorContextManager object at 0x0000012E064CC2F0>

Blob 元数据

复制代码
blob.metadata
arduino 复制代码
{'foo': 'bar'}
复制代码
blob.source
bash 复制代码
./meow.txt

Blob 加载器

在解析器中封装了将二进制数据解析为文档所需的逻辑,blob 加载器封装了从给定存储位置加载 blob 所需的逻辑。 目前,LangChain 仅支持 FileSystemBlobLoader。 您可以使用 FileSystemBlobLoader 加载 blob,然后使用解析器对其进行解析。

ini 复制代码
 # 示例:doc_blob_loader.py
from langchain_community.document_loaders.blob_loaders import FileSystemBlobLoader
blob_loader = FileSystemBlobLoader(path=".", glob="*.mdx", show_progress=True)
scss 复制代码
parser = MyParser()
for blob in blob_loader.yield_blobs():for doc in parser.lazy_parse(blob):print(doc)break
shell 复制代码
100%|██████████| 8/8 [00:00<00:00, 8087.35it/s]
ini 复制代码
page_content='# CSV
' metadata={'line_number': 1, 'source': '..\resource\csv.mdx'}
page_content='# File Directory
' metadata={'line_number': 1, 'source': '..\resource\file_directory.mdx'}
page_content='# HTML
' metadata={'line_number': 1, 'source': '..\resource\html.mdx'}
page_content='---
' metadata={'line_number': 1, 'source': '..\resource\index.mdx'}
page_content='# JSON
' metadata={'line_number': 1, 'source': '..\resource\json.mdx'}
page_content='# Markdown
' metadata={'line_number': 1, 'source': '..\resource\markdown.mdx'}
page_content='# Microsoft Office
' metadata={'line_number': 1, 'source': '..\resource\office_file.mdx'}
page_content='---
' metadata={'line_number': 1, 'source': '..\resource\pdf.mdx'}

通用加载器

LangChain 拥有一个 GenericLoader 抽象,它将 BlobLoaderBaseBlobParser 结合在一起。GenericLoader 旨在提供标准化的类方法,使现有的 BlobLoader 实现易于使用。目前,仅支持 FileSystemBlobLoader

python 复制代码
 # 示例:doc_blob_loader_generic.py
from langchain_community.document_loaders.generic import GenericLoader
loader = GenericLoader.from_filesystem(
    path=".", glob="*.mdx", show_progress=True, parser=MyParser()
)
for idx, doc in enumerate(loader.lazy_load()):if idx < 5:print(doc)
print("... output truncated for demo purposes")
shell 复制代码
100%|██████████| 8/8 [00:00<00:00, 78.69it/s]
ini 复制代码
page_content='# CSV
' metadata={'line_number': 1, 'source': '..\resource\csv.mdx'}
page_content='# File Directory
' metadata={'line_number': 1, 'source': '..\resource\file_directory.mdx'}
page_content='# HTML
' metadata={'line_number': 1, 'source': '..\resource\html.mdx'}
page_content='---
' metadata={'line_number': 1, 'source': '..\resource\index.mdx'}
page_content='# JSON
' metadata={'line_number': 1, 'source': '..\resource\json.mdx'}
... output truncated for demo purposes

自定义通用加载器

如果您喜欢创建类,您可以子类化并创建一个类来封装逻辑。 您可以从这个类中子类化以使用现有的加载器加载内容。

python 复制代码
 # 示例:doc_blob_loader_generic_custom.py
from typing import Any
class MyCustomLoader(GenericLoader):
    @staticmethod
    def get_parser(**kwargs: Any) -> BaseBlobParser:
        """Override this method to associate a default parser with the class."""
        return MyParser()
python 复制代码
loader = MyCustomLoader.from_filesystem(path=".", glob="*.mdx", show_progress=True)
for idx, doc in enumerate(loader.lazy_load()):if idx < 5:print(doc)
print("... output truncated for demo purposes")
shell 复制代码
100%|██████████| 8/8 [00:00<00:00, 80.28it/s]
ini 复制代码
page_content='# CSV
' metadata={'line_number': 1, 'source': '..\resource\csv.mdx'}
page_content='# File Directory
' metadata={'line_number': 1, 'source': '..\resource\file_directory.mdx'}
page_content='# HTML
' metadata={'line_number': 1, 'source': '..\resource\html.mdx'}
page_content='---
' metadata={'line_number': 1, 'source': '..\resource\index.mdx'}
page_content='# JSON
' metadata={'line_number': 1, 'source': '..\resource\json.mdx'}
... output truncated for demo purposes
相关推荐
陈随易21 分钟前
Bun v1.2.16发布,内存优化,兼容提升,体验增强
前端·后端·程序员
chenquan28 分钟前
ArkFlow 流处理引擎 0.4.0-rc1 发布
人工智能·后端·github
Se7en25834 分钟前
使用 Higress AI 网关代理 vLLM 推理服务
人工智能
AI大模型技术社39 分钟前
PyTorch手撕CNN:可视化卷积过程+ResNet18训练代码详解
人工智能·神经网络
CSTechEi1 小时前
【IEEE/EI/Scopus检索】2025年第六届模式识别与数据挖掘国际会议 (PRDM 2025)
人工智能·数据挖掘·模式识别·ei学术会议
明明跟你说过2 小时前
FastChat 架构拆解:打造类 ChatGPT 私有化部署解决方案的基石
人工智能·语言模型·chatgpt·openai
Listennnn2 小时前
Text2SQL、Text2API基础
数据库·人工智能
钒星物联网3 小时前
256bps!卫星物联网极低码率语音压缩算法V3.0发布!
人工智能·语音识别
Listennnn3 小时前
迁移学习基础
人工智能·迁移学习
Ven%3 小时前
语言模型进化论:从“健忘侦探”到“超级大脑”的破案之旅
人工智能·语言模型·自然语言处理