PDF解析神器——MinerU本地部署教程,一键去除页眉页脚,精准提取公式表格,支持84种语言,让文档转换更简单!

一、介绍

MinerU 是由上海人工智能实验室(OpenDataLab)团队开发的一款开源智能文档解析工具,专注于将复杂的PDF文档、网页和电子书内容,高效、精准地提取并转换为机器可读的结构化格式(如Markdown、JSON等),可以很方便地抽取为任意格式。

主要功能

  • 删除页眉、页脚、脚注、页码等元素,确保语义连贯
  • 输出符合人类阅读顺序的文本,适用于单栏、多栏及复杂排版
  • 保留原文档的结构,包括标题、段落、列表等
  • 提取图像、图片描述、表格、表格标题及脚注
  • 自动识别并转换文档中的公式为 LaTeX 格式
  • 自动识别并转换文档中的表格为 HTML 格式
  • 自动检测扫描版 PDF 和乱码 PDF,并启用 OCR 功能
  • OCR 支持 84 种语言的检测与识别
  • 支持多种输出格式,如多模态与 NLP 的 Markdown、按阅读顺序排序的 JSON、含有丰富信息的中间格式等
  • 支持多种可视化结果,包括 layout 可视化、span 可视化等,便于高效确认输出效果与质检
  • 支持纯 CPU 环境运行,并支持 GPU(CUDA)/NPU(CANN)/MPS 加速
  • 兼容 Windows、Linux 和 Mac 平台

二、部署

1、基础环境

  • Miniconda3
  • Ubuntu:22.04
  • cuda12.4.1
  • 4090D

2、安装 MinerU

通过源码安装MinerU,首先创建虚拟环境,然后安装UV,克隆MinerU的源码,最后UV来安装

bash 复制代码
conda create -n mineru python=3.12 -y
conda activate mineru
pip install uv -i https://mirrors.aliyun.com/pypi/simple
git clone https://github.com/opendatalab/MinerU.git
cd MinerU
uv pip install -e .[all] -i https://mirrors.aliyun.com/pypi/simple

3、模型下载

MinerU默认使用huggingface作为模型源,若用户网络无法访问huggingface,可以通过环境变量便捷地切换模型源为modelscope;

ini 复制代码
export MINERU_MODEL_SOURCE=modelscope

使用命令下载模型到本地,查看命令使用情况。下载好的模型目录通过 mineru.json 来调用,ineru.json 文件会在您使用内置模型下载命令 mineru-models-download 时自动生成,生成在用户目录,当前使用root用户,生成位置为 /root/mineru.json

bash 复制代码
mineru-models-download --help
mineru-models-download

默认模型下载位置,若需要修改模型位置,可以移动模型到其它位置,然后修改 mineru.json文件。

4、推理框架

  • pipeline:代码中集成,不需要启动后端

  • vlm-transformers:代码中集成,不需要启动后端

  • vlm-sglang(推荐):需要启动后端,速度快

    css 复制代码
    mineru-sglang-server --port 30000 --model-path /root/.cache/modelscope/hub/models/OpenDataLab/MinerU2___0-2505-0___9B --max-running-requests 64 --mem-fraction-static 0.75 --weight-loader-disable-mmap

5、使用

通过fast api 方式调用。

css 复制代码
mineru-api --host 0.0.0.0 --port 8080

通过访问 /docs 可以查看调用方式。

(推荐)使用gradio webui。

css 复制代码
mineru-gradio --server-name 0.0.0.0 --server-port 8080
  • 在浏览器中访问 http://127.0.0.1:8080 使用 Gradio WebUI。

  • 访问 http://127.0.0.1:8080/?view=api 使用 Gradio API。

  • 已修改默认使用 sglang环境

5、配置文件扩展 MinerU 功能

通过编辑用户目录下的 mineru.json 文件,添加自定义配置。

  • latex-delimiter-config:用于配置 LaTeX 公式的分隔符,默认为 $ 符号,可根据需要修改为其他符号或字符串。
  • llm-aided-config:用于配置 LLM 辅助标题分级的相关参数,兼容所有支持 openai协议 的 LLM 模型,默认使用 阿里云百炼qwen2.5-32b-instruct 模型,您需要自行配置 API 密钥并将 enable 设置为 true 来启用此功能。
  • models-dir:用于指定本地模型存储目录,请为 pipelinevlm 后端分别指定模型目录,指定目录后您可通过配置环境变量 export MINERU_MODEL_SOURCE=local 来使用本地模型。
相关推荐
小笼包包仔1 天前
OpenClaw 多Agent软件开发最佳实践指南
人工智能
smallyoung1 天前
AgenticRAG:智能体驱动的检索增强生成
人工智能
_skyming_1 天前
OpenCode 如何做到结果不做自动质量评估,为什么结果还不错?
人工智能
南山安1 天前
手写 Cursor 核心原理:从 Node.js 进程到智能 Agent
人工智能·agent·设计
掘金安东尼1 天前
如何为 AI 编码代理配置 Next.js 项目
人工智能
aircrushin1 天前
轻量化大模型架构演进
人工智能·架构
文心快码BaiduComate1 天前
百度云与光本位签署战略合作:用AI Agent 重构芯片研发流程
前端·人工智能·架构
风象南1 天前
Claude Code这个隐藏技能,让我告别PPT焦虑
人工智能·后端
Mintopia1 天前
OpenClaw 对软件行业产生的影响
人工智能
陈广亮1 天前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能