ai之paddleOCR 识别PDF python312和paddle版本冲突 GLIBCXX_3.4.30

这里写自定义目录标题

问题一

根据你的报错信息,libstdc++.so.6: version 'GLIBCXX_3.4.30' not found 表示 当前 Conda 环境中的 libstdc++.so.6 版本过低,无法满足 PaddlePaddle 的依赖需求。以下是完整的解决方法:


解决方案

方法 1:使用符号链接将系统库链接到 Conda 环境
  1. 查找系统中已有的 libstdc++.so.6 文件

    bash 复制代码
    sudo find / -name libstdc++.so.6

    通常路径为:

    复制代码
    /usr/lib/x86_64-linux-gnu/libstdc++.so.6
  2. 检查系统库是否包含所需版本

    bash 复制代码
    strings /usr/lib/x86_64-linux-gnu/libstdc++.so.6 | grep GLIBCXX

    如果输出中包含 GLIBCXX_3.4.30,则说明系统库已满足需求。

  3. 删除 Conda 环境中的旧库文件

    bash 复制代码
    rm /usr/local/miniconda/envs/ai_pyenv_3.12/lib/libstdc++.so.6
    rm /usr/local/miniconda/envs/ai_pyenv_3.12/lib/libstdc++.so
  4. 创建符号链接到系统库

    bash 复制代码
    ln -s /usr/lib/x86_64-linux-gnu/libstdc++.so.6 /usr/local/miniconda/envs/ai_pyenv_3.12/lib/libstdc++.so.6
    ln -s /usr/lib/x86_64-linux-gnu/libstdc++.so.6 /usr/local/miniconda/envs/ai_pyenv_3.12/lib/libstdc++.so
  5. 验证修复

    bash 复制代码
    strings /usr/local/miniconda/envs/ai_pyenv_3.12/lib/libstdc++.so.6 | grep GLIBCXX

    确保输出中包含 GLIBCXX_3.4.30



补充说明

  • 为什么会出现这个问题?

    Conda 环境默认使用的 libstdc++.so.6 是 Conda 自带的版本,可能与系统版本不一致。当 PaddlePaddle 需要更高版本的 C++ 标准库时,会报错。

  • 如何避免类似问题?

    • 使用 Conda 安装 PaddlePaddle 时,确保环境中的 libstdcxx-nggcc 版本与官方要求一致。
    • 或者直接使用系统 Python 环境,避免 Conda 的隔离问题。

验证修复结果

运行以下命令检查是否修复成功:

bash 复制代码
python -c "import paddle; print(paddle.__version__)"

如果不再报错,说明修复成功。

问题二:

复制代码
Traceback (most recent call last):
  File "/usr/local/soft/py/seek_backend_fast/demo/main_paddle.py", line 80, in <module>
    ocr_engine_paddle = PaddleOCR(
                        ^^^^^^^^^^
  File "/usr/local/miniconda/envs/ai_pyenv_3.12/lib/python3.12/site-packages/paddleocr/paddleocr.py", line 693, in __init__
    super().__init__(params)
  File "/usr/local/miniconda/envs/ai_pyenv_3.12/lib/python3.12/site-packages/paddleocr/tools/infer/predict_system.py", line 53, in __init__
    self.text_detector = predict_det.TextDetector(args)
                         ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "/usr/local/miniconda/envs/ai_pyenv_3.12/lib/python3.12/site-packages/paddleocr/tools/infer/predict_det.py", line 139, in __init__
    ) = utility.create_predictor(args, "det", logger)
        ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "/usr/local/miniconda/envs/ai_pyenv_3.12/lib/python3.12/site-packages/paddleocr/tools/infer/utility.py", line 364, in create_predictor
    predictor = inference.create_predictor(config)
                ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
RuntimeError: (NotFound) TensorRT is needed, but TensorRT dynamic library is not found.
  Suggestions:
  1. Check if the TensorRT is installed correctly and its version is matched with paddlepaddle you installed.
  2. Configure environment variables as follows:
  - Linux: set LD_LIBRARY_PATH by `export LD_LIBRARY_PATH=...`
  - Windows: set PATH by `set PATH=XXX;
  [Hint: dso_handle should not be null.] (at ../paddle/fluid/platform/dynload/tensorrt.cc:44)

针对您遇到的 TensorRT 动态库未找到 错误,以下是详细的解决方案:


问题根源

错误提示表明 PaddlePaddle-GPU 需要 TensorRT 加速支持,但系统未正确配置 TensorRT 库。主要原因包括:

  1. TensorRT 未安装:系统中缺少 TensorRT 运行时库
  2. 版本不匹配:安装的 TensorRT 版本与 PaddlePaddle 或 CUDA 不兼容
  3. 环境变量缺失 :TensorRT 库路径未添加到 LD_LIBRARY_PATH

The third-party dynamic library (cudnn64_7.dll) that Paddle depends on is not configured correctly. (error code is 126)

Windows10下安装PaddlePaddle,进行paddle.utils.run_check()测试时报错,初以为是缺少 cudnn64_7.dll 所致,其实不然,而是 CUDA 版本、CUDNN 版本与 Paddlepaddle 版本不兼容导致,PaddlePaddle官网信息如下:

复制代码
如果您的计算机没有 NVIDIA® GPU,请安装CPU 版的 PaddlePaddle
如果您的计算机有 NVIDIA® GPU,请确保满足以下条件并且安装 GPU 版 PaddlePaddle
CUDA 工具包 10.2 配合 cuDNN v7.6.5,如需使用 PaddleTensorRT 推理,需配合 TensorRT7.0.0.11
CUDA 工具包 11.2 配合 cuDNN v8.2.1,如需使用 PaddleTensorRT 推理,需配合 TensorRT8.2.4.2
CUDA 工具包 11.6 配合 cuDNN v8.4.0,如需使用 PaddleTensorRT 推理,需配合 TensorRT8.4.0.6
CUDA 工具包 11.7 配合 cuDNN v8.4.1,如需使用 PaddleTensorRT 推理,需配合 TensorRT8.4.2.4
CUDA 工具包 11.8 配合 cuDNN v8.6.0,如需使用 PaddleTensorRT 推理,需配合 TensorRT8.5.1.7
CUDA 工具包 12.0 配合 cuDNN v8.9.1, 如需使用 PaddleTensorRT 推理,需配合 TensorRT8.6.1.6
GPU 运算能力超过 3.5 的硬件设备
注:目前官方发布的 windows 安装包仅包含 CUDA 10.2/11.2/11.6/11.7/11.8/12.0,如需使用其他 cuda 版本,请通过源码自行编译。您可参考 NVIDIA 官方文档了解 CUDA、CUDNN 和 TensorRT 的安装流程和配置方法,请见CUDA,cuDNN,TensorRT

解决方案

1. 确认 TensorRT 安装状态

运行以下命令检查是否已安装 TensorRT:

bash 复制代码
dpkg -l | grep TensorRT  # Ubuntu/Debian
rpm -qa | grep TensorRT  # CentOS/RHEL

若未安装,需手动下载安装包:

bash 复制代码
# 从 NVIDIA 官网下载对应版本(示例为 CUDA 12.0 的 TensorRT 8.6.1)
wget https://developer.nvidia.com/downloads/compute/machine-learning/tensorrt/secure/8.6.1/tars/TensorRT-8.6.1.6.Linux.x86_64-gnu.cuda-12.0.tar.gz
tar -xzvf TensorRT-8.6.1.6.Linux.x86_64-gnu.cuda-12.0.tar.gz

2. 安装 TensorRT 并配置环境变量
bash 复制代码
# 将解压后的路径加入环境变量(假设解压到 /opt/TensorRT-8.6.1.6)
export LD_LIBRARY_PATH=/opt/TensorRT-8.6.1.6/lib:$LD_LIBRARY_PATH

# 永久生效(推荐)
echo 'export LD_LIBRARY_PATH=/opt/TensorRT-8.6.1.6/lib:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

3. 验证 TensorRT 与 PaddlePaddle 版本兼容性
PaddlePaddle 版本 TensorRT 版本 CUDA 版本 cuDNN 版本
2.6.0 (post120) 8.6.1 12.0+ 8.9+
2.5.2 (post118) 8.5.3 11.8 8.6+

若版本不匹配,需重新安装对应版本:

bash 复制代码
# 示例:为 CUDA 12.0 安装 TensorRT 8.6.1
pip install tensorrt==8.6.1 --extra-index-url https://pypi.nvidia.com

4. 检查 PaddlePaddle 编译选项

确保安装的 PaddlePaddle-GPU 包含 TensorRT 支持:

python 复制代码
import paddle
print(paddle.inference.get_trt_compile_version())  # 应输出 TensorRT 版本号
print(paddle.inference.get_trt_runtime_version())  # 应输出运行时版本号

注意:

vim ~/.bashrc

复制代码
# 加入以下三行,只加第一行无效
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/***/TensorRT-8.4.1.5/lib
export TENSORRT_INCLUDE_DIR=/home/***/TensorRT-8.4.1.5
export PATH=/home/***/TensorRT-8.4.1.5/bin:$PATH

# 使改动生效
source ~/.bashrc

总结

通过正确安装匹配的 TensorRT 版本并配置环境变量,即可解决该错误。建议使用官方 Docker 镜像避免环境配置问题:

bash 复制代码
docker pull paddlepaddle/paddle:2.6.0-gpu-cuda12.0-cudnn8.9-trt8.6
docker run -it --gpus all -v $(pwd):/workspace paddlepaddle/paddle:2.6.0-gpu-cuda12.0-cudnn8.9-trt8.6
相关推荐
CHNMSCS1 小时前
PyTorch_指定运算设备 (包含安装 GPU 的 PyTorch)
人工智能·pytorch·python
程序边界1 小时前
AIGC时代——语义化AI驱动器:提示词的未来图景与技术深潜
人工智能·aigc
奈良如玉1 小时前
caffe适配cudnn9.6.0(ai修改代码踩坑)
人工智能·深度学习·caffe
Blossom.1181 小时前
人工智能助力工业制造:迈向智能制造的未来
网络·人工智能·深度学习·神经网络·机器学习·自然语言处理·制造
-曾牛4 小时前
探索 Spring AI 的 ChatClient API:构建智能对话应用的利器
java·人工智能·spring boot·后端·spring·springai·ai指南
青橘MATLAB学习4 小时前
机器学习中的学习率及其衰减方法全面解析
人工智能·机器学习·梯度下降·超参数优化·学习率·衰减方法·模型收敛
乌旭4 小时前
AIGC算力消耗白皮书:Stable Diffusion vs Midjourney的架构成本差异
人工智能·深度学习·stable diffusion·架构·aigc·midjourney·gpu算力
空中湖5 小时前
纯前端专业PDF在线浏览器查看器工具
前端·pdf
乌旭5 小时前
算力经济模型研究:从云计算定价到去中心化算力市场设计
人工智能·深度学习·云计算·去中心化·区块链·gpu算力·risc-v