零基础保姆级本地化部署文心大模型4.5开源系列

近两年随着大模型的迅猛崛起,吸引了各行各业的广泛关注,更对我们的工作方式与生活产生着显著积极影响。在这样一个技术范式转换的关键节点,百度文心大模型开源事件无疑具有里程碑意义 ------它不仅为中国自主研发的AI技术底座打开了通向世界的大门,更以"开源共享协同创新 "的开放姿态,为千行百业的数字化转型注入了强劲动能,为数智化经济时代添上浓墨重彩的一笔

站在技术革命的潮头 ,你是否已感受到智能时代扑面而来的机遇?或许你正面临技术门槛的困扰 ,或是在实践过程中屡遇阻碍 ,尚未能顺利搭乘这趟智能化的高速列车。莫急,本教程将全方位带领大家零基础部署文心大模型开源系列 ,无论你是刚入行的小白 ,还是寻求技术转型的资深开发者 ,本次分享都将助力你进入大模型的世界,让你少走弯路,确保一次性部署成功 ,即刻拥有自己的大模型服务。闲话少叙,直接上干货

一、部署环境介绍

本教程文心大模型开源系列部署,基于如下软硬件环境,请大家参考,尽量保持一致哈。

  • 操作系统:Ubuntu Linux 24.04.2 LTS
  • GPU:NVIDIA RTX 4090 [可选]
  • CUDA版本:12.6
  • cuDNN:9.10
  • Python版本:3.10

++注:请务必确认自己的NVIDIA GPU是否支持CUDA12.6++

二、如何确认GPU是否支持CUDA

打开Shell终端,输入如下命令:

bash 复制代码
nvidia-smi

输出内容如下图所示:

++注:只要这里显示的CUDA版本号 ≥ 12.6 即可。++

三、安装步骤

不要畏惧AI大模型,它没有那么难,也没那么高不可攀。只要按如下顺序流程逐步操作,成功部署 So Easy!

本教程致力于将AI复杂的部署流程标准化、流程化、简单化。

++注:本教程的相关Shell命令输入,以root用户执行。++

1、准备阶段

为防范因操作系统潜在漏洞或组件版本过旧而引发不必要的困扰与问题,请先将其升级到最新版本

打开Shell终端,输入如下命令:

bash 复制代码
sudo apt update && sudo apt upgrade -y

输出如下图所示:

静待升级完成...(此时可以先去喝杯咖啡,工作的同时,不耽误享受生活 O(∩_∩)O)

2、安装GPU显卡驱动
  • 确认显卡型号

打开Shell终端,输入如下命令:

bash 复制代码
lspci | grep -i nvidia

输出如下图所示,GPU为:RTX 4090:

  • 查询可用的显卡驱动程序

输入如下命令:

bash 复制代码
ubuntu-drivers devices

输出如下图所示:

  • 安装驱动

请安装系统推荐的显卡驱动,以确保驱动程序的稳定性与后续升级的平滑性。

输入如下命令:

bash 复制代码
sudo apt install nvidia-driver-570

输出如下图所示:

++注:驱动下载与安装时长,取决于你的网络状况,静静等待吧...(夏天喝杯冰美式,清凉一下)++

  • 驱动安装完成后,请重启电脑【重要】

记住哦!重启操作不可省!输入此命令即可:

bash 复制代码
sudo reboot
  • 验证驱动是否安装成功

输入如下命令:

bash 复制代码
nvidia-smi

输出下图内容,说明安装成功。Perfect! O(∩_∩)O

3、安装CUDA

Linux安装CUDA比Windows要方便很多,坑也少。下面采用在线安装方式(官方推荐的方式),请确保你的网络正常,且给力哦!安装时长和网速有关。

  • 依次执行如下几条命令:
bash 复制代码
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-ubuntu2404.pin
bash 复制代码
sudo mv cuda-ubuntu2404.pin /etc/apt/preferences.d/cuda-repository-pin-600
bash 复制代码
wget https://developer.download.nvidia.com/compute/cuda/12.6.3/local_installers/cuda-repo-ubuntu2404-12-6-local_12.6.3-560.35.05-1_amd64.deb
bash 复制代码
sudo dpkg -i cuda-repo-ubuntu2404-12-6-local_12.6.3-560.35.05-1_amd64.deb

命令执行到这里,注意屏幕的输出内容,如下所示:

++划重点:不用问为什么,直接复制执行即可。++

继续执行如下命令:

bash 复制代码
sudo apt-get update
bash 复制代码
sudo apt-get -y install cuda-toolkit-12-6

++注:执行到最后1条命令,才是真正开始安装CUDA啦!++

  • 添加CUDA到环境变量

请复制如下内容,将其添加到系统环境变量文件**/etc/profile**

bash 复制代码
export CUDA_HOME=/usr/local/cuda
export PATH=$CUDA_HOME/bin:$PATH
export LD_LIBRARY_PATH=$CUDA_HOME/lib64:$LD_LIBRARY_PATH

添加完毕后,请执行如下命令,让环境变量立即生效。

bash 复制代码
source /etc/profile
  • 验证CUDA是否安装成功

输入如下命令:

bash 复制代码
nvcc --version

输出如下内容,即表示安装成功。(很棒哦!距离成功,又进一步!)

bash 复制代码
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2024 NVIDIA Corporation
Built on Tue_Oct_29_23:50:19_PDT_2024
Cuda compilation tools, release 12.6, V12.6.85
Build cuda_12.6.r12.6/compiler.35059454_0
4、安装cuDNN

和CUDA的安装方式非常相似,且比它还简单,前面的安装OK,这里就更 So Easy!

逐一按顺序执行如下命令即可:

bash 复制代码
wget https://developer.download.nvidia.com/compute/cudnn/9.10.2/local_installers/cudnn-local-repo-ubuntu2404-9.10.2_1.0-1_amd64.deb
bash 复制代码
sudo dpkg -i cudnn-local-repo-ubuntu2404-9.10.2_1.0-1_amd64.deb

和CUDA一样,按屏幕输出,复制它并执行。

继续执行如下命令:

bash 复制代码
sudo apt-get update
bash 复制代码
sudo apt-get -y install cudnn

至此,cuDNN安装完毕,是否很简单呢?O(∩_∩)O

5、安装miniConda

miniConda用于创建python的虚拟环境,方便多个python环境的共存性与隔离性。一般实战中,都会这么搭建python环境。

  • 下载安装包,并安装

请依次输入如下命令:

bash 复制代码
wget https://repo.anaconda.com/miniconda/Miniconda3-py310_24.3.0-0-Linux-x86_64.sh
bash 复制代码
chmod 755 Miniconda3-py310_24.3.0-0-Linux-x86_64.sh && ./Miniconda3-py310_24.3.0-0-Linux-x86_64.sh

++注:安装过程,根据提示一步步来即可,类似于Windows安装程序时的 "下一步"。++

安装成功后,如下图所示:

  • 添加miniConda到环境变量

请复制如下内容,将其添加到系统环境变量文件**/etc/profile**

bash 复制代码
export PATH=$PATH:/opt/miniconda/bin

然后执行如下命令,让其立即生效。

bash 复制代码
source /etc/profile
  • 初始化miniConda

执行初始化命令:

bash 复制代码
conda init
  • 配置Conda国内源

(1)生成配置文件 .condarc (其位置在用户根目录下)

bash 复制代码
conda config --set show_channel_urls yes

(2)将如下内容,复制到用户目录下的 .condarc 文件中

bash 复制代码
channels:
  - defaults
show_channel_urls: true
default_channels:
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
custom_channels:
  conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  pytorch-lts: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  deepmodeling: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/

(3)清除索引缓存,确保用的是镜像站提供的索引

bash 复制代码
conda clean -i
  • 配置Pip国内源
bash 复制代码
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
  • 查询conda配置信息
bash 复制代码
conda info
6、安装FastDeploy

FastDeploy 2.0版本,作为文心大模型推理与部署的生产级工具,极大的降低了我们使用大模型的门槛。

(1)基于miniConda创建Python环境

创建python 3.10环境,并将其命名为fastdeploy

bash 复制代码
conda create -n fastdeploy python==3.10

(2)切换到fastdeploy环境

bash 复制代码
conda activate fastdeploy

(3)安装PaddlePaddle

输入如下命令:

bash 复制代码
python -m pip install paddlepaddle-gpu==3.1.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu126/

验证安装是否成功

bash 复制代码
python -c "import paddle; paddle.utils.run_check()"

输出如下内容,表示安装成功

bash 复制代码
Running verify PaddlePaddle program ... 
I0705 17:09:09.105798 15416 pir_interpreter.cc:1524] New Executor is Running ...
W0705 17:09:09.106809 15416 gpu_resources.cc:114] Please NOTE: device: 0, GPU Compute Capability: 8.9, Driver API Version: 12.8, Runtime API Version: 12.6
I0705 17:09:09.107347 15416 pir_interpreter.cc:1547] pir interpreter is running by multi-thread mode ...
PaddlePaddle works well on 1 GPU.
PaddlePaddle is installed successfully! Let's start deep learning with PaddlePaddle now.

(3)安装FastDeploy

输入如下命令:

bash 复制代码
python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-86_89/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple

四、部署文心大模型

1、使用ModelScope下载模型

文心大模型一览表https://www.modelscope.cn/models?name=PaddlePaddle/ERNIE-4.5-Paddle&page=1&tabKey=task注:大家可以访问这个地址查看模型列表,下载自己需要的模型。

  • 安装ModelScope
bash 复制代码
pip install modelscope
  • 下载文心大模型

本次教程使用到如下两个模型,通过命令分别下载:

ERNIE-4.5-21B-A3B-Paddle

ERNIE-4.5-0.3B-Paddle

bash 复制代码
modelscope download --model PaddlePaddle/ERNIE-4.5-21B-A3B-Paddle
bash 复制代码
modelscope download --model PaddlePaddle/ERNIE-4.5-0.3B-Paddle

下载的模型,默认保存在如下图所示目录:

++注:21B模型较大,请耐心等待。(距离成功仅一步之遥啦!按耐住激动的心情哦!)++

  • 移动模型到指定目录

请将两个模型移动至目录**/opt/llm-ernie/baidu** ,如下图所示

2、部署ERNIE-4.5-21B-A3B-Paddle

(1)切换到目录 /opt/llm-ernie/

bash 复制代码
cd /opt/llm-ernie/

(2)部署模型

bash 复制代码
python -m fastdeploy.entrypoints.openai.api_server \
       --model baidu/ERNIE-4.5-21B-A3B-Paddle \
       --port 8180 \
       --metrics-port 8181 \
       --engine-worker-queue-port 8182 \
       --max-model-len 32768 \
       --quantization 'wint4' \
       --max-num-seqs 32

部署成功后,如下图所示:

(3)通过REST接口,调用模型

bash 复制代码
curl -X POST "http://172.16.3.17:8180/v1/chat/completions" \
-H "Content-Type: application/json" \
-d '{
  "messages": [
    {"role": "user", "content": "你是谁?"}
  ]
}'

模型返回结果,如下图所示:

3、部署ERNIE-4.5-0.3B-Paddle

文心4.5开源的10个模型,部署方式是一致的,只有一些参数差异而已。上面的会了,其它的就可以依葫芦画瓢喽!O(∩_∩)O

(1)切换到目录 /opt/llm-ernie/

bash 复制代码
cd /opt/llm-ernie/

(2)部署模型

bash 复制代码
python -m fastdeploy.entrypoints.openai.api_server \
       --model baidu/ERNIE-4.5-0.3B-Paddle \
       --port 8180 \
       --metrics-port 8181 \
       --engine-worker-queue-port 8182 \
       --max-model-len 32768 \
       --max-num-seqs 32

(3)通过REST接口,调用模型

我们用同一个问题,问下0.3B模型,看它回答是否有何不同呢。

bash 复制代码
curl -X POST "http://172.16.3.17:8180/v1/chat/completions" \
-H "Content-Type: application/json" \
-d '{
  "messages": [
    {"role": "user", "content": "你是谁?"}
  ]
}'

模型返回结果,如下图所示:

注:0.3B对同一个问题,回答每次不一样,创造性思维比较活跃。

五、总结

文心大模型本地化部署呈现出显著优势:其响应速度令人印象深刻,相较此前部署的DeepSeek模型实现性能跃升。依托百度官方推出的FastDeploy大模型部署工具,企业可快速实现大模型工业化落地,部署流程兼具高效性与稳定性,为AI工程化实践提供了标准化解决方案。

本次分享结束,是不是 So so Easy O(∩_∩)O 感兴趣的小伙伴们,赶快动手试试吧!

Enjoy It!

相关推荐
guoji77889 分钟前
安全与对齐的深层博弈:Gemini 3.1 Pro 安全护栏与对抗测试深度拆解
人工智能·安全
实在智能RPA17 分钟前
实在 Agent 和通用大模型有什么不一样?深度拆解 AI Agent 的感知、决策与执行逻辑
人工智能·ai
独隅21 分钟前
PyTorch 模型部署的 Docker 配置与性能调优深入指南
人工智能·pytorch·docker
lihuayong28 分钟前
OpenClaw 系统提示词
人工智能·prompt·提示词·openclaw
黑客说42 分钟前
AI驱动剧情,解锁无限可能——AI游戏发展解析
人工智能·游戏
踩着两条虫1 小时前
AI驱动的Vue3应用开发平台深入探究(十):物料系统之内置组件库
android·前端·vue.js·人工智能·低代码·系统架构·rxjava
小仙女的小稀罕1 小时前
听不清重要会议录音急疯?这款常见AI工具听脑AI精准转译
开发语言·人工智能·python
reesn1 小时前
qwen3.5 0.8B纠正任务实践
人工智能·语言模型
实在智能RPA1 小时前
实在Agent 制造业落地案例:探寻工业大模型从实验室走向车间的实战路径
人工智能·ai