基于华为昇腾910B,实战InternVL2-8B模型推理

基于华为昇腾910B,实战InternVL2-8B模型推理

本文将带领大家基于启智平台,使用 LMDeploy 推理框架在华为昇腾 910B 上实现 InternVL2-8B 模型的推理。

https://github.com/OpenGVLab/InternVL

https://github.com/InternLM/lmdeploy

1.登录启智平台

https://openi.pcl.ac.cn/

2.创建云脑任务

我们新建云脑任务

目前启智平台提供 4 种 AI 训练任务(调试任务、训练任务、在线推理、通用任务),这里我们选择调试任务。

所属项目,我们选择一个已经有的项目,没有项目,可以新建,这个就不详细展开。(可以点击右上角)

接下就是选择算力平台,启智平台目前提供好几个厂商的算力平台。(英伟达、昇腾NPU、遂源GCU、寒武纪MLU、海光DCU、天数智芯GPGPU、沐曦GPGPU),这里我们选华为昇腾NPU。

资源规格栏, 我们选择 D910B 的显卡。(显存 64GB 、CPU24 、内存 192GB)

镜像栏会随着我们选择的显卡会出现相应的模型镜像,这里我们选择 openmind_cann8。

点击新建任务等待服务器创建新任务,创建完成系统会进入服务器资源分配等待列表中。

当分配资源完成后,状态变成运行状态,这个时候右边操作会出现调试按钮。

3.模型调试

我们点击调试按钮,进入 jupyterlab 调试代码界面。

3.1 下载模型

我们在 jupyterlab 界面编写下载模型代码脚本。

start.sh

Shell 复制代码
sh#!/bin/bash

#conda install git-lfs -y

pip install -U openi -i https://pypi.tuna.tsinghua.edu.cn/simple

pip install c2net

model_download.sh

Shell 复制代码
#!/bin/bash

# 定义变量
model_user_name="FoundationModel/OpenGVLab"
model_name="InternVL2-8B"
save_path="/home/ma-user/work/pretrainmodel/InternVL2-8B"

# 检查保存路径是否存在,如果不存在则创建
if [ ! -d "$save_path" ]; then
  mkdir -p "$save_path"
fi

# 调用 openi 命令下载模型
openi model download $model_user_name $model_name --save_path $save_path 

checkmodel.py

Python 复制代码
from c2net.context import prepare

#初始化导入数据集和预训练模型到容器内
c2net_context = prepare()

#获取预训练模型路径
InternVL2_8B_v1_path = c2net_context.pretrain_model_path+"/"+"InternVL2-8B"

print(InternVL2_8B_v1_path)

我们可以将脚本和代码上传到 jupyterlab 调试界面里面。


分别执行以上脚本和代码,先执行 start.sh,再执行 model_download.sh。

bash start.sh

再执行 model_download.sh 下载模型

bash model_download.sh

当模型下载完成后,我们执行 checkmodel.py 检查模型并初始化 代码目录、数据集、模型输出、模型预训练目录。

python checkmodel.py

刷新一下当前目录,我们会看到左边代码区 code、dataset、output、pretrainmodel 4个文件夹,顾名思义,code 是放代码的;dataset 是放数据集的;output 是模型训练或者微调输出目录;pretrainmodel 是模型挂载的目录。

我们进入 pretrainmodel:

Shell 复制代码
cd /home/ma-user/work/pretrainmodel/InternVL2-8B

我们已经可以看到下载好的模型权重文件了。

3.2 支持华为 ascend 国产硬件接入大模型推理框架 dlinfer

这里我们借助一下开源项目 dlinfer,项目地址 https://github.com/DeepLink-org/dlinfer。

目前它支持 LMDeploy 部分模型推理,见下表:

安装参考:https://pypi.org/project/dlinfer-ascend/

Shell 复制代码
pip install dlinfer-ascend==0.1.0.post1

3.3 LMDeploy 推理框架安装

接下来我们需要再 code 代码目录下面下载 LMDeploy 推理程序并安装。 安装之前我们需要下载 LMDeploy 源码,

源码中需要删除 LMDeploy 推理框架中 requirements/runtime.txt 中关于 triton 依赖包。

因为 Triton 是 NVIDIA 推出的一款开源推理服务软件,旨在简化深度学习模型在生产环境中的部署和执行。它属于 NVIDIA AI 平台的一部分,能够在基于 GPU 或 CPU 的基础设施(如云、数据中心或边缘设备)上运行。我们在华为平台上部署也用不到它。(如果你安装大概率你是安装不上的,不信你试一试。)

我们修改 requirements/runtime.txt:

Shell 复制代码
cd code
git clone https://github.com/InternLM/lmdeploy.git
# 如果网络慢可以使用下面代理
git clone -b v0.6.1 https://mirror.ghproxy.com//https://github.com/InternLM/lmdeploy.git
cd lmdeploy
pip install -e .
# 升级pillow 到11.0.0 版本
pip install --upgrade pillow
# 使用transformers4.44.1 版本,不要升级到最新版本
pip install transformers==4.44.1 -U

检查一下 LMDeploy

Shell 复制代码
pip show lmdeploy

注意:这里我们需要注意 LMDeploy 版本必须要大于 0.6.0 版本。

3.4 LMDeploy 推理

接下来我们编写推理代码实现模型推理。

inference.py

Python 复制代码
from lmdeploy import pipeline, PytorchEngineConfig
from lmdeploy.vl import load_image
if name == "__main__":
    pipe = pipeline('/home/ma-user/work/pretrainmodel/InternVL2-8B',
                    backend_config=PytorchEngineConfig(tp=1, device_type='ascend'))
    image = load_image('https://raw.githubusercontent.com/open-mmlab/mmdeploy/main/tests/data/tiger.jpeg')
    response = pipe(('describe this image', image))
    print(response)

执行如下命令

Shell 复制代码
cd code
touch inference.py

复制以上代码到 inference.py 代码中

执行推理代码

Shell 复制代码
python inference.py

我们查看一下这张原图

https://raw.githubusercontent.com/open-mmlab/mmdeploy/main/tests/data/tiger.jpeg

从模型推理来看回答的是正确的。通过简单的推理代码就可以完成多模态模型的推理,效果还是不错的。

我们查看一下显存情况

Shell 复制代码
npu-smi info

LMDeploy 默认使用 0.9 的缓存参数设置,这里我们没有修改默认参数,所以模型推理后剩余的显存都分配给模型缓存使用了,所以占用的显存比较大。这里就不详细展开技术细节了。想了解这块知识可以参加书生大模型实战营,学习关于模型量化相关的知识。

我们使用 lmdeploy chat 来推理。

Shell 复制代码
lmdeploy chat /home/ma-user/work/pretrainmodel/InternVL2-8B --backend pytorch --device ascend

我们输入问题测试下推理效果:

4.总结

在 0.6.0这个版本上开始支持华为昇腾NPU,本文主要讲述了如何使用 LMDeploy 推理框架在华为昇腾 910B 上实现 InternVL2-8B 模型的推理。

LMDeploy 目前支持 InternVL1.5 和 InternVL2 系列的多模态模型,因为时间关系我这里只做了 2B 和 8B 模型的推理,其他模型没有做过测试。感兴趣的小伙伴也可以根据文档实现其它模型的推理和适配,我们也期待 LMDeploy推理框架支持更多更好用的多模态大模型。

相关推荐
云卓科技5 分钟前
无人机之目标检测算法篇
人工智能·科技·算法·目标检测·计算机视觉·机器人·无人机
Z_W_H_8 分钟前
【ArcGISPro】宣布推出适用于 ArcGIS 的 AI 助手
人工智能·arcgis·ai
趣谈AI栈17 分钟前
【AI应用】大模型工具如何助力文字创意工作(提示词Prompt+谷歌NotebookLM)
人工智能·prompt
丶看我会发光21 分钟前
第二章 深度学习之yolov8图像分割输出
深度学习
云空39 分钟前
《战场车辆及部件损毁识别与评估的神经网络迁移训练》
人工智能·深度学习·神经网络
笨笨聊运维42 分钟前
linux离线安装Ollama并完成大模型配置(无网络)
linux·网络·人工智能·php
Qiming_v1 小时前
理解LSTM
人工智能·rnn·lstm
小彭努力中2 小时前
107. 阴影范围.shadow.camera
前端·深度学习·3d·webgl
正在走向自律2 小时前
深度学习(六)CNN:图像处理的强大工具(6/10)
图像处理·深度学习·cnn
神州问学2 小时前
MemoRAG:重新定义长期记忆的AI问答模型
人工智能