6行代码,1行命令!轻松实现多模态(视觉)模型离线推理 & 在线服务

早在去年年底,LMDeploy 已经悄悄地支持了多模态(视觉)模型(下文简称 VLM)推理,只不过它静静地躺在仓库的 examples/vl 角落里,未曾与大家正式照面。

LMDeploy 开源链接:

github.com/InternLM/lm...

经过一段时间的迭代,LMDeploy 在 VLM 推理和服务方面,发生了翻天覆地的变化,于 v0.2.6 版本中正式发布。和去年相比,已有云泥之别,可以接受大家的检阅啦。

LMDeploy 的 VLM 推理,主打简单、好用。6行代码完成推理,一行命令搭建服务。

目前,已支持了以下模型:

  • Qwen/Qwen-VL-Chat
  • LLaVA 系列 v1.5,v1.6
  • 01-ai/Yi-VL-6B

准备工作

在使用之前,请先安装 LMDeploy 最新版。如果系统的 cuda 版本是 11+,可以直接安装 pypi 包:

pip install lmdeploy

如果 cuda 版本是 12+,请参考如下命令安装:

bash 复制代码
export LMDEPLOY_VERSION=0.2.6
export PYTHON_VERSION=38
pip install https://github.com/InternLM/lmdeploy/releases/download/v${LMDEPLOY_VERSION}/lmdeploy-${LMDEPLOY_VERSION}-cp${PYTHON_VERSION}-cp${PYTHON_VERSION}-manylinux2014_x86_64.whl

LMDeploy 支持 Linux、Windows 操作系统。对 cuda 的最低要求是 11.4。显卡架构最低为 sm70,也就是 Volta 架构及以上。显卡内存最好在 20G 以上。

离线推理

使用 LMDeploy pipeline 接口推理 VL 模型仅需 6 行代码,这得益于 LMDeploy 把 VL 模型中的视觉部分,和 LLM 模型都封装到推理 pipeline。以 Qwen-VL-Chat 模型为例:

ini 复制代码
from lmdeploy import pipeline
from lmdeploy.vl import load_image

pipe = pipeline('Qwen/Qwen-VL-Chat')

image = load_image('https://raw.githubusercontent.com/QwenLM/Qwen-VL/master/assets/mm_tutorial/Shanghai_Small.jpeg')
response = pipe(('这是哪里', image))
print(response)

在这段代码中,

  • 1, 2 两行加载必要的包
  • 第 3 行,输入模型路径,创建推理 pipeline。模型路径可以是huggingface hub 上的模型仓库名,也可以是模型的本地路径,亦可以是 modelscope hub 上的模型仓库名。当选择 modelscope hub 上的模型时,需要先设置环境变量 export LMDEPLOY_USE_MODELSCOPE=True
  • 第 4 行,读取图片。接口 load_image 除了支持 web url 外,还支持本地路径
  • 5,6 两行进行推理,并显示结果。LMDeploy pipeline 支持多种输入模式:
css 复制代码
第一种:单提示图,单图像。(prompt, image)
第二种:单提示图,多图像。(prompt,[image_1, image_2, ..., image_n])
第三种:批量数据。[(prompt_1, image_1), (prompt_2, image_2)]
第四种:openai message 格式
prompts = [    {        'role': 'user',        'content': [            {'type': 'text', 'text': '这是哪里'},            {'type': 'image_url', 'image_url': {'url': 'https://raw.githubusercontent.com/QwenLM/Qwen-VL/master/assets/mm_tutorial/Shanghai_Small.jpeg'}}        ]
    }

pipeline 还提供了多轮对话接口,用法也很简单:

ini 复制代码
from lmdeploy import pipeline
from lmdeploy.vl import load_image

pipe = pipeline('Qwen/Qwen-VL-Chat')

image = load_image('https://raw.githubusercontent.com/QwenLM/Qwen-VL/master/assets/demo.jpeg')
sess = pipe.chat(('make a story about this picture', image))
print(sess.response.text)
sess = pipe.chat('make the story focusing on the dog', sess)
print(sess.response.text)

在线服务

LMDeploy 提供了一键式把 VL 模型封装为服务的工具。这里的服务可以是类似 OpenAI 的服务,也可以是 gradio 服务。相信总有一款适合你!

css 复制代码
lmdeploy serve api_server Qwen/Qwen-VL-Chat --server-port 8000
css 复制代码
lmdeploy serve gradio Qwen/Qwen-VL-Chat --server-port 8000

如搭建 OpenAI 服务,可以无缝对接 OpenAI 应用接口:

ini 复制代码
from openai import OpenAI

client = OpenAI(api_key='YOUR_API_KEY', base_url='http://0.0.0.0:8000/v1')
model_name = client.models.list().data[0].id
response = client.chat.completions.create(
    model=model_name,
    messages=[{
        'role':
        'user',
        'content': [{
            'type': 'text',
            'text': 'Describe the image please',
        }, {
            'type': 'image_url',
            'image_url': {
                'url':
                'https://raw.githubusercontent.com/QwenLM/Qwen-VL/master/assets/mm_tutorial/Shanghai_Small.jpeg',
            },
        }],
    }],
    temperature=0.8,
    top_p=0.8)
print(response)

如搭建 gradio 服务,在浏览器中打开 http://0.0.0.0:8000,就可以通过 WebUI 与模型在线交流啦

引擎配置

在用户的既往反馈中,我们经常收到关于如何做多卡并行、为什么内存占用高、如何支持更大序列长度等问题。大家应用 VLM 模型时,可能也遇到类似的问题。我们在这个章节一并说明下。

其实,很简单,设置推理引擎参数即可。

使用 pipeline 接口的时候,传入TurbomindEngineConfig 配置相关的参数。而在启动 api_server 前,通过 lmdeploy serve api_server --help查阅相关的参数说明,按需传入就好。

这里,我们将重点介绍通过 pipeline 设置一些比较重要的参数的方法。完整的参数列表,大家可以参考 github.com/InternLM/lm...

设置显卡内存使用量

LMDeploy 的内存分配策略是,在加载完模型权重后,从空闲内存中,按一定比例为 k/v cache 开辟空间。比例值默认为 0.8。这个比例值适用于 A100-80G 这样的大内存,而对于 24G 内的显卡来说,0.4 更加适合。

具体设置方式如下:

ini 复制代码
from lmdeploy import pipeline, TurbomindEngineConfig

pipe = pipeline('Qwen/Qwen-VL-Chat',
                backend_config=TurbomindEngineConfig(cache_max_entry_count=0.4))

设置张量并行

当单卡无法支持 LLM 或者 VLM 时,多卡推理成为很自然的选择。此时,只要为引擎配置 tp 就好:

ini 复制代码
from lmdeploy import pipeline, TurbomindEngineConfig

pipe = pipeline('Qwen/Qwen-VL-Chat',
                backend_config=TurbomindEngineConfig(tp=2))

设置上下文窗口大小

多图、多轮对话场景,通常需要比较长的推理上下文窗口。这可以通过引擎的 session_len 设置:

ini 复制代码
from lmdeploy import pipeline, TurbomindEngineConfig

pipe = pipeline('Qwen/Qwen-VL-Chat',
                backend_config=TurbomindEngineConfig(session_len=9000))

结束语

LMDeploy VLM 模型推理和服务就简单介绍到这里啦。大家在使用中,遇到任何问题或者需求,都可以来我们的社群或者代码仓库反馈。后续,我们将推出 在 LMDeploy 中添加 VLM 模型的方法,诚邀大家参与,贡献自己的力量!

最后的最后,欢迎大家关注我们的项目 github.com/InternLM/lm...

相关推荐
MUTA️5 分钟前
RT-DETR学习笔记(2)
人工智能·笔记·深度学习·学习·机器学习·计算机视觉
开发者每周简报39 分钟前
求职市场变化
人工智能·面试·职场和发展
AI前沿技术追踪1 小时前
OpenAI 12天发布会:AI革命的里程碑@附35页PDF文件下载
人工智能
余~~185381628001 小时前
稳定的碰一碰发视频、碰一碰矩阵源码技术开发,支持OEM
开发语言·人工智能·python·音视频
galileo20162 小时前
LLM与金融
人工智能
DREAM依旧2 小时前
隐马尔科夫模型|前向算法|Viterbi 算法
人工智能
GocNeverGiveUp2 小时前
机器学习2-NumPy
人工智能·机器学习·numpy
B站计算机毕业设计超人3 小时前
计算机毕业设计PySpark+Hadoop中国城市交通分析与预测 Python交通预测 Python交通可视化 客流量预测 交通大数据 机器学习 深度学习
大数据·人工智能·爬虫·python·机器学习·课程设计·数据可视化
学术头条3 小时前
清华、智谱团队:探索 RLHF 的 scaling laws
人工智能·深度学习·算法·机器学习·语言模型·计算语言学
18号房客3 小时前
一个简单的机器学习实战例程,使用Scikit-Learn库来完成一个常见的分类任务——**鸢尾花数据集(Iris Dataset)**的分类
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·sklearn