[书生·浦语大模型实战营]——LMDeploy 量化部署 LLM 实践

1.基础作业

1.1配置 LMDeploy 运行环境

创建开发机

创建新的开发机,选择镜像Cuda12.2-conda;选择10% A100*1GPU;点击"立即创建"。注意请不要选择Cuda11.7-conda的镜像,新版本的lmdeploy会出现兼容性问题。其他和之前一样,不赘述。

创建conda环境

c 复制代码
studio-conda -t lmdeploy -o pytorch-2.1.2

安装LMDeploy

c 复制代码
#激活虚拟环境
conda activate lmdeploy
#安装0.3.0的imdeploy
pip install lmdeploy[all]==0.3.0

1.2以命令行方式与 InternLM2-Chat-1.8B 模型对话


2.进阶作业

2.1 设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。


2.2 以API Server方式启动 lmdeploy,开启 W4A16量化,调整KV Cache的占用比例为0.4,分别使用命令行客户端与Gradio网页客户端与模型对话。

命令行:

网页客户端:

2.3 使用W4A16量化,调整KV Cache的占用比例为0.4,使用Python代码集成的方式运行internlm2-chat-1.8b模型。

2.4 使用 LMDeploy 运行视觉多模态大模型 llava gradio demo。


相关推荐
沃斯堡&蓝鸟几秒前
DAY33 类的装饰器
开发语言·python
Tipriest_2 分钟前
Python构建包,打包.whl文件,使用.whl文件安装包指南
python·whl
飞Link2 分钟前
【Java】Linux(CentOS7)下安装JDK8(Java)教程
java·linux·运维·服务器
努力的小帅4 分钟前
Linux_进程信号(Linux入门到精通)
linux·信号处理·信号捕捉·进程控制·linux入门
小真zzz4 分钟前
Nano Banana Pro 深度解析与 AI PPT 工具全面评测报告
人工智能·ai·powerpoint·ppt·chatppt·banana pro
BoBoZz199 分钟前
ColorEdges 动态有向图的动态渲染
python·vtk·图形渲染·图形处理
秋42711 分钟前
ansible剧本
linux·服务器·ansible
半空扫地僧一枚15 分钟前
D02期:档位切换
人工智能
风雨中的小七17 分钟前
解密Prompt系列67. 智能体的经济学:从架构选型到工具预算
人工智能·llm