[书生·浦语大模型实战营]——LMDeploy 量化部署 LLM 实践

1.基础作业

1.1配置 LMDeploy 运行环境

创建开发机

创建新的开发机,选择镜像Cuda12.2-conda;选择10% A100*1GPU;点击"立即创建"。注意请不要选择Cuda11.7-conda的镜像,新版本的lmdeploy会出现兼容性问题。其他和之前一样,不赘述。

创建conda环境

c 复制代码
studio-conda -t lmdeploy -o pytorch-2.1.2

安装LMDeploy

c 复制代码
#激活虚拟环境
conda activate lmdeploy
#安装0.3.0的imdeploy
pip install lmdeploy[all]==0.3.0

1.2以命令行方式与 InternLM2-Chat-1.8B 模型对话


2.进阶作业

2.1 设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。


2.2 以API Server方式启动 lmdeploy,开启 W4A16量化,调整KV Cache的占用比例为0.4,分别使用命令行客户端与Gradio网页客户端与模型对话。

命令行:

网页客户端:

2.3 使用W4A16量化,调整KV Cache的占用比例为0.4,使用Python代码集成的方式运行internlm2-chat-1.8b模型。

2.4 使用 LMDeploy 运行视觉多模态大模型 llava gradio demo。


相关推荐
慧知AI13 小时前
Kimi 2.6 技术深度解析:5秒响应背后的架构突破
人工智能
雾岛听蓝13 小时前
Linux线程基础
linux·开发语言·经验分享
齐落山大勇13 小时前
Linux的文件IO
linux·运维·服务器
zhangzeyuaaa13 小时前
Python 异常机制深度剖析
开发语言·python
卷卷说风控13 小时前
单独一个工具再强,不如一套工具链协同|卷卷养虾记 · 十二篇
人工智能
黑金IT13 小时前
vLLM本地缓存实战,重复提交直接复用不浪费算力
人工智能·缓存
七七powerful13 小时前
运维养龙虾--Tmux 终端复用器完全指南:从入门到 AI Agent 远程操控
运维·服务器·人工智能
七夜zippoe13 小时前
OpenClaw 飞书深度集成:文档操作
人工智能·飞书·集成·文档·openclaw
databook13 小时前
从写代码到问问题:2026年,AI如何重构数据科学工作流
人工智能·后端·数据分析
tod11313 小时前
深入解析ext2文件系统架构
linux·服务器·c++·文件系统·ext