[书生·浦语大模型实战营]——LMDeploy 量化部署 LLM 实践

1.基础作业

1.1配置 LMDeploy 运行环境

创建开发机

创建新的开发机,选择镜像Cuda12.2-conda;选择10% A100*1GPU;点击"立即创建"。注意请不要选择Cuda11.7-conda的镜像,新版本的lmdeploy会出现兼容性问题。其他和之前一样,不赘述。

创建conda环境

c 复制代码
studio-conda -t lmdeploy -o pytorch-2.1.2

安装LMDeploy

c 复制代码
#激活虚拟环境
conda activate lmdeploy
#安装0.3.0的imdeploy
pip install lmdeploy[all]==0.3.0

1.2以命令行方式与 InternLM2-Chat-1.8B 模型对话


2.进阶作业

2.1 设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。


2.2 以API Server方式启动 lmdeploy,开启 W4A16量化,调整KV Cache的占用比例为0.4,分别使用命令行客户端与Gradio网页客户端与模型对话。

命令行:

网页客户端:

2.3 使用W4A16量化,调整KV Cache的占用比例为0.4,使用Python代码集成的方式运行internlm2-chat-1.8b模型。

2.4 使用 LMDeploy 运行视觉多模态大模型 llava gradio demo。


相关推荐
用户5191495848453 分钟前
探秘C#伪随机数生成器的安全漏洞与破解之道
人工智能·aigc
集大周杰伦5 分钟前
RV1126开发板烧录与SSH登录实践
linux·ssh·嵌入式·rv1126·瑞芯微开发工具·ssh 远程登录
小糖学代码8 分钟前
LLM系列:1.python入门:2.数值型对象
人工智能·python·ai
gs8014020 分钟前
Ascend 服务器是什么?(Ascend Server / 昇腾服务器)
运维·服务器·人工智能
Xの哲學21 分钟前
Linux RTC深度剖析:从硬件原理到驱动实践
linux·服务器·算法·架构·边缘计算
csdn_aspnet27 分钟前
AI赋能各类主流编程语言
人工智能·ai·软件开发
零日失眠者30 分钟前
这5个Python库一旦掌握就离不开
后端·python
CodeNerd影36 分钟前
RAG文件检索增强(基于吴恩达课程)
人工智能
用户83562907805136 分钟前
如何使用 Python 从 Word 文档中批量提取表格数据
后端·python
了一梨41 分钟前
使用Docker配置适配泰山派的交叉编译环境
linux·docker