[书生·浦语大模型实战营]——LMDeploy 量化部署 LLM 实践

1.基础作业

1.1配置 LMDeploy 运行环境

创建开发机

创建新的开发机,选择镜像Cuda12.2-conda;选择10% A100*1GPU;点击"立即创建"。注意请不要选择Cuda11.7-conda的镜像,新版本的lmdeploy会出现兼容性问题。其他和之前一样,不赘述。

创建conda环境

c 复制代码
studio-conda -t lmdeploy -o pytorch-2.1.2

安装LMDeploy

c 复制代码
#激活虚拟环境
conda activate lmdeploy
#安装0.3.0的imdeploy
pip install lmdeploy[all]==0.3.0

1.2以命令行方式与 InternLM2-Chat-1.8B 模型对话


2.进阶作业

2.1 设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。


2.2 以API Server方式启动 lmdeploy,开启 W4A16量化,调整KV Cache的占用比例为0.4,分别使用命令行客户端与Gradio网页客户端与模型对话。

命令行:

网页客户端:

2.3 使用W4A16量化,调整KV Cache的占用比例为0.4,使用Python代码集成的方式运行internlm2-chat-1.8b模型。

2.4 使用 LMDeploy 运行视觉多模态大模型 llava gradio demo。


相关推荐
Lvan的前端笔记2 分钟前
python:深入理解 Python 的 `__name__ == “__main__“` 与双下划线(dunder)机制
开发语言·python
BB_CC_DD18 分钟前
超简单搭建AI去水印和图像修复算法lama-cleaner二
人工智能·深度学习
珠海西格电力19 分钟前
零碳园区物流园区架构协同方案
人工智能·物联网·架构·能源
向成科技19 分钟前
新品 | 向成电子XC3576M小体积主板,全面适配国产麒麟操作系统
人工智能·ai·解决方案·硬件·国产操作系统·麒麟系统·主板
VekiSon27 分钟前
Linux系统编程——IPC进程间通信:信号通信与共享内存
linux·运维·服务器
南山nash29 分钟前
CentOs7 安装 Docker 详细步骤
linux·运维·docker·容器
徐先生 @_@|||35 分钟前
Conda最基础使用命令
linux·windows·conda
水如烟37 分钟前
孤能子视角:人工智能的“安全对齐“与“共享学习“
人工智能
夏天是冰红茶37 分钟前
小目标检测:PinwheelConv详解
人工智能·目标检测·计算机视觉
老蒋新思维44 分钟前
创客匠人启示:破解知识交付的“认知摩擦”——IP、AI与数据的三角解耦模型
大数据·人工智能·网络协议·tcp/ip·重构·创客匠人·知识变现