[书生·浦语大模型实战营]——LMDeploy 量化部署 LLM 实践

1.基础作业

1.1配置 LMDeploy 运行环境

创建开发机

创建新的开发机,选择镜像Cuda12.2-conda;选择10% A100*1GPU;点击"立即创建"。注意请不要选择Cuda11.7-conda的镜像,新版本的lmdeploy会出现兼容性问题。其他和之前一样,不赘述。

创建conda环境

c 复制代码
studio-conda -t lmdeploy -o pytorch-2.1.2

安装LMDeploy

c 复制代码
#激活虚拟环境
conda activate lmdeploy
#安装0.3.0的imdeploy
pip install lmdeploy[all]==0.3.0

1.2以命令行方式与 InternLM2-Chat-1.8B 模型对话


2.进阶作业

2.1 设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。


2.2 以API Server方式启动 lmdeploy,开启 W4A16量化,调整KV Cache的占用比例为0.4,分别使用命令行客户端与Gradio网页客户端与模型对话。

命令行:

网页客户端:

2.3 使用W4A16量化,调整KV Cache的占用比例为0.4,使用Python代码集成的方式运行internlm2-chat-1.8b模型。

2.4 使用 LMDeploy 运行视觉多模态大模型 llava gradio demo。


相关推荐
刘一说1 分钟前
Windows 与 Linux 跨平台自动化 MySQL 8 备份:专业级脚本设计与实战指南
linux·数据库·windows·mysql·自动化
aiguangyuan2 分钟前
CART算法简介
人工智能·python·机器学习
manjianghong862 分钟前
制作高质量AI视频需要哪些步骤
人工智能·音视频·ai视频·ai应用
咕噜企业分发小米2 分钟前
阿里云和华为云在AI教育领域有哪些技术竞争?
人工智能·阿里云·华为云
咕噜企业分发小米3 分钟前
阿里云和华为云在AI教育领域有哪些技术挑战?
人工智能·阿里云·华为云
I · T · LUCKYBOOM3 分钟前
2.2yum安装--单服务器托管多网站
linux·运维·服务器
clarance20156 分钟前
从ChatBI到AI Agent:以FocusGPT为例,看智能分析的技术跃迁
人工智能
郝学胜-神的一滴6 分钟前
线程同步:并行世界的秩序守护者
java·linux·开发语言·c++·程序人生
CoderIsArt6 分钟前
半导体设备视觉定位方案的原理与实施步骤
人工智能·数码相机·计算机视觉
龘龍龙7 分钟前
Python基础学习(十)
服务器·python·学习