【个人开源】——从零开始在高通手机上部署sd(一)

代码:https://github.com/chenjun2hao/qualcomm.sd

从零基础开始,在自己的高通手机(骁龙8 gen1+)上用NPU跑文生图stable diffusion模型。包含:

  • 高通qnn下载安装
  • sd模型浮点/量化导出
  • 在高通手机上用cpu跑浮点模型,htp跑量化模型

1. python依赖安装

主要对齐transformers, diffusers的版本,其他参考requirements.txt

复制代码
pip install transformers==4.40.0 diffusers==0.32.2

2. python浮点模型测试

bash 复制代码
# 1.下载sd 模型
git clone https://hf-mirror.com/segmind/portrait-finetuned

# 2.通过diffuser的pipe测试模型
cd $PROJECT_HOME
python sd_portrait_diffpip.py

# 3.通过自己实现的pipe测试模型
python sd_portrait_ownpip.py

结果可视化:

3. 导出浮点模型/x64 cpu模拟推理/高通cpu推理

高通libQnnCpu.so好像只支持浮点模型,不支持量化模型(可能后续的硬件,会支持)。

3.1 高通qnn安装

coming soon ...

3.2 导出浮点模型

复制代码
cd $PROJECT_HOME
python export_model.py --export_quant_model false

导出的模型在qnn_models/xxx下. eg: qnn_models/text_encoder_float/x86_64-linux-clang/libtext_encoder.so是x64上模拟推理时需要的模型。qnn_models/text_encoder_float/aarch64-android/libtext_encoder.so是push到android手机上使用的模型

3.3 x64 cpu模拟推理

参考项目readme运行:qualcomm.ai

3.4 高通cpu推理

将所有依赖的东西push到android手机上。参考项目readme运行:qualcomm.ai

4. 导出量化模型/高通htp推理

4.1 生成量化用数据

bash 复制代码
cd $PROJECT_HOME
python make_calibration_data.py

4.2 导出量化模型

4.3 x64模拟htp推理

高通在x64平台上,有模拟HTP硬件执行的软件库,但是sd模型运行太慢了。

4.4 高通HTP推理

将所有依赖的东西push到android手机上。参考项目readme运行:qualcomm.ai

5. reference

  1. StableDiffusionOnDevice
相关推荐
JFSJHFZJ16 小时前
清理手机顽固缓存,轻松释放几GB空间
缓存·智能手机
七夜zippoe1 天前
脉向AI|当豆包手机遭遇“全网封杀“:GUI Agent是通向AGI的必经之路吗?
人工智能·ai·智能手机·agent·gui
crmscs1 天前
剪映永久解锁版/电脑版永久会员VIP/安卓SVIP手机永久版下载
android·智能手机·电脑
lichensun1 天前
2026美赛A题智能手机电池耗电建模—思路全解析(含具体模型和代码)
数学建模·智能手机
IT技术分享社区1 天前
手机投屏到电视上,4种不同的方法,一起来了解一下
智能手机·投屏·手机技巧
巴德鸟1 天前
华为手机鸿蒙4回退到鸿蒙3到鸿蒙2再回退到EMUI11 最后关闭系统更新
华为·智能手机·harmonyos·降级·升级·回退·emui
GR2342341 天前
2025年影视仓TV+手机官方版 内置地址源支持高清直播
java·智能手机·软件
灿灿数模(加更版)1 天前
2026美赛 MCM Problem A 智能手机电池耗电建模思路分析,完整论文
智能手机
普通网友1 天前
苹果笔记本(Mac)连接手机完全指南
macos·智能手机
雾江流2 天前
小米堆叠桌面6.01.05.1991 | 提前享受丝滑堆叠桌面,仅限小米手机
智能手机·软件工程