stable-diffusion-webui相关资料汇总

为了解决在内存中快速切换模型的问题,我查阅了以下资料:

知乎罗培宇stable-diffusion-webui源码分析系列,我看了1至3:
1.Gradio的基本用法
2.txt2img的实现
3.模型加载的过程
4.启动流程
5.多语言的实现方式
6.脚本的实现方式
7.扩展的实现方式
8.Lora功能的实现方式
9.euler a 采样器
10.unet网络结构

b站 :stable diffusion api 实现多人列队及切换模型的方法

Hardy的小屋:部署支持多人在线排队的Stable Diffusion服务
某issue中的点评:

这个思想是使用django做了一层外壳,使用django完成后续的接口调用操作吗?这样写的目的是什么,为什么不是在原有的基础上做出修改?谢谢

原有的sd-webui无法支持多人场景,多人加载不同的模型会乱掉。原来的代码对我来说太复杂了,所以就没在原来基础上改。

我的点评:其提到的reload_model_weights方法有用,确实能重新加载制定模型,但是每次都是从硬盘重新加载的。而stable-diffusion-webui是可以设置在内存中缓存模型的,这时用web方式切换模型就很快,基本是零点几秒。但使用API方式在切换模型时仍然慢。借鉴web方式切换模型的代码,就可以做到很快切换。

其它:
How to switch the model in the api?
Is there a way to define a checkpoint with API?

启动参数 --api 使api生效 :

AUTO API docs not found

python背景知识:

理解Python项目的虚拟环境

相关推荐
哥布林学者6 分钟前
吴恩达深度学习课程四:计算机视觉 第三周:检测算法 (四)YOLO 的完整传播过程
深度学习·ai
itachi-uchiha18 分钟前
通识性AI知识点:Token和Context
ai
AndrewHZ1 小时前
【图像处理基石】[特殊字符]圣诞特辑:10+经典图像处理算法,让你的图片充满节日氛围感!
图像处理·人工智能·opencv·算法·计算机视觉·stable diffusion·节日氛围感
陈橘又青2 小时前
vLLM-Ascend推理部署与性能调优深度实战指南:架构解析、环境搭建与核心配置
人工智能·后端·ai·架构·restful·数据·vllm
小北方城市网3 小时前
第7课:Vue 3应用性能优化与进阶实战——让你的应用更快、更流畅
前端·javascript·vue.js·ai·性能优化·正则表达式·json
慢慢慢时光4 小时前
claude code使用
ai
DO_Community4 小时前
从零开始,用 n8n 设计可扩展的自动化工作流
运维·ai·自动化·devops
程序员鱼皮4 小时前
女友怒骂国内不能用Claude Code,于是我给她做了一个
计算机·ai·程序员·大模型·互联网·编程
小真zzz4 小时前
当前集成Nano Banana Pro模型的AI PPT工具排名与分析
开发语言·人工智能·ai·powerpoint·ppt
De-Alf4 小时前
Megatron-LM学习笔记(5)Model Linear线性层
笔记·学习·ai