stable-diffusion-webui相关资料汇总

为了解决在内存中快速切换模型的问题,我查阅了以下资料:

知乎罗培宇stable-diffusion-webui源码分析系列,我看了1至3:
1.Gradio的基本用法
2.txt2img的实现
3.模型加载的过程
4.启动流程
5.多语言的实现方式
6.脚本的实现方式
7.扩展的实现方式
8.Lora功能的实现方式
9.euler a 采样器
10.unet网络结构

b站 :stable diffusion api 实现多人列队及切换模型的方法

Hardy的小屋:部署支持多人在线排队的Stable Diffusion服务
某issue中的点评:

这个思想是使用django做了一层外壳,使用django完成后续的接口调用操作吗?这样写的目的是什么,为什么不是在原有的基础上做出修改?谢谢

原有的sd-webui无法支持多人场景,多人加载不同的模型会乱掉。原来的代码对我来说太复杂了,所以就没在原来基础上改。

我的点评:其提到的reload_model_weights方法有用,确实能重新加载制定模型,但是每次都是从硬盘重新加载的。而stable-diffusion-webui是可以设置在内存中缓存模型的,这时用web方式切换模型就很快,基本是零点几秒。但使用API方式在切换模型时仍然慢。借鉴web方式切换模型的代码,就可以做到很快切换。

其它:
How to switch the model in the api?
Is there a way to define a checkpoint with API?

启动参数 --api 使api生效 :

AUTO API docs not found

python背景知识:

理解Python项目的虚拟环境

相关推荐
哥布林学者4 小时前
吴恩达深度学习课程五:自然语言处理 第一周:循环神经网络 (三)语言模型
深度学习·ai
营销操盘手阿泽6 小时前
从流量红利到构建长期AI数据资产的深度共建指南
ai
熊猫钓鱼>_>10 小时前
AI 加 CloudBase 帮我从零快速打造儿童英语故事学习乐园
ide·人工智能·ai·mcp·codebuddy·cloudbase·ai toolkit
向量引擎10 小时前
[架构师级] 压榨GPT-5.2与Sora 2的极限性能:从单体调用到高并发多模态Agent集群的演进之路(附全套Python源码与性能调优方案)
开发语言·人工智能·python·gpt·ai·ai写作·api调用
CoderJia程序员甲10 小时前
GitHub 热榜项目 - 日榜(2026-1-6)
ai·开源·大模型·github·ai教程
MicrosoftReactor12 小时前
技术速递|利用 SLM 创建多智能体的 Podcast 解决方案
microsoft·ai·agent·slm
红桃Jk13 小时前
关于开发文档向 Markdown(Docs-as-Code)转型的可行性研究报告
ai·mermaid
云雾J视界13 小时前
AI+IoT双轮驱动:构建风电设备预测性维护数字孪生体的全栈技术实践
人工智能·物联网·ai·lstm·iot·scada·金风科技
越努力越幸运~13 小时前
AMD AI MAX +395迷你主机 架构1151安装 vllm部署大模型操作记录
ai·vllm·rocm·ai max+395
深念Y14 小时前
仿B站项目 前端 3 首页 整体结构
前端·ai·vue·agent·bilibili·首页