Stable Diffusion绘画插件(ControlNet )

一、前置条件

1.安装Stable Diffusion WebUI版;

2.安装ControlNet插件。文后附模型下载链接。

二、ControlNet中模型的区别

1. canny.pth

  • 输入条件:Canny 边缘图

  • 特点:通过边缘线条控制生成图像结构

  • 场景:需要保留清晰轮廓但可以自由上色时使用


2. mlsd.pth

  • 输入条件:MLSD 检测出来的直线信息(线框)

  • 特点:适用于建筑、工业设计等有清晰直线结构的场景

  • 场景:透视感强烈、线条工整的图


3. depth.pth

  • 输入条件:深度图

  • 特点:模型根据物体深度关系生成合理的三维感画面

  • 场景:需要控制画面空间感、前后关系


4. openpose.pth

  • 输入条件:人体骨骼关键点图(OpenPose)

  • 特点:控制人体姿态

  • 场景:需要精确控制人体动作、舞蹈、姿势


5. scribble.pth

  • 输入条件:简单手绘涂鸦

  • 特点:根据涂鸦轮廓生成细节完整画面

  • 场景:草图快速成画


6. seg.pth

  • 输入条件:分割图(语义分割)

  • 特点:按分割区域生成对应内容

  • 场景:用不同区域标记物体或场景,模型按区域自动填充


7. normal.pth

  • 输入条件:法向图

  • 特点:按表面朝向与细节生成逼真的材质和结构

  • 场景:3D 转 2D、渲染质感控制


8. lineart.pth / lineart_anime.pth

  • 输入条件:线稿图

  • 特点:适合动漫或黑白线条图着色

  • 场景:漫画线稿转彩色


9. softedge.pth

  • 输入条件:软边缘图

  • 特点:比 canny 更柔和的边缘控制,细节自然过渡

  • 场景:需要轮廓,但不需要太生硬


总结对比(简表)

模型 控制方式 应用场景
canny.pth 边缘图 轮廓清晰成画
mlsd.pth 直线框架 建筑、工业设计
depth.pth 深度图 空间感、立体感
openpose.pth 姿态骨骼图 人体姿态动作生成
scribble.pth 涂鸦草图 草稿成画
seg.pth 分割图 根据区域生成场景或物体
normal.pth 法向图 渲染质感、三维感
lineart.pth 线稿图 动漫上色、漫画成画
softedge.pth 柔和边缘图 边缘柔和自然

下载链接:ControlNet模型

相关推荐
长不大的蜡笔小新6 小时前
基于Stable Diffusion的多模态图像生成与识别系统
stable diffusion
米汤爱学习13 小时前
stable-diffusion-webui【笔记】
笔记·stable diffusion
fantasy_arch16 小时前
Transformer vs Stable Diffusion vs LLM模型对比
深度学习·stable diffusion·transformer
盼小辉丶16 小时前
PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践
pytorch·深度学习·stable diffusion·生成模型
Blossom.11817 小时前
工业级扩散模型优化实战:从Stable Diffusion到LCM的毫秒级生成
开发语言·人工智能·python·深度学习·机器学习·stable diffusion·transformer
盼小辉丶2 天前
PyTorch实战(21)——扩散模型(Diffusion Model)
pytorch·深度学习·stable diffusion·生成模型
winfredzhang3 天前
从零构建:手写一个支持“高度定制化排版”的 Chrome 网页摘录插件
chrome·pdf·插件·epub·零碎信息归档
Tiger Shi3 天前
使用Qt调用stable-diffusion.cpp做一个客户端
人工智能·stable diffusion
byte轻骑兵3 天前
共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站
人工智能·stable diffusion
伟大的大威4 天前
在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI
stable diffusion·spark·comfyui