【comfyui】ControlNet 辅助预处理器节点——controlnet_aux (线稿、深度图、法线、脸部身体姿态估计)(星2.1K)

相关资料下载https://pan.baidu.com/s/1mmgzGbccr4yVy29IUasOtg?pwd=0924

ComfyUI's ControlNet Auxiliary (/ɔːɡˈzɪliəri/) Preprocessors 预处理器节点 :https://github.com/Fannovel16/comfyui_controlnet_aux

参考代码:https://github.com/lllyasviel/ControlNet/tree/main/annotator

huggingface部分模型:https://huggingface.co/lllyasviel/Annotators/tree/main

测试工作流需要用到的节点:https://github.com/melMass/comfy_mtb

下图第一排第一张为输入,剩下都是处理得到的分割,线稿、二值,色块图、深度图、openpose,处理图等,这些处理后的图可直接输入到controlnet中

一、实测所有的预处理器效果预览 (完整模型约17G)

二、与controlnet联合一起使用(只用输入一张图片,自动根据条件重绘)

2.1 Dwpose提取姿态(dwpose是openpose的升级),后经controlnet重绘

在comfyui空白处双击,出搜索框

同样方式搜索 load image, preview image,,然后连到一起

接入controlnet

效果展示 (后续接入修复人脸工作流就可以了)

a group of people in city ,face details

controlnet相应的节点

完整工作流见包

2.2 线稿抽取重绘

a boy ride a pig 一个骑猪猪的男孩

完整工作流

相应的线稿抽取对比

contrlnet部分

相关推荐
yuzhangfeng6 小时前
【 模型】 开源图像模型Stable Diffusion入门手册
stable diffusion
浪淘沙jkp1 天前
(一)Ubuntu22.04服务器端部署Stable-Diffusion-webui AI绘画环境
ai作画·stable diffusion
kebijuelun2 天前
阿里数字人工作 Emote Portrait Alive (EMO):基于 Diffusion 直接生成视频的数字人方案
人工智能·语言模型·stable diffusion·aigc·音视频
算家云2 天前
ComfyUI-unclip模型部署指南
人工智能·aigc·sd·图像生成·comfyui·工作流·unclip 模型
李歘歘4 天前
Stable Diffusion概要讲解
stable diffusion
davenian5 天前
<AI 学习> 下载 Stable Diffusions via Windows OS
学习·stable diffusion
AI极客菌8 天前
[ComfyUI]Flux:繁荣生态魔盒已开启,6款LORA已来,更有MJ6&写实&动漫&风景&艺术&迪士尼全套
ai作画·stable diffusion·aigc·midjourney·人工智能作画·comfyui·风景
v_JULY_v8 天前
Diffusion Policy——斯坦福机器人UMI所用的扩散策略:从原理到其编码实现(含Diff-Control、ControlNet详解)
controlnet·diffusionpolicy·扩散策略·umi所用策略·机器人动作预测·diff-control
许野平9 天前
Stable Diffusion:照片转视频插件
stable diffusion·animatediff·temporal·照片转视频
python零基础入门小白10 天前
如何通过AI绘画技术轻松变现?教你三种方法赚取高额利润!
ai作画·stable diffusion·aigc