技术栈
controlnet
阿钱真强道
3 天前
openpose
·
animatediff
·
controlnet
·
comfyui
·
姿态
·
walking
·
动作控制
23 ComfyUI 实战:AnimateDiff + OpenPose Walking 姿态驱动视频生成
在姿态驱动视频生成任务中,动作控制是否准确,决定了整条生成链路是否具有实际价值。相比人物外观、场景细节和画面风格,动作是否被正确执行更适合作为首要验证目标。本文基于 ComfyUI 搭建了一套 AnimateDiff + ControlNet OpenPose 的 walking 动作验证工作流,通过骨骼序列输入、姿态约束、时序生成和视频输出,验证 walking 动作是否能够被稳定驱动。工作流最终通过 VHS_VideoCombine 输出视频,格式为 video/h264-mp4,帧率为 8,文件名前
阿钱真强道
4 天前
aigc
·
stable-diffusion
·
controlnet
·
comfyui
·
softedge
·
ip-adapter
·
人物表情编辑
21 ComfyUI 实战:IP-Adapter + ControlNet 实现人物表情编辑,为什么降权重后更容易“笑出来”
在人像表情编辑任务中,仅依赖 prompt 往往难以稳定实现“让人物笑起来”的目标。为兼顾结构稳定与人物一致性,可以将 IP-Adapter 与 SoftEdge ControlNet 组合使用:前者负责增强人物特征保持,后者负责约束整体结构与边缘轮廓。本文基于一套已验证的 ComfyUI 工作流,介绍 IPAdapterUnifiedLoader + IPAdapterAdvanced + PiDiNetPreprocessor + ControlNetApplyAdvanced 的组合方式,并重点分析
阿钱真强道
5 天前
aigc
·
stable-diffusion
·
controlnet
·
comfyui
·
softedge
·
ip-adapter
·
人物表情编辑
20 ComfyUI 实战:用 ControlNet 实现人物表情编辑,让人物“笑起来”的工作流解析
在基于 Stable Diffusion 的人物编辑任务中,一个非常常见但并不容易稳定实现的需求是:在尽量保持人物姿态、发型、服装和整体结构稳定的前提下,对人物表情进行编辑,例如让人物从自然状态变为微笑或大笑。
阿钱真强道
9 天前
sdxl
·
controlnet
·
comfyui
·
depth anything
·
工作流实战
·
深度预处理
14 ComfyUI 实战:使用 Depth Anything V2 + ControlNet 实现高一致性人像生成
在 ComfyUI 的控制类工作流中,Depth ControlNet 是非常实用的一种方案。相比 Canny 这类偏边缘约束的方法,Depth 更擅长保留人物的空间结构、姿态轮廓和前后层次,尤其适合半身人像、摄影棚人像、时尚肖像等场景。本文结合一套实际可运行的 ComfyUI 工作流,详细记录 DepthAnythingV2Preprocessor 的安装、模型放置路径、节点连接方式、参数设置思路以及与 Canny 的差异,帮助大家快速搭建一套稳定可复现的 depth 控制流程。
这张生成的图像能检测吗
16 天前
人工智能
·
计算机视觉
·
controlnet
·
扩散模型
·
条件控制扩散模型
(论文速读)ControlNet-XS: 从反馈控制系统视角重新思考图像生成的控制机制
论文题目:ControlNet-XS: Rethinking the Control of Text-to-Image Diffusion Models as Feedback-Control Systems(重新思考文本到图像扩散模型作为反馈控制系统的控制)
爱知菜
3 个月前
controlnet
·
comfyui
ComfyUI ControlNet 环境搭建备忘录
作用:comfyui_controlnet_aux 是 ComfyUI 的扩展插件,用来管理和调用各种Controlnet 预处理器模型(Annotators)。
kocor
5 个月前
controlnet
·
comfyui
·
z-image
阿里最新开源文生图模型-造相-Z-Image-Turbo,Comfyui支持ControlNet
Comfyui更新到最新版!!!更新到 v0.3.77 以上ControlNet控制:ModelPatchLoader + QwenImageDiffsynthControlnet 节点(Comfyui 需要更新到 v0.3.77 以上)
DreamLife☼
6 个月前
controlnet
·
cip协议
·
工业知识点
·
ab plc
·
工业贡献
·
nui调度
·
确定性通信
AB PLC 的 ControlNet 总线全解析:原理、架构、调度机制与协议分析
2023 年,我在东北一家汽车厂做产线改造。客户指着一台老 ControlLogix 柜说:“这根 ControlNet 线一抖,整条焊装线就停。” 我打开 Studio 5000,看到 NUI=2ms,Scheduled 带宽 92%——典型的“压榨式配置”。 那一刻我意识到:ControlNet 虽老,但它的“确定性”仍是某些场景不可替代的底牌。
weiwei22844
7 个月前
stable diffusion
·
controlnet
ControlNet——AI图像生成的“精准操控工具”
ControlNet是由斯坦福大学研究者张吕敏等人于2023年提出的一种AI图像生成控制技术,核心作用是让用户在保持生成图像 “创造力” 的同时,精准控制图像的结构、姿态、轮廓、深度等关键空间信息,解决了传统扩散模型(如 Stable Diffusion)生成结果 “不可控” 的核心痛点。
画青山
8 个月前
controlnet
·
comfyui教程
·
flux.1
·
xlabs-ai
·
union-alpha
·
mistocontrolnet
comfyui适用Flux.1模型的controlnet方案整理--Xlabs-Ai系列/Union-alpha集成/Mistoai线稿
Flux官方模型发布后,开源社区很快就训练出了flux生态下的controlne,本节内容我们就开源社区发布的几种不同的controlnet模型及应用进行尝试。
Allen-Steven
1 年前
stable diffusion
·
插件
·
controlnet
Stable Diffusion绘画插件(ControlNet )
1.安装Stable Diffusion WebUI版;2.安装ControlNet插件。文后附模型下载链接。
RamendeusStudio
1 年前
数据库
·
人工智能
·
gpt
·
音视频
·
stablediffusion
·
controlnet
4.1-1 IS-NET-Pro视频转图片的插件
IS-NET-Pro这个插件真的让人惊讶,可以视频转帧图片,也可以将帧图片序列转换成视频。同时还有抠图等功能。
RamendeusStudio
1 年前
人工智能
·
ai
·
aigc
·
stablediffusion
·
controlnet
·
rag
·
ragflow
AI教我做事之RAG开发-21 RAGFlow深度研究
检索增强生成(Retrieval-Augmented Generation, RAG)自2020年由Lewis等人提出以来,已成为AI领域的重要范式,尤其在需要外部知识支持的场景中表现出色。RAG Flow框架是对RAG的进一步抽象和优化,旨在通过定义清晰的数据流和模块化设计,提升系统的可扩展性、效率和适用性。本报告将深入探讨RAG Flow的架构、技术细节、实现方法,并提供示例代码,帮助读者理解其在实际应用中的价值。
RamendeusStudio
1 年前
人工智能
·
gpt
·
ai
·
llm
·
stablediffusion
·
controlnet
·
ai agent
5-29 有趣的指令Pix2Pix(P2P)
上一节我们介绍了ControlNet中使用IP-Adapter能力本节主要介绍ControlNet中的指令P2P。
RamendeusStudio
1 年前
人工智能
·
gpt
·
ai
·
stablediffusion
·
controlnet
5-26 黑白照片上色-Recolor
上一节我们介绍了如何制作艺术二维码本一节主要介绍ControlNet中的Recolor。重新上色。实际上我们针对颜色的处理可以使用语义分割,或者边缘检测后单独处理,reColor相对方便的内置算法,帮我们自动的一体化处理。
RamendeusStudio
1 年前
人工智能
·
gpt
·
ai
·
stablediffusion
·
controlnet
5-27 临摹大师-IP-Adapter
前一节我们主要介绍ControlNet中如何对黑白照片进行上色主要介绍ControlNet中的IP-Adapter。这个也是一种类似的风格借鉴,类似Reference的能力。
春末的南方城市
1 年前
人工智能
·
计算机视觉
·
aigc
·
controlnet
·
图像生成
Huggingface Trending!可控人物图像生成统一框架Leffa,可精确控制虚拟试穿和姿势转换!
今天给大家介绍一个Huggingface上虚拟试穿的热门项目Leffa,Leffa是一个可控人物图像生成的统一框架,可以精确操纵外观(即虚拟试穿)和姿势(即姿势转换)。从效果看生成效果很不错!
春末的南方城市
1 年前
人工智能
·
3d
·
aigc
·
controlnet
·
图像生成
单幅图像合成 360° 3D 场景的新方法:PanoDreamer,可同时生成全景图像和相应的深度信息。
论文介绍了一种从单幅图像合成 360° 3D 场景的新方法。该方法以连贯的方式生成全景图及其相应的深度,解决了现有最先进方法(如 LucidDreamer 和 WonderJourney 的局限性。这些方法按照生成轨迹依次添加细节,通常在循环回输入图像时导致可见的接缝。相比之下,该方法可确保整个 360° 场景的一致性,如图所示。黄色条显示每个结果中与输入相对应的区域。
v_JULY_v
1 年前
controlnet
·
diffusionpolicy
·
扩散策略
·
umi所用策略
·
机器人动作预测
·
diff-control
Diffusion Policy——斯坦福机器人UMI所用的扩散策略:从原理到其编码实现(含Diff-Control、ControlNet详解)
本文一开始是属于此文《UMI——斯坦福刷盘机器人:从手持夹持器到动作预测Diffusion Policy(含代码解读)》的第三部分,考虑后Diffusion Policy的重要性很高,加之后续还有一系列基于其的改进工作
曾小蛙
2 年前
stable diffusion
·
controlnet
·
comfyui
·
controlnet_aux
·
图像预处理器
【comfyui】ControlNet 辅助预处理器节点——controlnet_aux (线稿、深度图、法线、脸部身体姿态估计)(星2.1K)
ComfyUI’s ControlNet Auxiliary (/ɔːɡˈzɪliəri/) Preprocessors 预处理器节点 :https://github.com/Fannovel16/comfyui_controlnet_aux 参考代码:https://github.com/lllyasviel/ControlNet/tree/main/annotator huggingface部分模型:https://huggingface.co/lllyasviel/Annotators/tree/m