comfyui

Mr数据杨5 小时前
comfyui
【ComfyUI】Mochi 文本转视频今天给大家演示一个 Mochi ComfyUI 视频生成工作流。通过该流程可以将文本提示转化为动态的短视频。
Mr数据杨1 天前
comfyui
【ComfyUI】Flux Depth 深度检测引导 LoRA 图像生成今天展示的案例是一个基于 Flux Depth LoRA 的 ComfyUI 工作流,利用深度信息来引导图像生成。该流程通过加载预训练的Flux主模型、LoRA扩展以及深度条件输入,结合文本提示进行生成,引导模型在空间结构和细节层面更精确地还原场景。
love530love2 天前
人工智能·windows·python·aigc·comfyui·comfyui-manager
解决 ComfyUI 启动显示 ‘sox‘ 命令未找到错误:从安装到配置的完整指南可能会遇到以下报错:'sox' is not recognized as an internal or external command,
将心ONE7 天前
comfyui
安装ComfyUI发行作品 ·comfyanonymous/ComfyUI这几个 .7z 都是 Windows 绿色版(portable),区别只在于 内置的 PyTorch / CUDA 版本 和 体积。一句话总结:
ai_xiaogui8 天前
arm开发·人工智能·macos·comfyui·一键部署·ai绘画教程·kritaai
Mac苹果版Krita AI一键安装教程:AIStarter+ComfyUI零基础部署全流程(X86/ARM双架构)还在为 Mac苹果版Krita AI 安装复杂而发愁?官方ComfyUI对苹果支持差?别担心!今天带你用 AIStarter一键安装 工具,零基础部署 Krita + ComfyUI 全套环境,支持X86和ARM架构(M1/M2/M3),真正实现“一包多用”!
雾岛心情11 天前
aigc·comfyui
【ComfyUI】ComfyUI 的WordCloud词云节点WordCloud是将图片转换为文本格式效果。 https://github.com/chflame163/ComfyUI_WordCloud
Mr数据杨12 天前
comfyui
【ComfyUI】Wan2.2 SmoothMorph 丝滑变装首尾衔接视频生成今天给大家演示一个基于 Wan2.2 模型 的 ComfyUI 视频工作流,主打“丝滑变装与首尾衔接效果”的生成方案。通过起始图与结束图的融合处理,结合 VAE 解码与特效控制,最终实现一个自然过渡的视频片段。本工作流重点围绕多模型协同、动画插帧控制与 Lora 微调技术展开,不仅适合视觉平滑动画生成,也为角色换装与转场提供了新方式。以下将详细解析本次工作流所使用的模型、节点与核心结构。
Sanlings15 天前
pytorch·ai·comfyui·amd·rocm·rx5700xt·ubuntu25.04
ComfyUI+RX5700XT+Ubuntu25.04运行配置有台机器,是AMD RX5700XT的显卡,近期想要试试能否跑ComfyUI,在Windows 11上尝试了CPU环境运行的,出一张图需要10小时以上,简直不要太慢,本着简便的想法尝试在WSL2上启用ROCm,发现WSL2微软并没有为其内核启用ROCm支持,一直报错,不太想重新编译内核,于是安装了Ubuntu25.04,准备直接在原生系统跑起来,后来发现这一套配置有不少坑,配置起来比较麻烦,于是记录下,给有同样烦恼的朋友提供一份思路。
Mr数据杨18 天前
comfyui
【ComfyUI】Wan2.2 CharacterMotion 单图角色关键词驱动视频生成今天给大家演示一个由单图驱动角色动作生成视频的 ComfyUI 工作流 ——Wan2.2 CharacterMotion。通过上传一张图像并输入关键词描述,该流程可以自动完成图像到视频的高质量动画生成,输出具有真实感动作的角色短片。整个系统基于多模型组合设计,结合大模型对图像与语义的理解能力,实现角色视觉、动作与音频的融合表现。该工作流适合创意短片、角色预览、叙事演示等多场景,支持精细控制和高效运算。
喆星时瑜20 天前
python·cuda·comfyui
关于 ComfyUI 的 Windows 本地部署系统环境教程(详细讲解Windows 10/11、NVIDIA GPU、Python、PyTorch环境等)在本地部署 ComfyUI 时,确保 Python、PyTorch、CUDA 等组件的版本能完美匹配,这对避免安装报错和保证稳定运行至关重要。 以下内容是整合了一份核心组件的版本适配对照表,并配上不同显卡的配置建议,希望能帮助你顺利部署。
Mr数据杨22 天前
comfyui
【ComfyUI】Stable Zero123 单图生成3D视图今天给大家演示一个基于 Stable Zero123 模型的 ComfyUI 工作流,通过图像加载、条件处理、采样与解码的完整流程,将二维图片转化为符合 3D 生成逻辑的输出结果。整个工作流不仅实现了从模型调用到最终图像保存的自动化链路,同时结合条件控制与采样策略,使生成过程更灵活、更具可控性。
Mr数据杨23 天前
comfyui
【ComfyUI】通用 文生图转视频今天给大家演示一个 ComfyUI 图像生成与图像转视频工作流。整个流程的设计围绕“先图像、后视频”的思路展开,先通过 Stable Diffusion XL 模型完成高质量的图像生成,再借助 Stable Video Diffusion 将静态图像转化为动态视频。工作流中,文本提示经过编码后被转化为条件输入,随后在潜空间内通过扩散采样生成初始结果,并在 VAE 解码器的作用下得到清晰的静态图像。接着,这些图像被送入视频扩散环节,结合视频条件化与引导机制逐帧生成画面,最终通过合成与保存节点导出完整的视频文
Mr数据杨23 天前
comfyui
【ComfyUI】混元3D 2.0 Turbo 多视图生成模型今天给大家演示一个基于 ComfyUI 的 Hunyuan3D v2 工作流,它能够通过多视角输入图像,结合模型推理完成三维重建,并最终生成可视化的网格文件。整个流程涵盖了模型加载、图像编码、多视角条件生成、采样推理、体素解码与网格转换,最后输出为可直接使用的三维模型。通过这一工作流,可以直观地看到从二维图像到三维模型的生成过程,非常适合三维创作、虚拟展示和建模学习的应用场景。
Mr数据杨23 天前
comfyui
【ComfyUI】Stable Audio 文本生成音频今天给大家演示一个 Stable Audio Open 1.0 ComfyUI 工作流,它能够通过文本提示生成电子舞曲风格的音频片段。整个流程从加载核心模型、文本编码提示、采样生成潜在音频,到解码保存音频,形成了一套完整的 AI 音乐生成流程。通过这个工作流,用户可以清晰地看到从输入关键词到输出音频的全过程。
虎冯河1 个月前
aigc·comfyui·模型训练·1024程序员节
图像,视频Lora模型训练的Timestep Type时间步类型「Timestep Type」选项(Sigmoid、Linear、Shift、Weighted)在 LoRA 训练器 或 扩散模型微调 (Diffusion Fine-tuning) 里,主要决定了噪声时间步(timestep)在训练过程中如何被采样,也就是模型在不同去噪阶段学习的权重分布。 不同的分布策略会影响训练重点、模型风格以及收敛速度。
AI_Gump2 个月前
人工智能·comfyui
Qwen-image-edit在ComfyUI部署使用今天在做产品宣传图片、公司海报的时候,使用了Qwen-image-edit模型,它的生图,以及编辑能力确实很好用。就顺手把它部署到我的AI主机里面。
Mr数据杨3 个月前
comfyui
【ComfyUI】深度 ControlNet 深度信息引导生成今天给大家演示一个结合 ControlNet 深度信息的 ComfyUI 建筑可视化工作流。整个流程通过引入建筑专用的权重模型和深度控制网络,使得生成的建筑图像不仅具备高质量和超写实的细节,还能精确遵循输入图片的结构特征。在这个案例中,模型加载、文本条件、深度控制以及最终图像生成保存环环相扣,构建出一个完整的高效工作流,能够帮助用户实现从文本到图像的精准建筑表现。
Mr数据杨3 个月前
comfyui
【ComfyUI】SDXL Turbo一步完成高速高效的图像生成今天演示的案例是一个基于 ComfyUI 与 Stable Diffusion XL Turbo 的图生图工作流。整体流程通过加载轻量化的 Turbo 版本模型,在文本编码与调度器的配合下,以极快的推理速度完成从提示词到高质量图像的生成。
Mr数据杨3 个月前
comfyui
【ComfyUI】图像描述词润色总结在 ComfyUI 的工作流中,图像反推描述词能帮我们从图像里抽取语义信息,但这些原始描述往往还显得生硬,缺乏创意或流畅性。为了让提示词更自然、更有表现力,就需要“润色”环节。润色节点的任务,不是重新生成描述,而是在已有内容的基础上进行优化和再表达,让它既忠实于原始语义,又更符合创作或生成需求。
q_q王3 个月前
大模型·comfyui·工作流
ComfyUI工作流不动了?在这记录一下在使用comfyui使用的过程中遇到的一个奇葩问题。工作流跑到某一个节点然后就不动了,一直保持在这个节点,comfyui后台也没报错,也不输出内容。