comfyui

Rubin智造社2 天前
comfyui·github copilot·cohere·sora关闭·aleph alpha·deepseek降价·小米机器人
04月27日AI每日参考:Sora正式关闭,小米机器人开源,DeepSeek再降价今天有两条主线值得关注:一是产品层面的"收缩与开放"并行——OpenAI 关掉了 Sora,小米把机器人训练全流程开源;二是成本层面继续下探——DeepSeek API 缓存价格再降九成,Cohere 与欧洲 AI 公司合并押注"主权 AI"赛道。国内外各5条精选资讯,带你快速掌握今日 AI 动态。
阿钱真强道3 天前
openpose·animatediff·controlnet·comfyui·姿态·walking·动作控制
23 ComfyUI 实战:AnimateDiff + OpenPose Walking 姿态驱动视频生成在姿态驱动视频生成任务中,动作控制是否准确,决定了整条生成链路是否具有实际价值。相比人物外观、场景细节和画面风格,动作是否被正确执行更适合作为首要验证目标。本文基于 ComfyUI 搭建了一套 AnimateDiff + ControlNet OpenPose 的 walking 动作验证工作流,通过骨骼序列输入、姿态约束、时序生成和视频输出,验证 walking 动作是否能够被稳定驱动。工作流最终通过 VHS_VideoCombine 输出视频,格式为 video/h264-mp4,帧率为 8,文件名前
阿钱真强道4 天前
aigc·stable-diffusion·controlnet·comfyui·softedge·ip-adapter·人物表情编辑
21 ComfyUI 实战:IP-Adapter + ControlNet 实现人物表情编辑,为什么降权重后更容易“笑出来”在人像表情编辑任务中,仅依赖 prompt 往往难以稳定实现“让人物笑起来”的目标。为兼顾结构稳定与人物一致性,可以将 IP-Adapter 与 SoftEdge ControlNet 组合使用:前者负责增强人物特征保持,后者负责约束整体结构与边缘轮廓。本文基于一套已验证的 ComfyUI 工作流,介绍 IPAdapterUnifiedLoader + IPAdapterAdvanced + PiDiNetPreprocessor + ControlNetApplyAdvanced 的组合方式,并重点分析
Rubin智造社4 天前
大数据·人工智能·物联网·comfyui·deepseek v4·谷歌anthropic投资·meta亚马逊芯片
04月25日AI每日参考:谷歌豪掷400亿押注Anthropic,DeepSeek V4横空出世今天AI圈有两件大事值得重点关注。谷歌宣布向Anthropic投资最高400亿美元,同时提供5吉瓦算力,将Anthropic估值推至3500亿美元,是AI领域迄今最大单笔战略投资之一。与此同时,中国AI公司DeepSeek发布V4模型预览版,性能接近GPT-5.4等前沿模型,但价格仅为竞品的1/10,再次引发全球关注。国内外各5条精选资讯,带你快速掌握今日AI动态。
阿钱真强道5 天前
aigc·stable-diffusion·controlnet·comfyui·softedge·ip-adapter·人物表情编辑
20 ComfyUI 实战:用 ControlNet 实现人物表情编辑,让人物“笑起来”的工作流解析在基于 Stable Diffusion 的人物编辑任务中,一个非常常见但并不容易稳定实现的需求是:在尽量保持人物姿态、发型、服装和整体结构稳定的前提下,对人物表情进行编辑,例如让人物从自然状态变为微笑或大笑。
阿钱真强道5 天前
aigc·animatediff·stable-diffusion·comfyui·视频生成·图生视频·单图转视频
19 基于 ComfyUI 工作流学习 AnimateDiff:单图生成视频的入门实践与问题分析AnimateDiff 是当前基于扩散模型实现图像动态化的重要方案之一,在 ComfyUI 生态中也已经形成了较为成熟的接入方式。对于初学者而言,单图生成视频是理解 AnimateDiff 工作机制的一个合适入口。
阿钱真强道6 天前
animatediff·文生视频·stable-diffusion·comfyui·新手入门·工作流教程
17 ComfyUI AnimateDiff 新手教程:最小文生视频工作流搭建与原理解析刚接触 ComfyUI 和 AnimateDiff 时,最常见的两个问题通常是:很多教程一上来就堆很多插件和节点,结果还没跑通就先被劝退了。 这篇文章只做一件事:
阿钱真强道6 天前
animatediff·stable-diffusion·comfyui·工作流·ai视频·新手教程
18 AnimateDiff 简介:它在 AI 视频生成领域处于什么位置?AnimateDiff 是 Stable Diffusion 视频生态中一个非常有代表性的开源方案。它的核心价值,不是简单把多张图片拼成视频,而是尝试在采样阶段引入时间维度,让多帧之间具备连续关系。以一套典型工作流为例,AnimateDiff 可以通过 ADE_AnimateDiffLoaderGen1 加载 mm_sd_v15_v2.ckpt,再通过 ADE_UseEvolvedSampling 进入时序采样流程,结合 EmptyLatentImage 中的 512×512、16 帧设置,以及 VHS_
阿钱真强道9 天前
sdxl·controlnet·comfyui·depth anything·工作流实战·深度预处理
14 ComfyUI 实战:使用 Depth Anything V2 + ControlNet 实现高一致性人像生成在 ComfyUI 的控制类工作流中,Depth ControlNet 是非常实用的一种方案。相比 Canny 这类偏边缘约束的方法,Depth 更擅长保留人物的空间结构、姿态轮廓和前后层次,尤其适合半身人像、摄影棚人像、时尚肖像等场景。本文结合一套实际可运行的 ComfyUI 工作流,详细记录 DepthAnythingV2Preprocessor 的安装、模型放置路径、节点连接方式、参数设置思路以及与 Canny 的差异,帮助大家快速搭建一套稳定可复现的 depth 控制流程。
阿钱真强道11 天前
aigc·sdxl·stable-diffusion·一致性·comfyui·ipadapter·人物生成
10 ComfyUI IPAdapter 实战:上传一张参考图,轻松实现人物一致性控制很多人刚开始用 ComfyUI 画人像时,都会遇到一个特别烦的问题:人物不稳定。第一张图看着还不错,第二张、第三张就像换了个人。 尤其是你想让 AI 按照某张人物照片继续生成时,这种问题会更明显。
阿钱真强道16 天前
aigc·stable-diffusion·svd·comfyui·图生视频·rtx4090d
04 ComfyUI + SVD 系列(二):最小工作流实现图片生成视频(24 帧 + mp4 合成)上一篇已经把 ComfyUI + SVD 的环境装好了,目标是:这一篇就不再讲安装,直接进入最核心的实战部分:
阿钱真强道16 天前
python·aigc·stable-diffusion·svd·comfyui·工作流·图生视频
05 ComfyUI + SVD 系列(三):最小图生视频工作流拆解——节点含义、输入输出、参数作用与核心实验上一篇已经把 ComfyUI + SVD 的环境装好了,也已经成功跑通了一个最小的单图生成视频工作流。 但如果只是“照着图把节点连起来”,其实还不算真正学会。
阿钱真强道17 天前
aigc·stable-diffusion·svd·comfyui·图生视频·rtx4090
03 ComfyUI + SVD 系列(一):Ubuntu 24 + RTX 4090D 环境安装与启动验证最近准备做一个 “输入一张图片,输出一段短视频” 的最小验证。一开始其实纠结过两条路线:如果目标是:先快速完成“单图生成短视频”的最小闭环验证
若苗瞬19 天前
comfyui·swap·face·best·ltx
过去换脸现在换头?ComfyUI+LTX2.3+BFS In Context LoRA可以看这里的🔗B站视频,感觉静止场景效果不错。 💡PS:想当年DFL要换头好难的,极其耗时,还得是寸头短发或光头强……
AI视觉爱好者1 个月前
prompt·文生图·comfyui·中文提示词
ComfyUI 中文提示词:可视化选填,一键生成专属提示词在 ComfyUI 生图的过程中,你是否还在为手动敲写冗长的提示词发愁?是否因分类杂乱、关键词遗漏导致生图效果不达预期?是否想快速复用优质提示词配置却无便捷方式?
YoanAILab1 个月前
人工智能·系统架构·comfyui·dify·vllm·ai工程
AI 推理系统架构怎么选?图像生成与文本生成的分层选型思路(ComfyUI / Dify / vLLM / Triton)在 AI 项目真正落地时,一个非常常见的问题是:模型已经能跑了,但系统架构到底该怎么选?很多团队在做 AI 推理系统时,常常会把几类方案混在一起讨论:
1204157137 肖哥1 个月前
comfyui
ComfyUI 图片高清放大的正确顺序正确:放大→二次采样→保存图像 错误:二次采样→放大→保存图像如果要生成高清图,以下两种方式结合的效果最好:
yy我不解释1 个月前
开发语言·python·ai作画·音视频·comfyui
关于comfyui的mmaudio音频生成插件时时间不一致问题(三)继续,先大概弄懂逻辑再改基本都是pytorch的处理东西,过一下就行,反正也看不懂,单纯记录一下,以后牛逼了再来看
yy我不解释1 个月前
开发语言·python·ai作画·音视频·comfyui
关于comfyui的mmaudio音频生成插件时时间不一致问题(四)(video upload)(解决方法)记得不需要旧代码注释掉直接尝试运行,竟然成功了明显伪造视频(25帧),时长是对的,看来按照时间轴的插帧是没问题的
维度攻城狮1 个月前
人工智能·python·comfyui·工作流·节点图
AI 工具加持:ComfyUI 节点开发极速上手在AI生成式内容爆发的当下,ComfyUI以其灵活的节点化工作流、高度可定制的特性,成为 Stable Diffusion 相关开发与创作的首选工具之一。不同于传统的可视化界面,ComfyUI的核心魅力在于“节点”——每一个功能模块都是一个可组合、可修改、可扩展的节点,而节点开发,正是解锁其无限可能性的关键。但对很多开发者而言,从零搭建节点、调试逻辑、适配AI工具,往往需要投入大量时间成本,既要熟悉ComfyUI的底层架构,也要掌握相关的编程与AI知识,入门门槛相对较高。本文旨在借助当下主流AI辅助工具,