解决2080Ti使用节点ComfyUI-PuLID-Flux-Enhanced中遇到的问题

使用蓝大的工作流《一键同时换头、换脸、发型、发色之双pulid技巧

刚开始遇到的是不支持bf16的错误

根据《bf16 is only supported on A100+ GPUs #33》中提到,修改pulidflux.py中的dtype 为

dtype = torch.float16 后,出现新的错误,这个新错误可能是由于加载模型的节点改变而造成的(见后面模型加载节点对模型dtype的转换可知):

KSampler

expected scalar type Float but found Half

问chatgpt结果如下:

然后发现flux类的模型dtype如下:

flux1-dev-fp8-e4m3fn.safetensors

dtype is ---->torch.float8_e4m3fn

flux1-fill-dev_fp8.safetensors

dtype is ---->torch.float8_e4m3fn

flux1-fill-dev.safetensors

dtype is ---->torch.bfloat16

flux1-dev.safetensors

dtype is ---->torch.float16

flux1-fill-dev-Q4_1.gguf

dtype is ---->torch.bfloat16

因为在加载模型时,进行了dtype转换:

Loading PuLID-Flux model.

model weight dtype torch.float8_e4m3fn, manual cast: torch.float32

model_type FLUX
Loading PuLID-Flux model.

model weight dtype torch.float16, manual cast: None

model_type FLUX

gguf qtypes: F32 (471), Q4_1 (304), F16 (5)

model weight dtype torch.bfloat16, manual cast: torch.float32

model_type FLUX

上面加载模型的节点输出信息,在comfyui核心代码 D:\AI\ComfyUI\comfy\model_base.py中的语句如下:

复制代码
   logging.info("model weight dtype {}, manual cast: {}".format(self.get_dtype(), self.manual_cast_dtype))

所以数据类型torch.float8_e4m3fn, torch.float8_e5m2, torch.bfloat16只能适配fp32,于是修改pulidflux.py中相关代码如下,问题解决,运行正常,结果正常:

复制代码
    def apply_pulid_flux(self, model,.....):
        .......
        # For 8bit use bfloat16 (because ufunc_add_CUDA is not implemented)
        # For 2080Ti use float16 or float32 (because 2080ti not support bf16)
        if dtype in [torch.float8_e4m3fn, torch.float8_e5m2, torch.bfloat16]:
            #dtype = torch.bfloat16
            dtype = torch.float32

当然,由bf16变为fp32后,显存占用肯定就大了。

注意,当第2次运行时(准确来说是没触发Apply PuLID Flux重新加载运行,也即在这条链路上没有发生变动,例如只改变了提示词),依然会出现错误:KSampler expected scalar type Float but found Half,需要卸载模型及释放节点缓存,重新运行,蓝大的工作流,使用了2次Apply PuLID Flux节点而且加载的模型不一样,如果只使用1个Apply PuLID Flux节点,估计没有这个问题。

相关推荐
LilySesy5 分钟前
【案例总结】震撼巨作——SAP连接钉钉WEBHOOK
运维·人工智能·ai·钉钉·sap·abap·webhook
星空5 分钟前
从LLM到Agent Skill学习笔记
人工智能
新缸中之脑9 分钟前
12个最佳AI演示文稿(PPT)制作工具
人工智能·powerpoint
火山引擎开发者社区12 分钟前
从“内容苦力”到“高效创作者”,你只差一个 ArkClaw
人工智能
weiyvyy17 分钟前
嵌入式硬件接口开发的流程
人工智能·驱动开发·单片机·嵌入式硬件·硬件架构·硬件工程
罗小罗同学18 分钟前
首个病理AI领域的扩散基础模型CytoSyn开源,可生成高度逼真、符合生物学规律的H&E染色病理切片
人工智能·开源·医学图像处理·医工交叉·医学ai
code_pgf26 分钟前
Jetson Orin NX 16G设备上配置AI服务自动启动的方案,包括Ollama、llama-server和OpenClaw Gateway三个组件
数据库·人工智能·安全·gateway·边缘计算·llama
前端付豪28 分钟前
实现 AI 回复支持 Markdown 渲染
前端·人工智能·markdown
数智大号28 分钟前
北京InfoComm China 2026高峰会议紧密契合国家“十五五”规划,人工智能引领科技未
人工智能
码路飞29 分钟前
Mistral Small 4 上手实测:119B 参数只激活 6B,开源模型卷到这地步了?
人工智能·llm