Windows: 如何实现CLIPTokenizer.from_pretrained`本地加载`stable-diffusion-2-1-base`

参考:https://blog.csdn.net/qq_38423499/article/details/137158458
https://github.com/VinAIResearch/Anti-DreamBooth?tab=readme-ov-file

联网下载没有问题:

python 复制代码
import os

os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"
import torch
from diffusers import DiffusionPipeline

pipe = DiffusionPipeline.from_pretrained(
    "stabilityai/stable-diffusion-2-1-base", torch_dtype=torch.float16
)

从 Hugging Face 上下载指定仓库的模型后,会保存到了C:\Users\***\.cache\huggingface\diffusers\models--stabilityai--stable-diffusion-2-1-base文件夹下面,总共14个文件

但是,我们进行CLIPTokenizer.from_pretrained进行本地路径加载stable-diffusion-2-1-base时,报错:

起初,按照要求将stable-diffusion-2-1-base稳定扩散版本的预训练文件v2-1_512-ema-pruned.ckpt下载并保存到args.pretrained_model_name_or_path="./stable-diffusion/stable-diffusion-2-1-base"路径下。但是在执行下面代码时,总是遇到OSError问题:

python 复制代码
pipeline = DiffusionPipeline.from_pretrained(
            args.pretrained_model_name_or_path,
            torch_dtype=torch_dtype,
            safety_checker=None,
            revision=args.revision,
            )

因此,将args.pretrained_model_name_or_path路径改成了"stabilityai/stable-diffusion-2-1-base"

不足:这种方式需要开放梯子,不然会出现ConnectTimeout

方案二:能否将需要的文件下载到本地,方便执行

1. 下载目标:

代码需要从 Hugging Face 下载 stabilityai/stable-diffusion-2-1-base 模型文件。

相关推荐
洛阳泰山1 天前
关于AI绘画 | Stable Diffusion 技术专栏推荐文章
ai作画·stable diffusion
Sayello2 天前
Stable diffusion inference 多卡并行
stable diffusion
老菜鸟YDZ3 天前
Stable Diffusion视频插件Ebsynth Utility使用方法
stable diffusion·aigc·ai绘图·插件·1024程序员节·ebsynth utility
AI极客菌3 天前
AI绘画开源王者归来,Stable Diffusion 3.5 AI绘画模型开源发布
人工智能·ai作画·stable diffusion·midjourney·flux·sd·人工智能作画
AIGC破防黑吗喽4 天前
ComflyUI零基础学习
学习·ui·ai·stable diffusion·midjourney·ai绘画·1024程序员节
Steven_yang_15 天前
stable diffusion WEBUI Brief summary
stable diffusion
BuluAI5 天前
Stable Diffusion 3.5发布:图像生成新纪元,多模态AI的突破!
人工智能·stable diffusion·1024程序员节
AI绘画小337 天前
最新行业动态丨600+自定义节点可用!ComfyUI V1 发布桌面版!
人工智能·ai作画·stable diffusion·aigc·comfyui