Windows: 如何实现CLIPTokenizer.from_pretrained`本地加载`stable-diffusion-2-1-base`

参考:https://blog.csdn.net/qq_38423499/article/details/137158458
https://github.com/VinAIResearch/Anti-DreamBooth?tab=readme-ov-file

联网下载没有问题:

python 复制代码
import os

os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"
import torch
from diffusers import DiffusionPipeline

pipe = DiffusionPipeline.from_pretrained(
    "stabilityai/stable-diffusion-2-1-base", torch_dtype=torch.float16
)

从 Hugging Face 上下载指定仓库的模型后,会保存到了C:\Users\***\.cache\huggingface\diffusers\models--stabilityai--stable-diffusion-2-1-base文件夹下面,总共14个文件

但是,我们进行CLIPTokenizer.from_pretrained进行本地路径加载stable-diffusion-2-1-base时,报错:

起初,按照要求将stable-diffusion-2-1-base稳定扩散版本的预训练文件v2-1_512-ema-pruned.ckpt下载并保存到args.pretrained_model_name_or_path="./stable-diffusion/stable-diffusion-2-1-base"路径下。但是在执行下面代码时,总是遇到OSError问题:

python 复制代码
pipeline = DiffusionPipeline.from_pretrained(
            args.pretrained_model_name_or_path,
            torch_dtype=torch_dtype,
            safety_checker=None,
            revision=args.revision,
            )

因此,将args.pretrained_model_name_or_path路径改成了"stabilityai/stable-diffusion-2-1-base"

不足:这种方式需要开放梯子,不然会出现ConnectTimeout

方案二:能否将需要的文件下载到本地,方便执行

1. 下载目标:

代码需要从 Hugging Face 下载 stabilityai/stable-diffusion-2-1-base 模型文件。

相关推荐
灵魂画师向阳1 天前
SD换脸插件Reactor的安装教程
人工智能·ai作画·stable diffusion·aigc·midjourney
X_taiyang181 天前
探索 Stable-Diffusion-Webui-Forge:更快的AI图像生成体验
人工智能·stable diffusion
ScienceLi11251 天前
vid2vid-zero:使用Stable Diffusion进行零样本视频编辑
stable diffusion
ScienceLi11251 天前
Stable diffusion 3.0
stable diffusion·扩散模型
蚂蚁在飞-1 天前
开源AI图像工具—Stable Diffusion
人工智能·stable diffusion
呆萌小新@渊洁1 天前
Stable Diffusion 3.5 模型在 Linux 上的部署指南
linux·运维·stable diffusion
bug404_2 天前
mac配置stable diffusion以及模型出图优化
macos·stable diffusion
谢白羽10 天前
stable diffusion 量化学习笔记
笔记·学习·stable diffusion
灵魂画师向阳14 天前
AI绘画 Stable Diffusion【应用篇】【角色一致性】:如何从不同视角创造一致的人物角色?
人工智能·ai作画·stable diffusion·aigc·美女
灵魂画师向阳14 天前
【Stable Diffusion】用AI给老照片上色,岁月不改它模样
人工智能·学习·ai作画·stable diffusion·midjourney