修改HuggingFace模型默认缓存路径

huggingface模型的默认缓存路径是~/.cache/huggingface/hub/

通常修改为自己的路径会更为方便。

方式一:cache_dir 参数

可以通过from_pretrained函数中的 cache_dir 参数来指定,缺点,每次都需要手动指定,比较麻烦。

如:加载一个bert-base-uncased模型

python 复制代码
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-uncased",cache_dir="路径")
model = AutoModelForMaskedLM.from_pretrained("google-bert/bert-base-uncased",cache_dir="路径")

方式二: 设置HF_HOME 环境变量

bash 复制代码
export HF_HOME=~/leo038/cache/
相关推荐
云山工作室3 分钟前
基于单片机的温湿度采集系统(论文+源码)
人工智能·单片机·嵌入式硬件·毕业设计·毕设
www_pp_3 分钟前
# 基于PyTorch的食品图像分类系统:从训练到部署全流程指南
人工智能·pytorch·分类
MorleyOlsen7 分钟前
【数字图像处理】立体视觉基础(1)
图像处理·人工智能·计算机视觉
watersink12 分钟前
大语言模型的训练、微调及压缩技术
人工智能·语言模型·自然语言处理
爱的叹息20 分钟前
AI推荐系统的详细解析 +推荐系统中滤泡效应(Filter Bubble)的详细解析+ 基于Java构建电商推荐系统的分步实现方案,结合机器学习与工程实践
java·人工智能·机器学习
IT古董22 分钟前
【漫话机器学习系列】211.驻点(Stationary Points)
人工智能·机器学习
结冰架构40 分钟前
【AI提示词】投资策略专家
大数据·人工智能·ai·提示词·专家
山海青风41 分钟前
智能体(Intelligent Agents)入门自学教程 3 简单反射型智能体(Reactive Agents)
人工智能·python
安全方案1 小时前
2025大模型十大安全威胁(OWASP TOP 10 LLM 2025).pdf
人工智能·安全·pdf
小oo呆1 小时前
【自然语言处理与大模型】个人使用LLaMA Factory微调的记录
人工智能·自然语言处理