huggingface/bert/transformer的模型默认下载路径以及自定义路径

当使用 BertTokenizer.from_pretrained('bert-base-uncased') 加载预训练的 BERT 模型时,Hugging Face 的 transformers 库会从 Hugging Face Model Hub 下载所需的模型文件和分词器文件(如果它们不在本地缓存中)。

默认情况下,这些文件会被下载到本地的缓存目录中。缓存目录具体位置因您的操作系统和环境不同,但通常是以下路径之一:

默认缓存目录

  1. Linux / Unix / macOS

    • 默认路径:~/.cache/huggingface/transformers
    • 其中,~ 代表您的用户主目录。
  2. Windows

    • 默认路径:C:\Users\<YourUserName>\.cache\huggingface\transformers

自定义缓存路径

如果由于某些原因您需要更改默认的缓存路径,可以通过设置环境变量 TRANSFORMERS_CACHE 来指定新的路径。例如,在命令行中设置:

bash 复制代码
export TRANSFORMERS_CACHE=/your/custom/path

或者在 Python 代码中动态设置:

python 复制代码
import os
os.environ['TRANSFORMERS_CACHE'] = '/your/custom/path'

检查文件的具体位置

我们可以通过简单的脚本检查缓存路径和下载的文件:

python 复制代码
from transformers import BertTokenizer

# 检查默认的缓存路径
import os
cache_path = os.path.join(os.path.expanduser("~"), ".cache", "huggingface", "transformers")
print(f"Default cache path: {cache_path}")

# 加载分词器,触发下载(如果尚未下载)
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')

# 列出缓存目录中的文件
for root, dirs, files in os.walk(cache_path):
    for file in files:
        print(os.path.join(root, file))

通过该脚本,可以确认默认的缓存路径,并列出缓存目录中的文件,确保模型和分词器成功下载。

相关推荐
玄同76512 分钟前
Python 正则表达式:LLM 噪声语料的精准清洗
人工智能·python·自然语言处理·正则表达式·nlp·知识图谱·rag
2401_8414956416 分钟前
【机器学习】BP神经网络
人工智能·python·神经网络·机器学习·梯度下降法·反向传播·前向传播
Coovally AI模型快速验证28 分钟前
当小龙虾算法遇上YOLO:如何提升太阳能电池缺陷检测精度?
人工智能·深度学习·算法·yolo·目标检测·无人机
深圳行云创新34 分钟前
行云创新 AI+CloudOS:AI + 云原生落地新范式
人工智能·云原生·系统架构
AI视觉网奇37 分钟前
火星- ue数字人智能体 学习笔记
人工智能·笔记·学习
边缘计算社区1 小时前
第12届全球边缘计算大会-精彩瞬间
大数据·人工智能·边缘计算
后端小肥肠1 小时前
DeepSeek3.2+Coze王炸组合!小红书这个隐秘赛道有人成交7万单,有手就行!
人工智能·aigc·coze
阳光普照世界和平1 小时前
2025年智能体架构与主流技术深度研究报告:从生成式AI迈向自主执行层
人工智能·架构
hzp6661 小时前
招牌红烧肉版-深度神经网络
人工智能·深度学习·神经网络·llm·aigc·dnn·反向传播
乾元1 小时前
Service Mesh 与网络抽象:AI 如何做服务层次网络策略生成(微服务 / 云原生)
网络·人工智能·安全·微服务·云原生·运维开发·service_mesh