优雅的从HuggingFace下载模型

1. 下载全部文件

以下都以下载bloom模型为例

shell 复制代码
git lfs install
git lfs clone https://huggingface.co/bigscience/bloom-7b1

这种方式下载会显示下载的进度及网速,因此一般推荐使用这种方式下载。如果直接使用git clone https://huggingface.co/bigscience/bloom-7b1 方式来下载,不会显示任何下载信息。

2. 选择性下载

由于目前抱抱脸上的模型一般都包括多种类型,如safetensor .pt tensorflow 等格式,使用上述介绍的方式会将所有模型都下载下来,而在模型较大的情况下,会很费时间,并且其他格式的模型我们也用不到,因此可以通过以下方式只选择我们所需的文件下载

step1: 下载所有的小文件

shell 复制代码
git lfs install
GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/bigscience/bloom-7b1

需要注意,GIT_LFS_SKIP_SMUDGE=1 和后面的 git clone 必须在同一行才能生效,表示不下载大文件(小文件、大文件的区分依据是有没有使用git lfs),如果确实想将两者分开,在shell中使用export GIT_LFS_SKIP_SMUDGE=1,然后在clone也可以。这里需要注意,如果我们使用了export GIT_LFS_SKIP_SMUDGE=1命令后,它会一直生效,那么下次使用方法1介绍的方式来下载也是只下载小文件,因此记得查看GIT_LFS_SKIP_SMUDGE的状态。

此时git会下载所有的小文件,比如 tokenizer.json ,但是对于git lfs存储的大文件,只会存储一个文本的pointer file(空目录)

step2: 手动pull需要的模型文件

这时候我们需要先进入到模型所在目录文件夹里,然后按如下格式下载所有以.bin结尾的模型文件,这里也可以直接写模型文件名。

shell 复制代码
cd bloom-7b1
git lfs pull --include="*.bin"

3. 使用镜像

国内目前huggingface使用体验很差,很多情况下都无法下载。如果你有🪜请忽略本方法

在clone模型的时候,将链接中 huggingface.co 直接替换为域名 hf-mirror.com。使用浏览器或者 wget -ccurl -Laria2c 等命令行方式即可。下载需登录的模型需命令行添加 --header hf_*** 参数,其中hf_*** 是 access token,token 在 HF官网 获取。

4. 参考

Huggingface 镜像站
git lfs使用(huggingface下载大模型文件)

相关推荐
梓羽玩Python10 分钟前
开源AI代理爆火!Suna:3天内新增5.5K+标星,自然对话驱动的自动化神器!
人工智能·python·github
新智元15 分钟前
70% 大小,100% 准确!完美压缩 LLM 性能 0 损失,推理速度最高飙升 39 倍
人工智能·openai
Ann18 分钟前
RAG:让AI回答更“靠谱”
人工智能·llm
新智元20 分钟前
GPT-4.5 功臣遭驱逐!奥特曼盛赞工作出色,美国深陷 AI 人才危机
人工智能·openai
带娃的IT创业者26 分钟前
《AI大模型趣味实战》智能Agent和MCP协议的应用实例:搭建一个能阅读DOC文件并实时显示润色改写过程的Python Flask应用
人工智能·python·flask
一只韩非子31 分钟前
什么是MCP?为什么引入MCP?(通俗易懂版)
人工智能·aigc·mcp
新智元34 分钟前
毛骨悚然!o3 精准破译照片位置,只靠几行 Python 代码?人类在 AI 面前已裸奔
人工智能·openai
Tech Synapse1 小时前
电商商品推荐系统实战:基于TensorFlow Recommenders构建智能推荐引擎
人工智能·python·tensorflow
帅帅的Python1 小时前
2015-2023 各省 GDP 数据,用QuickBI 进行数据可视化——堆叠图!
大数据·人工智能
weixin_430750931 小时前
智能小助手部署 Win10 + ollama的Deepseek + CentOS+ maxKB
linux·人工智能·机器学习·语言模型·自然语言处理·centos