Huggingface大模型下载方法总结_20260128084905

一、国内镜像站直接下载(小白首选)

适用场景

几G以内的小型模型,无需安装额外工具,浏览器即可操作

详细操作

  1. 常用镜像 :推荐hf-mirror.com(通用、速度快)、modelscope.cn(阿里旗下,中文模型友好)
  2. 地址替换 :原始仓库地址https://huggingface.co/模型ID → 镜像地址https://hf-mirror.com/模型ID(例:Qwen/Qwen2-7B-Instruct
  3. 具体下载
    • 单文件:打开镜像地址,点击目标文件(如pytorch_model.bin),浏览器自动高速下载;

    • 大文件补充:复制文件下载链接,用wget命令下载(跨系统通用):

      bash 复制代码
      wget 镜像文件下载链接 -O 保存路径/文件名
      
      # Win10 CMD原生可用,-o 指定保存路径/文件名(建议绝对路径)
      curl 镜像文件下载链接 -o D:\models\pytorch_model.bin

二、huggingface-hub工具下载(进阶首选)

适用场景

几十G的大型模型,支持断点续传、后台运行,可灵活指定下载目录/过滤文件

详细命令/操作

1. 安装工具
bash 复制代码
# 基础版(满足核心下载)
pip install huggingface-hub
# 完整版(支持加速、压缩,推荐)
pip install huggingface-hub[full]
2.配置Hugging Face常用环境变量(关键)
变量说明
变量名 核心作用 推荐取值示例
HF_ENDPOINT 指定HF国内镜像端点,必配,所有HF工具均通过该地址下载 https://hf-mirror.com
HF_HOME HF系列工具统一缓存根目录,统一管理模型/缓存文件,避免C盘爆满 Windows:D:\hf_cache;Mac/Linux:~/.hf_cache
TRANSFORMERS_CACHE Transformers库专属缓存目录,指定模型、分词器的下载/缓存路径 HF_HOME一致即可
DIFFUSERS_CACHE Diffusers库专属缓存目录,指定扩散模型(如Stable Diffusion)的缓存路径 HF_HOME一致即可
各系统配置命令
配置类型 Windows(CMD) Windows(PowerShell) Mac/Linux 生效范围
临时配置(仅当前终端) 1. set HF_ENDPOINT=https://hf-mirror.com 2. set HF_HOME=D:\hf_cache 3. set TRANSFORMERS_CACHE=D:\hf_cache 4. set DIFFUSERS_CACHE=D:\hf_cache 1. $env:HF_ENDPOINT="https://hf-mirror.com" 2. $env:HF_HOME="D:\hf_cache" 3. $env:TRANSFORMERS_CACHE="D:\hf_cache" 4. $env:DIFFUSERS_CACHE="D:\hf_cache" 1. export HF_ENDPOINT=https://hf-mirror.com 2. export HF_HOME=~/.hf_cache 3. export TRANSFORMERS_CACHE=~/.hf_cache 4. export DIFFUSERS_CACHE=~/.hf_cache 仅当前终端,关闭后失效
永久配置(所有终端/工具) 系统环境变量中新增以下4个变量 ,分别填写对应值: 变量名:HF_ENDPOINT,值:https://hf-mirror.com 变量名:HF_HOME,值:D:\hf_cache 变量名:TRANSFORMERS_CACHE,值:D:\hf_cache 变量名:DIFFUSERS_CACHE,值:D:\hf_cache 同左(Windows系统环境变量为全局配置,CMD/PowerShell通用) 编辑配置文件(二选一): 1. Bash:vim ~/.bashrc 2. Zsh:vim ~/.zshrc 添加以下内容bash<br>export HF_ENDPOINT=https://hf-mirror.com<br>export HF_HOME=~/.hf_cache<br>export TRANSFORMERS_CACHE=~/.hf_cache<br>export DIFFUSERS_CACHE=~/.hf_cache<br> 执行生效: 1. Bash:source ~/.bashrc 2. Zsh:source ~/.zshrc 所有终端、Python工具、HF相关库均生效
补充说明
  1. 配置时路径不要包含中文/空格,避免出现路径识别错误;
  2. 若只需基础下载加速,仅配置HF_ENDPOINT即可;配置HF_HOME后,TRANSFORMERS_CACHE可省略(会默认继承HF_HOME路径);
  3. Windows配置系统环境变量后,需重启所有终端/IDE(如PyCharm、VS Code)才会生效;
  4. Mac/Linux若修改~/.bashrc后生效失败,检查当前终端是否为Zsh(执行echo $SHELL查看),对应修改~/.zshrc即可。
3. 代码下载(核心)
  • 单文件下载 :新建download_model.py,写入以下代码并执行python download_model.py

    python 复制代码
    from huggingface_hub import hf_hub_download
    # 配置参数
    model_id = "Qwen/Qwen2-7B-Instruct"  # 模型仓库ID
    filename = "pytorch_model.bin"       # 要下载的文件名
    cache_dir = "./models"               # 本地保存目录
    # 执行下载(开启断点续传、跳过已下载)
    hf_hub_download(
        repo_id=model_id,
        filename=filename,
        cache_dir=cache_dir,
        force_download=False,  # 不重复下载已存在文件
        resume_download=True   # 开启断点续传(核心)
    )
  • 批量下载整个仓库 :替换为snapshot_download函数,执行方式同上

    python 复制代码
    from huggingface_hub import snapshot_download
    model_id = "Qwen/Qwen2-7B-Instruct"
    cache_dir = "./models"
    snapshot_download(
        repo_id=model_id,
        cache_dir=cache_dir,
        force_download=False,
        resume_download=True,
        local_dir_use_symlinks=False,  # 不使用符号链接,直接保存文件
        local_dir=f"./models/{model_id}"  # 本地最终保存路径
    )

三、hf-downloader第三方工具下载(终极方案)

适用场景

几十G/上百G的超大模型,命令行一键操作,无需写Python脚本,支持多镜像自动择优、后台运行、限速/文件过滤

详细命令/操作

1. 安装工具
bash 复制代码
pip install hf-downloader
2. 核心下载命令
bash 复制代码
# 基础下载(指定模型、输出目录、镜像源,推荐hf-mirror.com)
hf-download --model 模型ID --output 本地保存路径 --mirror hf-mirror.com
# 示例:下载Qwen2-7B-Instruct到./models目录
hf-download --model Qwen/Qwen2-7B-Instruct --output ./models --mirror hf-mirror.com
3. 后台运行(避免断网/锁屏中断,推荐)
bash 复制代码
# Linux/Mac后台运行
nohup hf-download --model Qwen/Qwen2-7B-Instruct --output ./models --mirror hf-mirror.com &
# Windows后台运行
start /b python -m hf_download --model Qwen/Qwen2-7B-Instruct --output ./models --mirror hf-mirror.com

四、方案选择速查

下载方式 适用人群 模型大小 核心优势
镜像站直接下载 编程小白 几G以内 零配置、操作简单
huggingface-hub 开发进阶者 几十G 灵活可控、断点续传、Python生态兼容
hf-downloader 所有用户 超大模型(几十G+) 命令行一键操作、后台运行、多镜像择优
相关推荐
AI医影跨模态组学1 天前
如何将深度学习MTSR与膀胱癌ITGB8/TGF-β/WNT机制建立关联,并进一步解释其与患者预后及肿瘤侵袭、免疫抑制的生物学联系
人工智能·深度学习·论文·医学影像
专注写bug1 天前
Spring AI Alibaba——支持Agent Skill
ai·llm·langchain4j·ai alibaba
搬砖的前端1 天前
AI编辑器开源主模型搭配本地模型辅助对标GPT5.2/GPT5.4/Claude4.6(前端开发专属)
人工智能·开源·claude·mcp·trae·qwen3.6·ops4.6
Python私教1 天前
Hermes Agent 安全加固与生态扩展:2026-04-23 更新解析
人工智能
饼干哥哥1 天前
Kimi K2.6 干成了Claude Design国产版,一句话生成电影级的动态品牌网站
人工智能
肖有米XTKF86461 天前
带货者精品优选模式系统的平台解析
人工智能·信息可视化·团队开发·csdn开发云
天天进步20151 天前
打破沙盒限制:OpenWork 如何通过权限模型实现安全的系统级调用?
人工智能·安全
xcbrand1 天前
政府事业机构品牌策划公司找哪家
大数据·人工智能·python
骥龙1 天前
第十篇:合规与未来展望——构建AI智能体安全标准
人工智能·安全
薛定e的猫咪1 天前
AI 辅助科研工具全景指南:计算机与金融领域(2025-2026)
人工智能·金融·ai编程·ai写作