Visual Code的Terminal (PowerShell)中下载huggingface模型

方案:使用 huggingface_hub 工具 + hf-mirror 镜像站点实现

1. 安装 huggingface_hub 工具

bash 复制代码
python -m pip install -U huggingface_hub -i https://pypi.tuna.tsinghua.edu.cn/simple/

2. 设置环境变量:env:HF_ENDPOINT

huggingface-cli 指令将用指定的站点代替缺省站点 huggingface.co

bash 复制代码
$env:HF_ENDPOINT = "https://hf-mirror.com"
$env:HF_INFERENCE_ENDPOINT = "https://api-inference.hf-mirror.com"

确认是否设置成功

bash 复制代码
PS K:\> huggingface-cli.exe env

Copy-and-paste the text below in your GitHub issue.

- huggingface_hub version: 0.26.5
。。。。。
- ENDPOINT: https://hf-mirror.com   <--- 修改成功了
。。。

3. 设置环境变量:$env:PATH

将 huggingface-cli.exe所在路径加入PATH

bash 复制代码
$env:PATH += "C:\Users\your-user-name\AppData\Local\Programs\Python\Python310\Scripts"

4. 下载你需要的模型,下以 layoutlmv3-base 为例

bash 复制代码
huggingface-cli.exe download microsoft/layoutlmv3-base 
  1. 【可选】设置环境变量 HF_HOME,将模型保存在当前路径下
bash 复制代码
$env:HF_HOME = "."

检查是否生效

bash 复制代码
huggingface-cli env
。。。
- HF_HUB_CACHE: .\hub
- HF_ASSETS_CACHE: .\assets
- HF_TOKEN_PATH: .\token
- HF_STORED_TOKENS_PATH: .\stored_tokens
相关推荐
人工智能训练13 分钟前
windows系统中的docker,xinference直接运行在容器目录和持载在宿主机目录中的区别
linux·服务器·人工智能·windows·ubuntu·docker·容器
南蓝25 分钟前
【AI 日记】调用大模型的时候如何按照 sse 格式输出
前端·人工智能
robot_learner28 分钟前
11 月 AI 动态:多模态突破・智能体模型・开源浪潮・机器人仿真・AI 安全与主权 AI
人工智能·机器人·开源
Mintopia1 小时前
🌐 动态网络环境中 WebAIGC 的断点续传与容错技术
人工智能·aigc·trae
后端小张1 小时前
【AI 学习】从0到1深入理解Agent AI智能体:理论与实践融合指南
人工智能·学习·搜索引擎·ai·agent·agi·ai agent
Mintopia1 小时前
🧩 Claude Code Hooks 最佳实践指南
人工智能·claude·全栈
【建模先锋】1 小时前
精品数据分享 | 锂电池数据集(四)PINN+锂离子电池退化稳定性建模和预测
深度学习·预测模型·pinn·锂电池剩余寿命预测·锂电池数据集·剩余寿命
星空的资源小屋1 小时前
极速精准!XSearch本地文件搜索神器
javascript·人工智能·django·电脑
九年义务漏网鲨鱼1 小时前
【大模型学习】现代大模型架构(二):旋转位置编码和SwiGLU
深度学习·学习·大模型·智能体
CoovallyAIHub1 小时前
破局红外小目标检测:异常感知Anomaly-Aware YOLO以“俭”驭“繁”
深度学习·算法·计算机视觉