如何在window 使用 conda 环境下载大模型

最近开始学习 变形金刚,最大的问题就是 huggingface 无法访问,无论是翻墙还是通过本地镜像网站HF-Mirror,然后再通过git下载都很慢,影响学习进度,后面看了如下文章,Huggingface配置镜像_huggingface镜像-CSDN博客 尝试在conda环境下下载大模型,起码能下载成功,看到下载进度条,具体操作如下:

运行 Anaconda Prompt (miniconda3)

安装 pip install -U huggingface_hub -i https://pypi.tuna.tsinghua.edu.cn/simple/

设置环境变量 setx HF_ENDPOINT "https://hf-mirror.com"

开始下载大模型 huggingface-cli download --resume-download Qwen/Qwen1.5-0.5B-Chat --local-dir d:/model/Qwen

最终运行效果如下图:

最重要的一点,还支持断点续传,实在太好了

相关推荐
蹦蹦跳跳真可爱5897 小时前
Python----大模型(大模型微调--BitFit、Prompt Tuning、P-tuning、Prefix-tuning、LORA)
人工智能·python·深度学习·自然语言处理·transformer
盼小辉丶8 小时前
PyTorch生成式人工智能(24)——使用PyTorch构建Transformer模型
pytorch·深度学习·transformer
陈敬雷-充电了么-CEO兼CTO9 小时前
从游戏NPC到手术助手:Agent AI重构多模态交互,具身智能打开AGI新大门
人工智能·深度学习·算法·chatgpt·重构·transformer·agi
deephub10 小时前
NSA稀疏注意力深度解析:DeepSeek如何将Transformer复杂度从O(N²)降至线性,实现9倍训练加速
人工智能·深度学习·transformer·deepseek·稀疏注意力
时序之心2 天前
ICML 2025 | 深度剖析时序 Transformer:为何有效,瓶颈何在?
人工智能·深度学习·transformer
贾全2 天前
Transformer架构全解析:搭建AI的“神经网络大厦“
人工智能·神经网络·ai·语言模型·自然语言处理·架构·transformer
我不是小upper2 天前
anaconda、conda、pip、pytorch、torch、tensorflow到底是什么?它们之间有何联系与区别?
人工智能·pytorch·深度学习·conda·tensorflow·pip
阿男官官3 天前
[Token]ALGM: 基于自适应局部-全局token合并的简单视觉Transformer用于高效语义分割, CVPR2024
人工智能·深度学习·transformer·语义分割
MobiCetus3 天前
确保conda环境内的Py不会污染系统
chrome·python·conda
麦兜*3 天前
大模型时代,Transformer 架构中的核心注意力机制算法详解与优化实践
jvm·后端·深度学习·算法·spring·spring cloud·transformer